(VOVWORLD) -
ຄວາມມານະພະຍາຍາມສ້າງບັນດາຂອບນິຕິກຳເພື່ອແນໃສ່ຄຸ້ມຄອງ, ຕິດຕາມ ກວດກາການພັດທະນາ ແລະ ການນຳໃຊ້ເຕັກໂນໂລຊີບັນຍາປະດິດ (AI) ຂອງໂລກຫາກໍ່ບັນລຸໄດ້ບັນດາບາດກ້າວເດີນໃໝ່, ດ້ວຍເລື່ອງ ເອີລົບ ປະຕິບັດສຳເລັດບັນດາຂໍ້ກຳນົດກ່ຽວກັບ AI, ພ້ອມນັ້ນ, ບັນດາກຸ່ມບໍລິສັດເຕັກໂນໂລຊີກໍ່ຕ້ອງຍົກອອກບັນດາຄຳໝັ້ນສັນຍາຢ່າງແຮງກ່ວາກ່ຽວກັບຄວາມປອດໄພຂອງ AI.
(ພາບປະກອບ: NurPhoto/Getty Images)
|
ວັນທີ 21 ພຶດສະພາ ຜ່ານມາ, ບັນດາປະເທດສະມາຊິກສະຫະພາບເອີລົບ (EU) ໄດ້ປະຕິບັດຂັ້ນຕອນໃຫ້ສັດຕະຍາບັນສຸດທ້າຍ ສຳລັບກົດໝາຍວ່າດ້ວຍ AI (EU AI Act). ນີ້ແມ່ນບັນດາຂໍ້ກຳນົດທີ່ມີລັກສະນະບາດລ້ຽວ ເພື່ອແນໃສ່ຄຸ້ມຄອງ AI, ພິເສດແມ່ນສຳລັບບັນດາລະບົບ AI ສ້າງຂຶ້ນ.
ກົດໝາຍທີ່ມີລັກສະນະບາດລ້ຽວ
ໃນແຈ້ງການກ່ຽວກັບເລື່ອງ EU ຮັບຮອງເອົາກົດໝາຍວ່າດ້ວຍ AI ຄັ້ງສຸດທ້າຍ, ທ່ານ Mathieu Michel, ລັດຖະມົນຕີ ຮັບຜິດຊອບການຫັນເປັນດີຈີຕອນຂອງ ແບນຊິກ, ເຊິ່ງເປັນປະທານທີ່ພວມດຳລົງຕຳແໜ່ງເປັນປະທານໝູນວຽນຂອງສະພາຂອງສະຫະພາບ ເອີລົບ, ຢັ້ງຢືນວ່າ: ກົດໝາຍນີ້ມີລັກສະນະບາດລ້ຽວ ແລະ ແມ່ນກົດໝາຍສະບັບທຳອິດໃນໂລກກ່ຽວກັບການຄວບຄຸມ AI, ຊ່ວຍແກ້ໄຂສິ່ງທ້າທາຍດ້ານເຕັກໂນໂລຊີທົ່ວໂລກ, ກໍ່ຄືສ້າງໂອກາດໃຫ້ແກ່ບັນດາພື້ນຖານເສດຖະກິດ ແລະ ສັງຄົມ. ສຳລັບກົດໝາຍວ່າດ້ວຍ AI ນັ້ນ, EU ເນັ້ນໜັກເຖິງຄວາມສຳຄັນຂອງຄວາມໄວ້ເນື້ອເຊື່ອໃຈ, ລັກສະນະກະຈ່າງແຈ້ງ ແລະ ຄວາມຮັບຜິດຊອບເມື່ອປະສົບກັບບັນດາບັນຫາຂອງເຕັກໂນໂລຊີໃໝ່, ພ້ອມທັງຮັບປະກັນວ່າເຕັກໂນໂລຊີທີ່ກ້າວໜ້ານີ້ອາດຈະພັດທະນາ ແລະ ຊຸກຍູ້ການປ່ຽນແປງໃໝ່ຂອງທະວີບ.
ກົດໝາຍດັ່ງກ່າວໄດ້ສ້າງໝວດມາດຖານຈັດແບ່ງບັນດາລະບົບ AI ໂດຍອີງໃສ່ລະດັບຄວາມສ່ຽງ, ເຊິ່ງມັນອາດຈະເກີດກັບຜູ້ນຳໃຊ້. ບັນດາກໍລະນີບໍ່ເຄົາລົບບັນດາຂໍ້ກຳນົດນີ້ອາດຈະໄດ້ຮັບການປັບໄໝລົງໂທດຈາກລະດັບຕ່ຳສຸດແມ່ນ 7,5 ລ້ານເອີໂຣ (ເທົ່າກັບ 8,2 ລ້ານໂດລາສະຫະລັດ) ຫາ 35 ລ້ານເອີໂຣ (ເທົ່າກັບ 38 ລ້ານໂດລາສະຫະລັດ) ຫຼື 7% ລາຍຮັບໃນທົ່ວໂລກ, ໂດຍອີງໃສ່ການກະທຳລະເມີດ ແລະ ຂອບຂະໜາດຂອງບໍລິສັດ. ພາຍຫຼັງກົດໝາຍກ່ຽວກັບ AI ໄດ້ປະກາດທາງການຢູ່ ເອີລົບ, ບັນດາຂໍ້ກຳນົດທີ່ກ່ຽວຂ້ອງເຖິງ AI ທີ່ໄດ້ນຳໃຊ້ກ່ອນໜ້ານັ້ນຈະມີຜົນສັກສິດໃນຮອບເວລາ 6 ເດືອນພາຍຫຼັງກົດໝາຍມີຜົນສັກສິດທາງການໄດ້ຮັບການປະກາດໃຊ້, ໃນຂະນະທີ່ຂໍ້ກຳນົດທີ່ກ່ຽວຂ້ອງເຖິງບັນດາຮູບແບບ AI ສ້າງເນື້ອໃນເອງ, ຄື: ChatGPT, Google Gemini… ຈະມີຜົນສັກສິດພາຍຫຼັງ 12 ເດືອນ. ບັນດາຂໍ້ກຳນົດອື່ນຈະມີຜົນສັກສິດເລີ່ມແຕ່ຕົ້ນປີ 2026. ທ່ານ Thierry Breton, ກຳມະການຮັບຜິດຊອບອຸດສາຫະກຳ ແລະ ຕະຫຼາດພາຍໃນ EU, ໃຫ້ຮູ້ວ່າ:
“ກົດໝາຍດ້ວຍ AI ຂອງພວກຂ້າພະເຈົ້າໄດ້ສ້າງບົນພື້ນຖານການຕີລາຄາຄວາມສ່ຽງ. ບັນດາແອບພີເຄຊັ່ນ ເກືອບທັງໝົດຈະບໍ່ປະສົບກັບບັນຫາຍັງ ແຕ່ບາງເທື່ອຈະຖືກຈຳກັດ, ພິເສດແມ່ນເມື່ອກ່ຽວຂ້ອງເຖິງບ້ວງຂໍ້ມູນຂ່າວສານ ຫຼື ເລື່ອງບັນດາຂໍ້ມູນຂ່າວສານນີ້ໄດ້ນຳໃຊ້ເພື່ອຝຶກອົບຮົບ AI ເປັນຄືແນວໃດ. ດັ່ງນັ້ນ, ບາງແອບພີເຄຊັ່ນ, ຕົວຢ່າງຄືກ່ຽວກັບສຸຂະພາບ ຈະຖືກຈຳກັດ, ບາງແອບພີເຄຊັ່ນຈະຖືກເກືອດຫ້າມ, ຕົວຢ່າງຄືການໃຫ້ຄະແນນຕໍ່ສັງຄົມສຳລັບພົນລະເມືອງ (social scoring). ດັ່ງນັ້ນ, ນີ້ແມ່ນບັນດາຂໍ້ກຳນົດທີ່ເຄັ່ງຂັດ ແລະ ເໝາະສົມ”.
ທ່ານນາຍົກລັດຖະມົນຕີ ສ ເກົາຫຼີ Han Duck-soo
(ພາບ:Reuters/Kim Soo-hyeon )
|
ຄວາມປອດໄພຂອງ AI
ພ້ອມກັບກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU, ໃນຊຸມວັນຜ່ານມາ, ເອີລົບ ກໍ່ໄດ້ຮັບຮູ້ເຫດການທີ່ເປັນໜ້າສົນໃຈອື່ນໆທີ່ກ່ຽວຂ້ອງເຖິງການຄຸ້ມຄອງ AI. ວັນທີ 17 ພຶດສະພາ, ສະພາເອີລົບ (EC), ເຊິ່ງແມ່ນອົງການເຕົ້າໂຮມ 46 ປະເທດສະມາຊິກ ເອີລົບ, ໃນນັ້ນມີຫຼາຍປະເທດບໍ່ຂຶ້ນກັບ EU, ໄດ້ຮັບຮອງເອົາສົນທິສັນຍາທົ່ວໂລກສະບັບທຳອິດທີ່ມີລັກສະນະຜູກມັດດ້ານນິຕິກຳທີ່ກ່ຽວຂ້ອງເຖິງບັນດາຂໍ້ກຳນົດການຄຸ້ມຄອງການນຳໃຊ້ປັນຍາປະດິດ (AI).
ສະພາເອີລົບ ໃຫ້ຮູ້ວ່າ: ສົນທິສັນຍາວ່າດ້ວຍ AI ຂອງອົງການນີ້ໄດ້ວາງອອກຂອບນິຕິກຳສຳລັບທຸກໆໄລຍະໃນວິວັດການພັດທະນາ ແລະ ນຳໃຊ້ບັນດາລະບົບ AI, ພ້ອມທັງແກ້ໄຂບັນດາຄວາມສ່ຽງທີ່ຊ້ອນແຝງຂອງ AI ແລະ ຊຸກຍູ້ການປ່ຽນແປງໃໝ່ເຕັກໂນໂລຊີຢ່າງມີຄວາມຮັບຜິດຊອບ. ຕ່າງກັບກົດລະບຽບ AI ຂອງ EU, ບັນດາປະເທດຢູ່ນອກ ເອີລົບ ກໍ່ສາມາດເຂົ້າຮ່ວມສົນທິສັນຍາຂອງສະພາເອີລົບໄດ້. ສົນທິສັນຍາສະບັບນີ້ແມ່ນໝາກຜົນຂອງໄລຍະ 2 ປີທີ່ເຮັດວຽກຂອງອົງການລະຫວ່າງລັດຖະບານ, ເຊິ່ງໄດ້ເຕົ້າໂຮມ 46 ປະເທດສະມາຊິກຂອງ EC, ສະຫະພາບເອີລົບ (EU) ແລະ 11 ປະເທດທີ່ບໍ່ແມ່ນສະມາຊິກຂອງ ເອີລົບ, ໃນນັ້ນມີ: ອາເມລິກາ, ຍີ່ປຸ່ນ, ອັກຊັງຕິນ, ອິດສະຣາແອນ, ອູຣູກວາຍ… ກໍ່ຄືຜູ້ຕາງໜ້າຂອງວົງການນັກຮຽນຮູ້.
ໃນອາທິດ, ກອງປະຊຸມສຸດຍອດຄວາມປອດໄພຂອງ AI ຄັ້ງທີ 2, ຈັດຂຶ້ນໃນລະຫວ່າງວັນທີ 21 – 22 ພຶດສະພາ, ຕາມຮູບແບບເຊິ່ງໜ້າ ແລະ ທາງໄກຢູ່ ເຊີອຸ່ນ (ປະເທດ ສ ເກົາຫຼີ), ສາມາດບັນລຸໄດ້ບາດກ້າວໃຫຍ່ ໃນຂະນະທີ່ມີ 16 ກຸ່ມບໍລິສັດເຕັກໂນໂລຊີໃຫຍ່ແຖວໜ້າຂອງໂລກ, ໃນນັ້ນມີ: OpenAI (ບໍລິສັດພັດທະນາ ChatGPT), Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI (ຝລັ່ງ) ແລະ Zhipu.ai (ປະເທດຈີນ) ໄດ້ເຫັນດີຕໍ່ບັນດາຄຳໝັ້ນສັນຍາກ່ຽວກັບຄວາມປອດໄພ AI. ຕາມນັ້ນແລ້ວ, ບັນດາບໍລິສັດ AI ຈະເປີດເຜີຍວິທີການຕີລາຄາຄວາມສ່ຽງຂອງເຕັກໂນໂລຊີ AI, ໃນນັ້ນ, ມີການກຳນົດບັນດາຄວາມສ່ຽງໃດທີ່ໄດ້ຖືວ່າ “ບໍ່ສາມາດຍອມຮັບໄດ້” ແລະ ບັນດາມາດຕະການເພື່ອຮັບປະກັນບັນດາຄວາມສ່ຽງນີ້ ບໍ່ເກີນລະດັບຂໍ້ກຳນົດ. ທ່ານນາຍົກລັດຖະມົນຕີ ສ ເກົາຫຼີ Han Duck-soo, ຕີລາຄາວ່າ:
“ຄວາມປອດໄພຂອງ AI ແມ່ນຕ້ອງໄດ້ບຸລິມະສິດ. ຄວາມປອດໄພຂອງ AI ຍົກສູງຄວາມໄວ້ເນື້ອເຊື່ອໃຈຂອງມະຫາຊົນຕໍ່ AI. ບໍ່ມີໃຜສາມາດປະຕິເສດໄດ້ວ່າ ຄວາມປອດໄພແມ່ນປັດໄຈທີ່ຈຳເປັນຊ່ວຍກຳນົດທ່າໄດ້ປຽບໃນການແກ່ງແຍ້ງ ແລະ ຄວາມໝັ້ນຄົງຂອງບັນດາຮູບແບບ AI ໃນຕະຫຼາດທົ່ວໂລກ”.
ຄາດວ່າ, ບັນດາລັດຖະບານ ແລະ ບັນດາບໍລິສັດເຕັກໂນໂລຊີຈະຍົກອອກບັນດານິຍາມຢ່າງຈະແຈ້ງ, ລະອຽດ ແລະ ຮອບດ້ານກ່ວາກ່ຽວກັບ “ຄວາມປອດໄພຂອງ AI” ໃນໄລຍະຈະມາເຖິງ, ກ່ອນທີ່ຈັດກອງປະຊຸມສຸດຍອດກ່ຽວກັບຄວາມປອດໄພຂອງ AI ຄັ້ງຕໍ່ໄປ, ເຊິ່ງຈະຈັດຂຶ້ນໃນປີໜ້າຢູ່ປະເທດ ຝລັ່ງ./.