(VOV5) - Theo nhiều chuyên gia, Đạo luật AI của EU được đánh giá là toàn diện hơn cách tiếp cận dựa trên việc tuân thủ tự nguyện tại Mỹ hay cách tiếp cận chú trọng đến ổn định xã hội ở Trung Quốc.
Nỗ lực xây dựng các khuôn khổ pháp lý nhằm quản lý, giám sát việc phát triển và sử dụng công nghệ trí tuệ nhân tạo (AI) của thế giới vừa đạt được những bước tiến mới, với việc châu Âu hoàn thiện các quy định về AI, đồng thời các tập đoàn công nghệ cũng đưa ra các cam kết mạnh mẽ hơn về an toàn AI.
Hôm 21/05, các nước thành viên Liên minh châu Âu (EU) đã thực hiện bước phê chuẩn cuối cùng đối với Đạo luật AI (EU AI Act). Đây là các quy định mang tính bước ngoặt nhằm kiểm soát AI, đặc biệt đối với những hệ thống AI tạo sinh.
Đạo luật mang tính bước ngoặt
Trong thông báo về việc thông qua EU thông qua lần cuối Đạo luật AI, ông Mathieu Michel, Quốc Vụ khanh Phụ trách Số hóa của Bỉ, nước đang giữ chức Chủ tịch luân phiên Hội đồng của Liên minh châu Âu, khẳng định Đạo luật này mang tính bước ngoặt và là đạo luật đầu tiên trên thế giới kiểm soát AI, giúp giải quyết thách thức công nghệ toàn cầu, cũng như tạo cơ hội cho các nền kinh tế và xã hội. Với Đạo luật AI, EU nhấn mạnh đến tầm quan trọng của niềm tin, tính minh bạch và trách nhiệm khi đối mặt với những vấn đề của công nghệ mới, đồng thời đảm bảo công nghệ tiên tiến này có thể phát triển và thúc đẩy sự đổi mới của châu lục.
NurPhoto/Getty Images |
Đạo luật trên thiết lập bộ tiêu chí phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng có thể gây ra cho người dùng, gồm các cấp độ: Rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro thấp.
Những trường hợp không tuân thủ các quy định có thể bị phạt từ mức thấp nhất là 7,5 triệu euro (8,2 triệu USD) cho đến 35 triệu euro (38 triệu USD) hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty. Nghị viện châu Âu cũng đã đề xuất thành lập Văn phòng AI, một cơ quan mới của EU, để hỗ trợ việc áp dụng hài hòa đạo luật AI, cung cấp hướng dẫn và điều phối các cuộc điều tra chung xuyên biên giới.
Sau khi Đạo luật AI chính thức được công bố trên công báo châu Âu, các quy định liên quan các AI dùng để chấm điểm xã hội, dự đoán chính sách hay nhận diện khuôn mặt qua internet hoặc camera an ninh (CCTV) sẽ có hiệu lực trong vòng 6 tháng sau khi dự luật chính thức được ban hành, trong khi quy định liên quan đến các mô hình AI tạo sinh, như: ChatGPT, Google Gemini… sẽ có hiệu lực sau 12 tháng. Các quy định khác có hiệu lực từ đầu năm 2026.
Ủy viên phụ trách công nghiệp và thị trường nội địa EU, ông Thierry Breton, cho biết: “Đạo luật AI của chúng tôi được xây dựng trên cơ sở đánh giá rủi ro. Hầu hết các ứng dụng sẽ không gặp vấn đề gì nhưng một số sẽ bị hạn chế, nhất là khi liên quan đến các gói dữ liệu, hay việc các dữ liệu này được sử dụng để huấn luyện AI ra sao. Do đó, một số ứng dụng, như về sức khỏe, sẽ bị hạn chế, một số sẽ bị cấm, như việc chấm điểm xã hội với công dân. Vì thế, đây là những quy định rất chặt chẽ và hợp lý”.
Theo nhiều chuyên gia, Đạo luật AI của EU được đánh giá là toàn diện hơn cách tiếp cận dựa trên việc tuân thủ tự nguyện tại Mỹ hay cách tiếp cận chú trọng đến ổn định xã hội ở Trung Quốc, do đó, có thể tạo ra các tác động toàn cầu. Chuyên gia luật Patrick Van Eecke tại hãng luật Cooley (Mỹ) cho rằng các công ty bên ngoài EU nhưng có sử dụng dữ liệu của khách hàng EU sẽ phải tuân thủ Đạo luật này, đồng thời nhiều quốc gia và khu vực có thể xem Đạo luật này là hình mẫu để xây dựng các quy định riêng về quản lý AI, giống như đã từng làm trước đây với GDPR, quy định về bảo vệ quyền riêng tư của châu Âu.
An toàn AI
Cùng với Đạo luật AI của EU, trong những ngày qua châu Âu cũng ghi nhận một sự kiện đáng chú ý khác liên quan đến việc quản lý AI. Hôm 17/5, Hội đồng châu Âu (EC), tổ chức quy tụ 46 quốc gia thành viên ở châu Âu, trong đó có nhiều quốc gia không thuộc EU, đã thông qua Hiệp ước toàn cầu đầu tiên mang tính ràng buộc về mặt pháp lý liên quan các quy định quản lý việc sử dụng trí tuệ nhân tạo (AI).
Hội đồng châu Âu cho biết Hiệp ước về AI của tổ chức này đặt ra khung pháp lý đối với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm. Khác với Đạo luật AI của EU, các nước nằm ngoài châu Âu cũng có thể tham gia vào Hiệp ước của Hội đồng châu Âu. Hiệp ước này là kết quả 2 năm làm việc của một cơ quan liên chính phủ, quy tụ 46 quốc gia thành viên của EC, Liên minh châu Âu (EU) và 11 quốc gia không phải thành viên của Hội đồng châu Âu, trong đó có Mỹ, Nhật Bản, Argentina, Israel, Uruguay…. cũng như đại diện của giới học giả.
Cũng trong tuần, Hội nghị Thượng đỉnh an toàn AI lần thứ 2, diễn ra trong 2 ngày 21-22/05 theo hình thức trực tuyến và trực tiếp tại Seoul (Hàn Quốc), đạt được bước tiến lớn khi 16 tập đoàn công nghệ hàng đầu thế giới, trong đó có: OpenAI (nhà phát triển ChatGPT), Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI (Pháp) và Zhipu.ai (Trung Quốc) đã đồng ý với những cam kết mới về an toàn AI. Theo đó, các công ty AI sẽ công khai cách thức đánh giá rủi ro của công nghệ AI, trong đó có việc xác định những rủi ro nào được coi là "không thể chấp nhận được" và các biện pháp để đảm bảo các rủi ro này không vượt ngưỡng cho phép.
Thủ tướng Hàn Quốc, Han Duck-soo, phát biểu tại lễ khai mạc Hội nghị Thượng đỉnh AI, diễn ra trong 2 ngày 21-22/05 tại Seoul, Hàn Quốc. Ảnh: Reuters/Kim Soo-hyeon. |
Thủ tướng Hàn Quốc, Han Duck-soo, đánh giá: “An toàn AI là ưu tiên. An toàn AI nâng cao niềm tin của công chúng vào AI. Không ai có thể phủ nhận rằng an toàn là một yếu tố thiết yếu giúp xác định lợi thế cạnh tranh và sự bền vững của những mô hình AI trên thị trường toàn cầu”.
Dự kiến, các chính phủ và các công ty công nghệ sẽ đưa ra các định nghĩa rõ ràng, cụ thể và toàn diện hơn về “an toàn AI” trong thời gian tới, trước khi diễn ra Hội nghị thượng đỉnh an toàn AI tiếp theo, tổ chức trong năm sau tại Pháp.