(VOVWORLD) - L’Europe vient de compléter ses réglementations relatives à l’intelligence artificielle, tandis que les grands groupes technologiques ont pris des engagements plus forts dans ce domaine. Le monde avance à pas modestes, mais sûrs, vers une meilleure gestion de cette technologie révolutionnaire.
Une loi qui fait date…
Photo d'illustration: NurPhoto/Getty Images |
Le 21 mai dernier, les 27 pays membres de l’Union européenne ont définitivement approuvé la loi sur l’intelligence artificielle (IA). Ce texte, inédit au niveau mondial, marque une avancée majeure dans le contrôle de cette technologie, et notamment des systèmes d’intelligence artificielle générative. Avec cette législation, l’Union européenne «souligne l’importance de la confiance, de la transparence et de la responsabilité (…), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne», a déclaré dans un communiqué Mathieu Michel, secrétaire d’État au numérique belge, dont le pays assure la présidence du conseil de l’Union européenne jusqu’à la fin du mois de juin.
Cette loi établit des critères pour classifier les systèmes d’IA en fonction des risques pour les utilisateurs: risque minimal, risque élevé et risque inacceptable. Les infractions seront passibles d’amendes allant de 7,5 millions à 35 millions d’euros, ou 7% des chiffres d’affaires mondiaux, en fonction de la nature de l’infraction et de la taille de la société impliquée. Le Parlement européen a proposé de créer un Bureau de l’IA, dans le but d’aider à une mise en œuvre harmonieuse de la nouvelle loi. Ce bureau fournira les indications nécessaires et coordonnera les enquêtes communes transfrontalières. Après la publication officielle de la loi sur le journal officiel de l’Union européenne, les dispositions liées à l'IA utilisée pour le score social, la prédiction politique ou la reconnaissance faciale via Internet ou les caméras de sécurité (CCTV) entreront en vigueur dans les 6 mois, tandis que les réglementations liées aux modèles d'IA générative, tels que ChatGPT ou Google Gemini... entreront en vigueur au bout de 12 mois. Les autres dispositions prendront effet au début de 2026, comme l’a annoncé Thierry Breton, le commissaire de l’Union européenne chargé du marché intérieur et de la politique industrielle.
«Notre loi sur l’intelligence artificielle adopte une approche fondée sur le risque. La quasi-totalité des applications ne seront pas touchées, mais certaines seront soumises à des contraintes, notamment lorsqu’elles concernent des données susceptibles d’être utilisées pour entraîner l’intelligence artificielle. En clair, certaines applications telles que celles liées à la santé seront limitées alors que d’autres, telles que celles utilisées pour le score social, seront interdites. Ce sont des réglementations à la fois strictes et raisonnables», a-t-il affirmé.
De l’avis de nombreux experts, la loi sur l’IA de l’Union européenne est plus inclusive que l’approche basée sur l’obéissance volontaire des États-Unis ou l’approche basée sur la stabilité sociale de la Chine. Par conséquent, la loi européenne pourrait avoir des impacts au niveau mondial. Selon Patrick Van Eecke, juriste du cabinet d’avocats Cooley aux États-Unis, les sociétés implantées en dehors de l’Union européenne mais utilisant des données de clients en provenance de l’Union européenne devraient se conformer à cette loi. D’autres pays et régions pourraient également s’en inspirer pour élaborer leurs propres réglementations sur la gestion de l’IA, comme ils l’ont fait suite à l’adoption par l’Union européenne de son Règlement général sur la protection des données.
… et une attention accrue portée sur la sûreté de l’IA
Avant l’adoption de cette loi sur l’IA, un autre événement significatif a eu lieu le 17 mai. Le Conseil de l’Europe, qui réunit 46 pays dont près de la moitié ne font pas partie de l’Union européenne, a adopté le premier traité international juridiquement contraignant encadrant l’utilisation de l’intelligence artificielle. Ce texte marque l’aboutissement de deux années de travail d’un organe intergouvernemental composé d’officiels et de chercheurs des 46 pays du Conseil de l’Europe et 11 autres pays, dont les États-Unis, le Japon, l’Argentine, Israël et l’Uruguay.
Le Premier ministre sud-coréen Han Duck-soo lors du Sommet sur l'IA, qui a eu lieu les 21 et 22 mai à Séoul. Photo: Reuters/Kim Soo-hyeon |
Autre événement majeur: le deuxième Sommet sur l’intelligence artificielle, qui s’est déroulé les 21 et 22 mai à la fois en ligne et en présentiel à Séoul, en République de Corée. Lors de ce sommet, les 16 plus grands groupes technologiques au monde, parmi lesquels OpenAI, Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI et Zhipu.ai, se sont entendus sur de nouveaux engagements concernant la sûreté de l’IA. Ils se sont notamment engagés à rendre transparente leur façon d’évaluer les risques, mais aussi à annoncer les mesures envisagées pour s’assurer que ces risques ne dépassent pas la limite autorisée.
Selon les prévisions, les gouvernements et les sociétés technologiques devraient proposer des définitions plus claires, plus spécifiques et plus complètes sur «la sûreté de l’intelligence artificielle», avant la tenue du prochain Sommet sur l’IA, prévu en 2025 en France.