Actualités 20 décembre 2023

L'AI Act ­− Un cadre réglementaire européen pour l'intelligence artificielle 

L’intelligence artificielle (IA) est au cœur des débats, suscitant des opinions divergentes entre ceux qui plaident pour une réglementation stricte et ceux qui encouragent son développement. L’Europe, consciente des enjeux, a récemment franchi une étape cruciale dans la régulation de l’IA en s’accordant sur une proposition de règlement : l’AI Act, ou Loi sur l’intelligence artificielle. Ce projet de règlement vise à établir des règles harmonisées pour garantir la sécurité et le respect des droits fondamentaux tout en stimulant l’innovation. 

L’idée principale est de réglementer les applications d’IA en fonction de leur niveau de risque potentiel. Voici les principales catégories de classification : 

  • Risque minimal : exemption d’obligations et de contraintes 
  • Haut risque : conforme à des exigences strictes : systèmes d’atténuation des risques : documentation détaillée, information claire aux utilisateurs, surveillance humaine et cybersécurité. 
  • Haut risque inacceptable : système considéré comme une menace claire : reconnaissance des émotions, social scoring, reconnaissance biométrique, identification faciale, technique de manipulation et exploitation de la vulnérabilité des personnes  
  • Risque spécifique lié à la transparence : modèle à usage général soumis à des obligations de transparence (chatbots ou contenu « deepfake »).   

Comparé à la proposition initiale de la Commission, l’accord provisoire présente plusieurs éléments clés :    

  1. Exemptions pour les forces de l’ordre : des exceptions strictement définies sont prévues pour l’utilisation de systèmes d’identification biométrique par les forces de l’ordre, sous autorisation judiciaire et pour des crimes spécifiques. 

    Nouvelle architecture de Gouvernance : un bureau de l’IA est créé au sein de la Commission pour la supervision des modèles de base (foundational models) et l’application de la législation y afférant.  

    Sanctions : les amendes proportionnelles au chiffre d’affaires global des entreprises fautives (max. 35 millions d’euros) sont prévues, avec des plafonds plus modérés pour les PME et les start-ups.  

    Mesures de soutien à l’innovation et aux PME : l’accord encourage les “AI regulatory sandboxes” et les tests en conditions réelles pour favoriser l’innovation, tout en allégeant la charge administrative pour les petites entreprises.   

    Transparence et protection des droits fondamentaux : une évaluation de l’impact sur les droits fondamentaux est requise pour les systèmes d’IA à haut risque, avec des obligations de transparence renforcées.  

L’accord provisoire stipule que l’AI Act entrera en vigueur deux ans après son adoption. Le travail technique se poursuivra dans les semaines à venir avant la soumission de l’accord aux représentants des États membres.  

FEB − L’AI Act représente une étape significative vers la régulation de l’IA en Europe, cherchant à établir un équilibre entre stimulation de l’innovation et protection des droits fondamentaux. Cet équilibre demeure un défi, mais l’AI Act pourrait devenir une norme mondiale, tout comme le Règlement général sur la protection des données (RGPD), propageant l’approche européenne de la régulation technologique sur la scène mondiale. Le défi va-t-il être relevé ? 
Partagez cette page:
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.