Le 1er août 2024 marque une date historique pour l’Union européenne avec l’entrée en vigueur de la loi sur l’intelligence artificielle (IA). Cette législation, première du genre au monde, vise à établir un cadre réglementaire solide pour l’utilisation de l’IA tout en préservant les droits fondamentaux des citoyens et en stimulant l’innovation. Voici un aperçu des principales dispositions et implications de cette loi.

Un cadre de régulation hiérarchisé par le risque

La loi européenne sur l’IA établit des règles strictes basées sur le niveau de risque associé aux systèmes d’IA. Les catégories principales sont les suivantes :

  1. Risque inacceptable : Les systèmes d’IA qui présentent un risque jugé inacceptable seront purement et simplement interdits. Cela inclut, par exemple, les systèmes manipulant le comportement humain de manière inconsciente, les systèmes de notation sociale, et les systèmes d’identification biométrique à distance en temps réel utilisés dans des espaces publics à des fins de maintien de l’ordre (avec quelques exceptions limitées)​,
  2. Risque elevé : Les systèmes d’IA à haut risque, tels que ceux utilisés dans des domaines critiques comme la sécurité des infrastructures, la santé, et l’éducation, devront se conformer à des exigences strictes en matière de transparence, de documentation et de gestion des risques. Ces systèmes devront obtenir un marquage CE avant leur mise sur le marché et seront inscrits dans une base de données européenne​,
  3. Risque limité et minimal : Pour les systèmes d’IA à risque limité, des exigences de transparence s’appliquent, notamment l’obligation d’informer les utilisateurs que le contenu est généré par une IA. Les systèmes à risque minimal ne sont pas soumis à des restrictions spécifiques, mais les développeurs sont encouragés à adopter volontairement des codes de conduite.

Impacts sur les acteurs de l’IA

Les fournisseurs de systèmes d’IA à haut risque devront mettre en place un système de gestion des risques tout au long du cycle de vie du système, assurer une gouvernance des données rigoureuse, et concevoir leurs systèmes pour permettre une surveillance humaine​. De plus, les PME et start-ups pourront bénéficier de « bacs à sable » réglementaires, des environnements contrôlés pour tester leurs innovations sans risquer de violer les réglementations​.

Transparence et responsabilité

La loi impose des exigences de transparence accrues pour les systèmes d’IA générative comme ChatGPT. Les fournisseurs doivent indiquer clairement que le contenu a été généré par une IA et respecter les législations européennes en matière de droit d’auteur. Cette mesure vise à prévenir la désinformation et à garantir que les utilisateurs sont conscients de l’origine du contenu qu’ils consomment​.

Gouvernance et surveillance

Un office européen de l’IA sera créé pour surveiller la mise en œuvre de la législation et sanctionner les violations. Chaque État membre devra également établir des autorités nationales de contrôle pour garantir la conformité à l’échelle locale.

Perspectives et défis

Cette législation représente une avancée majeure pour la régulation de l’IA, mais elle pose également des défis. Les entreprises devront adapter leurs systèmes et processus pour se conformer aux nouvelles exigences, ce qui pourrait entraîner des coûts supplémentaires et des ajustements opérationnels importants. Néanmoins, cette régulation est essentielle pour garantir que le développement de l’IA en Europe se fasse de manière éthique et responsable, tout en stimulant l’innovation technologique.

En somme, l’entrée en vigueur de la loi sur l’IA en Europe marque le début d’une nouvelle ère où la technologie et les droits humains doivent coexister harmonieusement, sous la surveillance rigoureuse des autorités européennes. Cette législation servira probablement de modèle pour d’autres régions du monde qui cherchent à encadrer l’IA de manière efficace et équitable.

Prochaines échéances et étapes

La mise en œuvre de la loi sur l’IA en Europe se fera par étapes, avec plusieurs échéances clés à venir. D’ici la fin de 2024, des obligations spécifiques s’appliqueront aux systèmes d’IA à haut risque. Ces obligations incluent la nécessité d’obtenir un marquage CE et de s’inscrire dans une base de données européenne. Les entreprises devront également mettre en place des systèmes de gestion des risques et se conformer à des normes de transparence et de sécurité rigoureuses.

Calendrier à Long Terme

  • D’ici à 2026 : Les exigences relatives aux systèmes d’IA à haut risque non prescrits à l’annexe III mais utilisés comme composants de sécurité entreront en vigueur. Cela concerne notamment les jouets, les dispositifs médicaux, et les équipements de sécurité civile​.
  • D’ici à 2030 : Les obligations pour certains systèmes d’IA utilisés dans des systèmes d’information à grande échelle, tels que le système d’information Schengen, seront mises en place. Cette étape vise à assurer que les technologies critiques utilisées pour la sécurité et la justice respectent les normes les plus élevées en matière de transparence et de sécurité.

Développement et affinage des régulations

En parallèle, la Commission européenne disposera d’un pouvoir délégué pour ajuster et affiner les régulations en fonction des avancées technologiques et des besoins émergents. Cela inclut la possibilité de définir des critères pour exempter certains systèmes d’IA des règles relatives aux risques élevés et d’établir des codes de conduite pour les systèmes d’IA à usage général​.

L’entrée en vigueur progressive de ces obligations devrait permettre aux entreprises de s’adapter aux nouvelles régulations tout en garantissant que les systèmes d’IA développés et utilisés en Europe sont sûrs, éthiques et conformes aux valeurs de l’Union européenne, avec l’objectif que ces mesures garantissent également que l’innovation technologique se poursuive de manière responsable et bénéfique pour l’ensemble de la société.

Sources :

https://artificialintelligenceact.eu/fr

https://www.europarl.europa.eu/topics/fr/article/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle

https://www.vie-publique.fr/questions-reponses/292157-intelligence-artificielle-le-cadre-juridique-europeen-en-6-questions#:~:text=URL%3A%20https%3A%2F%2Fwww.vie,100

https://www.sia-partners.com/fr/perspectives/artificial-intelligence-act-que-faut-il-savoir