top of page

AI Act, le compte à rebours est lancé !

Dernière mise à jour : 2 févr.

Martin Alteirac, en charge des activités d’Intelligence Artificielle chez Saegus, nous explique quelles sont les prochaines étapes de la mise en place de la règlementation européenne de l’intelligence artificielle prévue dans le texte dit "AI Act".


Peux-tu nous rappeler rapidement ce qu'est l'AI Act ?

L'AI Act est un règlement proposé par l'Union Européenne qui introduira des règles contraignantes sur la transparence, l'éthique et la gouvernance des systèmes d’intelligence artificielle. Cette loi s'appliquera à toutes les utilisations de l'IA, quel que soit leur niveau de risque. Elle sera appliquée par un nouveau Bureau Européen de l'IA. L'objectif de cette loi est de garantir qu’elle soit utilisée de manière responsable et éthique, en protégeant les droits des citoyens tout en favorisant l'innovation.

 

L'AI Act introduira des règles pour les systèmes d'IA à haut risque, tels que les systèmes utilisés dans les domaines de la santé, de la justice et des transports. Ces règles incluront des exigences en matière de transparence, d'explicabilité et de responsabilité. Les systèmes d'IA à faible risque seront également soumis à des règles, bien que moins strictes.

 

Vous pouvez retrouver notre précédent article sur le sujet ici.

 

Après plusieurs années de négociations intenses autour des grands principes de ce texte, un premier compromis a fait l’objet d’un accord le 9 décembre 2023. Ce premier accord dresse les grandes lignes et les grands principes de la règlementation à venir.


Par rapport à la proposition initiale de la Commission, les principaux nouveaux éléments de l'accord provisoire peuvent être résumés comme suit :

  • Des règles sur les modèles d'IA à usage général à fort impact qui peuvent entraîner un risque systémique à l'avenir, ainsi que sur les systèmes d'IA à haut risque ;

  • Un système de gouvernance révisé doté de certains pouvoirs d'exécution au niveau de l'UE ;

  • L'extension de la liste des interdictions, mais avec la possibilité d'utiliser l'identification biométrique à distance par les autorités répressives dans les espaces publics, sous réserve de garanties ;

  • Une meilleure protection des droits grâce à l'obligation pour les sociétés mettant en oeuvre des systèmes d'IA à haut risque de procéder à une évaluation de l'impact sur les droits fondamentaux avant la mise en service d'un système d'IA.


Quelles sont les étapes de son entrée en application ?

La première étape concrète vers son entrée en application a été le vote d’un premier projet d’accord le 9 décembre 2023. À la suite de cet accord, les travaux se sont poursuivis au niveau technique afin de mettre au point les détails du nouveau règlement. La présidence présentera ces prochains jours le texte de compromis aux représentants des États membres (Coreper) pour approbation une fois ces travaux terminés.

 

Le texte intégral devra être confirmé par les deux institutions et faire l'objet d'une mise au point par les juristes-linguistes avant son adoption formelle par les colégislateurs.

 

Une fois cette adoption formelle finalisée, il est prévu que ce règlement entre en vigueur 2 ans après son adoption, soit au premier trimestre 2026.


Que conseillerais-tu aux entreprises qui mettent en œuvre des systèmes d’IA pour se préparer à l’entrée en vigueur de ce texte ?

Plusieurs choses me paraissent essentielles :

  • La première est de sensibiliser l’ensemble des parties prenantes concernées aux grands principes de cette règlementation à venir. Direction des risques, DSI, direction métier lançant des initiatives d’IA… L’ensemble des parties prenantes concernées aujourd’hui ou demain par cette future règlementation doivent en connaitre les principales constituantes ;

  • La deuxième est d’identifier les rôles clefs dans l’entreprise qui vont avoir la responsabilité de mettre en place et d’opérationnaliser la gouvernance de l’IA en conformité avec cette future règlementation ;

  • La troisième est de réaliser un audit initial permettant à la fois d’évaluer le niveau de risques des initiatives existantes et d’identifier les principales zones à risques de l’entreprise, les domaines ou le lancement d’initiatives d’IA devra faire l’objet d’un processus de décision particulier.

 

Plus globalement, l’année 2024 doit être selon moi celle de la définition de la gouvernance à mettre en place ; 2025 sera quant à elle l’année de l’opérationnalisation de cette gouvernance qui devra être 100% effective au premier trimestre 2026.


Vous souhaitez en savoir plus ?




65 vues0 commentaire
bottom of page