Feu vert à l’AI Act européen : qu'est-ce que cela signifie exactement ?

La Commission européenne, le Parlement européen et le Conseil viennent de se mettre d'accord sur les grands principes de la proposition législative pour une réglementation sur l'intelligence artificielle (IA), mieux connue sous le nom de « AI Act ». À l'heure actuelle, l'entrée en vigueur de l’AI Act est prévue pour le début de 2026.

L’AI Act est la première réglementation européenne traitant spécifiquement de l'intelligence artificielle. La Commission estime qu'il n'est pas nécessaire de réglementer dans le détail tous les systèmes IA. C’est la raison pour laquelle elle adopte une « approche fondée sur les risques » pour le cadre légal. Cela signifie que le risque (potentiel) que présente une application IA conditionne les règles qui lui seront appliquées. Ainsi, la proposition recense quatre catégories, chacune étant assortie d'un ensemble de règles correspondant. Il s'agit des catégories suivantes : ​ « risque faible ou minimal », « risque élevé » et « risque inacceptable ». Dans la catégorie la plus basse, on trouve les systèmes IA utilisés dans les usines pour le contrôle de la qualité. Le plus haut niveau concerne l'utilisation de systèmes d'intelligence artificielle visant, par exemple, à donner aux gens un « score social », qui peut ensuite être utilisé pour donner accès à certains services sociétaux.

L’AI Act, un train qui se construit en marche

Le débat sur l'intelligence artificielle est omniprésent. Qu'il s'agisse des prophètes de malheur ou des convaincus de la première heure, tout le monde a un avis sur la question. Cela ressort également clairement de l’AI Act. Cette législation, dont la première proposition remonte à avril 2021, a été lancée avant même le lancement de ChatGPT en novembre 2022. Les fondements de l’AI Act ont donc été posés sans que l'IA générative ne soit déjà un sujet d'actualité. On peut dès lors se demander si la proposition initiale de la Commission n'est pas déjà dépassée par la réalité. À la fin du processus, des tentatives ont été faites pour continuer à réglementer d'une manière ou d'une autre ces modèles d'IA générative à grande échelle. Les textes définitifs, qui devraient être prêts en février de l'année prochaine, montreront clairement ce qu’il en sera au final.

D'un débat émotionnel à un débat rationnel

L'intelligence artificielle comporte des risques, mais il existe aussi beaucoup de malentendus sur la technologie et son potentiel. Les nouvelles applications offrent d'énormes possibilités. Citons notamment les chatbots ou les assistants numériques, ou encore les modèles météorologiques et climatiques beaucoup plus précis. Mais l'intelligence artificielle soulève également de nombreuses questions concernant les contenus trompeurs, les risques en matière de respect de la vie privée, etc. En Belgique, selon les chiffres de StatBel qui viennent d'être publiés, près d'une entreprise sur sept (13,8 %) a recours à l'intelligence artificielle en 2023. Parmi les entreprises occupant plus de 250 travailleurs, ce chiffre atteint presque la moitié (47,9 %).

Nous préconisons dès lors une vaste campagne de sensibilisation de l'ensemble de notre société qui doit délivrer deux messages :

  1. Les possibilités positives qu'offre l'intelligence artificielle aux personnes, à la société et aux entreprises, sur la base d'applications concrètes ;
  2. Les risques liés à l’utilisation de l’intelligence artificielle.

Où en sommes-nous ?

Un accord politique a été conclu entre les trois instances européennes - la Commission européenne, le Conseil et le Parlement européen - sur l'AI Act, qui constitue une étape importante dans la réglementation de l'intelligence artificielle. Si les grandes lignes de la loi sont désormais fixées, l'élaboration des détails spécifiques doit encore avoir lieu. Cette phase cruciale de développement détaillé se déroulera sous la direction de la Présidence belge. C’est notre pays qui devra donc en orienter les aspects techniques et juridiques. Il est important que les fournisseurs et les utilisateurs de l’intelligence artificielle sachent qu'une période de transition de deux ans est prévue, ce qui leur donne le temps de mettre leurs systèmes en conformité avec les nouvelles exigences de l’AI Act.

« Pour avoir une sécurité juridique suffisante, il est donc important que tous les détails soient réglés le plus rapidement possible. La Présidence belge en sera la principale responsable », souligne Jelle Hoedemaekers, Expert ICT Standardisation chez Agoria. « Une autorité nationale en matière d'intelligence artificielle devra ensuite s'occuper de la mise en œuvre et apporter tous les éclaircissements nécessaires. Nous ne devons absolument pas sombrer dans l'insécurité que nous avons connue après le déploiement du RGPD », conclut-il. « Dans le même temps, la mise en œuvre rapide de « bacs à sable réglementaires » pour l'IA devrait également permettre de prendre en compte l'innovation dans l'application de la nouvelle législation. Un bac à sable est un environnement contrôlé qui permet de développer, tester et valider des systèmes IA innovants pendant une durée limitée ».

 

Recevez des mises à jour par e-mail

En cliquant sur « S'abonner », je confirme avoir lu et accepté la Politique de confidentialité.

À propos de agoria-newsroom

Agoria en bref

Avec et pour ses plus de 2 100 entreprises membres de l'industrie technologique belge, Agoria veut avoir un impact significatif, durable et fructueux  sur les défis économiques et sociétaux. En tant que fédération technologique belge, elle défend les intérêts sociaux et économiques de l'industrie technologique en Belgique. Avec plus de 330 000 employés, ce secteur est l'un des plus importants de Belgique et Agoria est la plus grande fédération au sein de la Fédération des entreprises de Belgique (FEB). Environ 70 % des entreprises membres d'Agoria sont des PME.

Contact

Bd A. Reyers 80 1030 Bruxelles

www.agoria.be