Intelligence artificielle : l’UE prend l’initiative en matière de réglementation
Fin avril, la Commission européenne a lancé sa proposition de règlement pour un cadre légal et éthique pour l’intelligence artificielle (IA). L’IA est l’une des innovations technologiques les plus révolutionnaires de ces dernières années. Elle ouvre d’innombrables possibilités. Cependant, elle soulève d’importants dilemmes éthiques. Avec son projet de règles, l’UE entend fixer des limites claires à l’utilisation de cette technologie. Elle veut jouer un rôle de pionnier dans le développement de nouvelles normes mondiales pour une intelligence artificielle digne de confiance.
Qu’est-ce que l’IA ?
L’intelligence artificielle ne peut se résumer à une définition unique. En effet, de nombreuses technologies peuvent être qualifiées comme telles. Citons la vidéo deepfake d’Obama, mais aussi un assistant téléphonique numérique, une machine de tri, etc. Les applications de l’IA semblent infinies. Le projet de règlement contient une définition propre et considère comme de l’intelligence artificielle tout logiciel qui peut générer des résultats, tels que prévisions, recommandations et décisions, dans un but défini spécifiquement par l’homme.
Quelles sont les grandes lignes de la proposition de règlement européen ?
« En matière d’intelligence artificielle, la confiance n’est pas un luxe, mais une nécessité absolue », estime la commissaire européenne Margrethe Vestager. Pour garantir cette confiance, la nouvelle proposition de règlement opte pour une approche fondée sur les risques. Les technologies d’IA sont réparties en trois grandes catégories:
(1) IA interdite en raison du risque inacceptable pour la sécurité et/ou les droits fondamentaux des citoyens. Il s’agit par exemple de la reconnaissance faciale en direct dans les espaces publics, mais aussi de la manipulation du comportement, des opinions ou des décisions des personnes à leur détriment, de l’utilisation d’information sur les personnes pour exploiter leurs vulnérabilités, de la surveillance générale de toutes les personnes physiques, sans discrimination, ni scoring social…
(2) IA à haut risque qui sera soumise à des exigences de qualité et de conformité additionnelles (preuve de sécurité, transparence et surveillance humaine). C’est le cas des systèmes d’IA comportant une composante de sécurité, comme les voitures autonomes, mais aussi de l’identification biométrique, de la gestion des infrastructures critiques, du recrutement de personnes physiques, etc.
(3) IA à risque limité ou minime. Dans le projet de règlement, le non-respect des règles est sanctionné par des amendes qui peuvent aller jusqu’à 6% du chiffre d’affaires mondial de l’entreprise. Il est donc manifeste que ce projet de règlement pourrait avoir des conséquences considérables pour toutes les entreprises qui investissent déjà dans l’intelligence artificielle.
FEB – Par cette initiative législative, l’UE fait œuvre de pionnier dans le domaine de l’IA. Compte tenu des questions éthiques et juridiques qu’entraîne inévitablement cette IA, la nécessité d’un cadre législatif est indubitable. Cependant, la FEB souligne que l’objectif de garantir la confiance dans l’IA par le biais de la politique législative européenne ne peut être atteint qu’en poursuivant également l’excellence de l’IA en Europe et donc en continuant à encourager l’innovation technologique.