L’intelligence artificielle façonne déjà notre vie quotidienne, souvent de manière si subtile que nous n’en prenons pas toujours conscience. Cette omniprésence pose des questions importantes sur le plan éthique, social et juridique. L’Union européenne veut agir en misant sur l’AI Act, une réglementation visant à encadrer le développement et l’utilisation de l’IA.
Pionnière au niveau mondiale, cette législation classifierait les systèmes d’IA par niveaux de risques et définirait des exigences et interdictions en conséquence. L’objectif déclaré est de permettre une adoption sûre et digne de confiance de ces technologies innovantes, tout en préservant les droits fondamentaux. Quelles seront alors les formes d’intelligence artificielle interdites sur le territoire une fois l’AI Act entré en vigueur ? La réponse se trouve dans les prochaines lignes de cet article.
Sommaire
AI Act, la première réglementation mondiale sur l’intelligence artificielle
Le développement de l’intelligence artificielle progresse à une vitesse stupéfiante. Au point que la Commission européenne travaillait déjà sur un cadre juridique pour l’encadrer avant même que ChatGPT devienne populaire. L’AI Act est une proposition de règlement, annoncée en avril 2021. Ce texte faisait suite à plusieurs années de réflexion, dont le but est d’uniformiser les règles d’utilisation de l’intelligence artificielle au sein des pays membres. C’est le premier du genre à vouloir réguler l’IA de manière horizontale.
De base, son principe consiste à classer les différents systèmes d’IA par niveaux de risque. Cela va des usages anodins et récréatifs jusqu’aux applications à haut risque dans les domaines sensibles comme la santé ou la sécurité. Pour chaque catégorie, des exigences et interdictions seraient spécifiquement définies concernant la transparence, le contrôle humain et la protection de données personnelles. Plus le niveau de risque est élevé, plus la réglementation est stricte.
Quel est l’objectif de l’UE avec l’AI Act ?
À travers cette réglementation, l’Union européenne entend poursuivre plusieurs objectifs ambitieux concernant l’encadrement de l’intelligence artificielle. Tout d’abord, ce règlement veut que le déploiement de l’IA se fasse dans le respect des valeurs et droits fondamentaux européens. Cela concerne autant la dignité humaine, la liberté d’expression que la protection des données personnelles.
La Commission européenne est consciente des risques liés à l’utilisation de certaines IA. Elle souhaite ainsi assurer un niveau élevé de protection de la santé, de la sécurité et des consommateurs. Des garde-fous stricts sont prévus pour les systèmes d’IA évaluées à haut risque, utilisés dans des secteurs critiques.
Un autre objectif clé est de créer un marché commun pour une intelligence artificielle à la fois légale, sûre et fiable. En harmonisant les règles pour tous les pays européens, Bruxelles veut instaurer un cadre stable et clair. Cela permettra de développer cette technologie prometteuse, tout en renforçant la compétitivité des entreprises européennes dans le domaine de l’IA.
Avec cette réglementation ambitieuse, l’Europe vise à devenir un modèle mondial pour encadrer l’IA de manière intelligente et responsable. Le but est de restaurer la confiance et la sécurité dans l’utilisation des technologies numériques.
Quels systèmes d’IA seront interdits une fois la mise en vigueur de l’AI Act ?
L’AI Act prévoit d’interdire purement et simplement certaines utilisations de l’intelligence artificielle jugées inacceptables sur le territoire européen. Au cœur de ces interdictions se trouvent les systèmes d’IA considérés comme une menace manifeste pour la sécurité, les moyens de subsistance et les droits fondamentaux des citoyens.
Sont ainsi formellement bannies les IA qui manipulent notre comportement de façon subliminale, causant des préjudices physiques ou psychologiques insoutenables. De même sont interdits les systèmes d’IA qui exploitent les faiblesses liées à l’âge ou au handicap. S’appliquent également aux systèmes de notation sociale généralisée des individus par le gouvernement ou les entreprises. Souvent, ils évaluent et jugent les gens sur leur comportement ou leurs caractéristiques personnelles. Les jouets et assistants vocaux pour enfants, notamment ceux qui exploitent l’IA pour encourager des comportements dangereux, seront aussi bannis.
L’utilisation abusive de la reconnaissance faciale à distance par l’IA est également proscrite par principe. Cette législation concerne les systèmes utilisés dans les espaces publics à des fins de surveillance de masse. Seules quelques exceptions très limitées sont prévues, et sous réserve d’un strict encadrement juridiques. Les forces de l’ordre ont uniquement la permission pour rechercher des enfants disparus ou prévenir une menace terroriste imminente.
De manière générale, l’Union européenne interdira sur son territoire toute intelligence artificielle portant atteinte de manière inacceptable aux valeurs fondamentales européennes. Cela touche, notamment, le respect de la dignité humaine, l’absence de discrimination et la protection des libertés individuelles. Le tout, au nom du respect des droits de l’Homme.
Dans quels domaines l’IA sera-t-elle strictement réglementée ?
Au-delà des interdictions, l’AI Act identifie plusieurs domaines considérés comme à haut risque dans lesquels l’utilisation de l’IA sera strictement réglementée. Il s’agit notamment des infrastructures critiques comme les transports, susceptibles de menacer la vie et la sécurité des citoyens.
Les systèmes d’IA employés dans l’éducation, la formation professionnelle ou le recrutement, pouvant impacter les parcours individuels, sont aussi classés à haut risque. C’est également le cas dans les services publics et privés essentiels comme l’attribution de crédits sociaux. Les intelligences artificielles utilisées dans la justice, la sécurité, le contrôle aux frontières ou l’application de la loi font l’objet d’une régulation. Et ce, en raison des enjeux de respect des libertés fondamentales.
Pour ces systèmes à haut risque, des exigences strictes seront imposées avant toute mise sur le marché européen. Cela passe par des évaluations poussées des risques, une traçabilité et une documentation complètes. Un contrôle humain renforcé sera obligatoire pour surveiller et pouvoir intervenir sur les décisions de l’IA. La transparence sera également essentielle. Les développeurs devront expliquer le fonctionnement de leurs systèmes et la logique derrière leurs décisions. La qualité, la non-discrimination et la cybersécurité des données d’entraînement seront également scrutées.
L’objectif est de garantir un niveau élevé de sécurité, de robustesse et de respect des droits pour ces applications stratégiques de l’IA au sein de l’UE.
VOIR AUSSI : Quand ChatGPT prouve sa capacité à dépasser notre conscience émotionnelle !
Quelles seront les obligations pour une IA digne de confiance ?
Au-delà des systèmes d’IA interdits et de ceux classés à hauts risques, l’AI Act définit également des obligations pour tous les autres systèmes. C’est pour atteindre un objectif de transparence et de confiance. Pour les systèmes d’IA dites à risque limité, il est impératif d’informer les utilisateurs qu’ils interagissent avec une intelligence artificielle et non un être humain. Cette obligation concerne les chatbots ou assistants virtuels récréatifs.
D’autres règles générales s’appliqueront, comme l’obligation pour les fournisseurs de surveiller leurs systèmes une fois déployés et de documenter leur fonctionnement. La qualité et la traçabilité des données utilisées pour l’entraînement des algorithmes seront aussi encadrées.
Afin de s’assurer de l’effectivité du règlement, des sanctions lourdes en cas de non-conformité sont prévues. L’utilisation de systèmes d’intelligence artificielle interdits peut entraîner une amende allant jusqu’à 35 millions d’euros. Soit environ 7 % du chiffre d’affaires annuel mondial de l’entreprise fautive, le montant le plus élevé est pris en compte.
Pour le non-respect des exigences sur la transparence ou la sécurité, l’amende maximale est de 15 millions d’euros ou 3 % du chiffre d’affaires. Fournir des informations trompeuses sur les systèmes d’IA peut aussi être sanctionné jusqu’à 7,4 millions d’euros ou 1,5 % du chiffre d’affaires.
Ces lourdes pénalités montrent la fermeté de l’UE pour faire appliquer son cadre réglementaire sur l’IA, tout en promouvant l’innovation. Des dispositions particulières sont prévues pour ajuster les amendes aux capacités financières des PME et start-ups.
VOIR AUSSI : Quels sont les enjeux de l’intelligence Artificielle ?
Comment l’AI Act sera-t-il mis en œuvre et contrôlé ?
Un nouvel Office européen de l’IA a été créé au sein de la Commission en février 2024. Cet organisme aura pour mission de superviser la mise en œuvre du règlement en coordination avec les 27 États membres. Son rôle est de veiller à ce que l’IA soit développée et utilisée dans le respect de la dignité humaine, des droits fondamentaux. Il encourage aussi la collaboration, l’innovation et la recherche sur l’intelligence artificielle entre tous les acteurs concernés.
Après un accord politique pris en fin 2023, la loi sur l’IA entrera officiellement en vigueur 20 jours après sa publication officielle. Elle s’appliquera, toutefois, avec des calendriers légèrement différents suivants les dispositions. Les interdictions s’appliquent dans un délai de 6 mois à 1 an. Pour les systèmes d’IA à haut risque, les règles ne seront pleinement applicables que 2 ans plus tard. Ainsi, les développeurs et aux autorités nationales de contrôle auront un temps d’adaptation. D’ailleurs, la Commission a d’ores et déjà lancé un Pacte sur l’IA. C’est pour encourager les acteurs à se conformer par anticipation aux futures exigences.
France24 interroge sur le sujet, et ce qui est sûr, c’est que le sujet fait débat :
NuMedia est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :