En mars dernier, un ensemble de mesures appelé l’AI Act a été voté et approuvé au Conseil Européen pour la première fois dans l’histoire du numérique. Cette action soulève un nombre important de considérations aussi bien légales qu'éthiques concernant l’usage et la régulation de l’IA sur le territoire européen. Depuis l’ascension de ChatGPT comme moteur de recherche (LLM) amélioré, l’IA offre de nombreuses opportunités pour les entreprises et particuliers, mais a démontré qu’il n’était pas sans danger. Cet article traitera de différents défis auxquels l’IA est confronté, et quelles sont les solutions pour y remédier ou les limiter.
Définir l’IA, une tâche plus difficile que prévu
Pour traiter efficacement les enjeux de l’IA, il est important de comprendre cette technologie émergente. Sur quels principes technologiques repose-t-elle ? À quel degré est-elle autonome ? Toutes ces questions sont nécessaires à traiter avant de réguler cette technologie qui reste assez difficile à cadrer, du fait qu’elle demeure en perpétuelle évolution. L’IA comprend un large portefeuille de produits et services, le plus connu étant le modèle de langage large (LLM) comme ChatGPT avec GPT-4.
Définir l’IA de manière juridique semble donc un défi plus complexe que prévu, puisque son utilisation sera régulée sur les termes sa propre définition.
Aujourd’hui, dans l’AI Act, l’intelligence artificielle est perçue comme l’une des plus grandes opportunités de ces dernières années, ainsi, le Conseil Européen a choisi de traiter uniquement les modèles d’IA à usage général, appelés GPAI. Ces modèles représentent les fondations qui vont servir de base aux autres modèles comme les IA génératives telles que ChatGPT ou Mistral AI. À terme, les GPAI seront catégorisés, selon leur niveau de risque.
Les responsabilités légales et de sécurité
Les GPAI, par définition, sont autonomes et imprévisibles à un certain degré de risque. Lorsqu’une IA prend des décisions de manière autonome, il est important de déterminer la responsabilité en cas d’accident. Qui est responsable en cas de perte du contrôle d’un véhicule autonome ? En cas de placement financier automatisé ?
L’AI Act essaie donc de répondre à toutes ces questions par une étude approfondie des systèmes et de leurs risques. Pour prévenir d’éventuels accidents, l’AI Act instaure des normes de sécurité pour les utilisateurs. Selon les évolutions des régulations en vigueur, les modèles d’IA autonomes s’adapteront en conséquence.
La sécurité au cœur des préoccupations
Cette autonomie accrue augmente la vulnérabilité des systèmes contre les biais algorithmiques et les attaques cybernétiques. Une faille dans le système combinée à une action malveillante peut avoir de lourdes conséquences. C’est pourquoi l’AI Act accorde beaucoup d’importance aux normes de sécurité et à la transparence des entreprises par rapport à l’architecture de leurs produits ou services.
Les responsabilités éthiques
La protection des données et informations personnelles
La protection des données et des informations personnelles est une préoccupation majeure dans l'utilisation de l'IA, autant pour les utilisateurs que pour les entreprises. Les informations transmises via les systèmes d'IA sont souvent confidentielles et sensibles, ce qui nécessite des mesures strictes d'anonymisation et de confidentialité. Le règlement européen sur l'IA impose des obligations de transparence et de sécurisation des données auprès des entreprises IA pour garantir que les informations personnelles soient correctement protégées contre les abus et les fuites.
Certaines technologies IA basées sur la reconnaissance faciale posent des problèmes sur le respect de la vie privé des citoyens de manière générale. Une surveillance améliorée pour des raisons de sécurité représente dans certains cas une atteinte aux droits civils défendus par l'Union européenne.
Une IA objective et éthique, est-ce possible ?
La place de l’IA dans les actions quotidiennes a beaucoup changé ces dernières années. De nombreuses considérations éthiques vis à vis de l’IA sont, à juste titre, abordées par le règlement européen. Tout d’abord, l’IA est susceptible de créer des biais algorithmiques basées sur des idées préconçues et des préjugés selon les données sur lesquelles elle est entraînée.
Dans plusieurs cas d’usages comme les demandes de prêt ou encore les recrutements, l’utilisation de l’IA risque de discriminer certaines personnes sur des critères peu égalitaires comme le sexe, l'âge ou la situation socio-démographique de la personne.
Les initiatives pour améliorer les considérations éthiques et légales de l’IA
Vers une collaboration internationale et commerciale
L’IA est une technologie encore émergente et qui est susceptible de profondément évoluer dans les années à venir. C’est pourquoi de nombreux pays ont décidé de réguler l’IA en matière d’innovation responsable. La régulation la plus élaborée, alliant la sécurité et une vision pro-innovation, est l’AI Act de l'Union européenne. De plus, d’autres institutions telles que la Chine, le Royaume-Uni ou encore l’ONU publient des rapports et des projets de régulations pour traiter toutes les considérations légales et éthiques que suscite l’IA.
À l’aube d’un changement disruptif des processus dans la société, la collaboration semble être une solution explorée par la communauté internationale. Initiée par le Canada et la France en 2020, le "Global Partnership on AI” (GPAI) réuni aujourd'hui 29 pays pour partager ses connaissances sur l’IA et créer une collaboration internationale pour innover autour d’une IA responsable et respectueuse des droits civiques.
AutoLex, une entreprise engagée dans l’analyse contractuelle
La collaboration des entreprises avec les institutions est essentielle dans l’objectif d’une utilisation de l’IA de façon responsable. En étant transparent sur la gestion des données, les axes d’améliorations et les politiques de confidentialités, les entreprises ont un rôle majeur dans la collaboration internationale pour faire de l’IA un outil responsable et créateur de valeur pour tous.
Nous avons choisi grâce à notre partenariat avec Microsoft et d’héberger toutes nos données en France et en Europe avec Azure. L’IA d’AutoLex n’utilise que des informations open source et publique, comme les documents de la CNIL, la réglementation Française et Européenne pour entrainer ses LLM.
Chez AutoLex, la sécurité et la protection de vos données sont primordiales, et vous permettent de faire une analyse contractuelle de vos documents en toute sécurité.
Si vous souhaitez essayer AutoLex, demandez une démo et un essai de 7 jours juste ici !
Question/Réponses
- Qu'est ce qu'une IA responsable ?
L'IA responsable se définit par l'utilisation de la technologie IA pour générer un impact positif sur ses utilisateurs. Une IA responsable place les personnes au coeur de son processus, en évaluant à la fois les avantages et les inconvénients de son utilisation. Par conséquent, elle encourage une utilisation transparente et conforme aux lois, tout en respectant l'éthique des utilisateurs
- Qu'est qu'une IA à haut risque, selon l'AI Act ?
Cette nouvelle législation classe les IA en plusieurs catégories. Les plus dangereuses sont considérées "à haut risque". Ces IA sont déterminées comme une dangereuses pour les libertés européennes et sont soumises des exigences et obligations strictes avant d'êtres introduites dans le marché de l'Union européenne.
- Qui est concerné par l'AI Act ?
Cette législation concerne pratiquement toutes les personnes en contact avec le marché européen. De nombreux acteurs sont impliqués dans le développement, la commercialisation et l'utilisation de ces technologies, qu'il s'agisse de fournisseurs de systèmes d'IA ou d'utilisateurs finaux, en passant par les autorités de réglementation. Il est donc essentiel pour tous de se renseigner sur les lois en vigueur.