Site icon aivancity blog

7 principes éthiques pour une intelligence artificielle digne de confiance

Par Pr Nathalie DEVILLIER Docteur en Droit International | Professeur Droit et éthique de l’IA à aivancity

Pour parvenir à une IA digne de confiance, sept principes éthiques fondamentaux doivent être appliqués et évalués tout au long du cycle de vie du système d’IA. Ces exigences sont interconnectées, ont une importance égale et se soutiennent mutuellement. Elles ne sont pas exhaustives mais représentent les aspects systémiques, individuels et sociétaux. 

Ces 7 principes fondamentaux sont reflétés par le règlement européen sur l’IA et issus des Lignes Directrices de la Commission européenne de 2019. 

  1. Action humaine et contrôle humain. Ce principe stipule que les systèmes d’IA doivent soutenir l’autonomie humaine et la prise de décision, et non la saper. L’IA doit permettre aux individus de maintenir un contrôle et une supervision adéquats sur les systèmes, en respectant les droits fondamentaux et en assurant une société démocratique et équitable. Cela implique que les utilisateurs puissent comprendre le système, contester ses décisions et intervenir si nécessaire. Des approches comme l' »human-in-the-loop » ou « human-on-the-loop » sont recommandées, où l’humain reste en position de commander. 

Par exemple, lors du développement de véhicules autonomes, la capacité du conducteur humain à reprendre le contrôle à tout moment (par exemple, en cas de conditions routières dangereuses ou de défaillance de l’IA) incarne ce principe. 

  1. Robustesse technique et sécurité. Un système d’IA digne de confiance doit être résilient aux attaques, sécurisé, fiable, reproductible et précis. Il doit pouvoir faire face aux erreurs et aux défaillances, ainsi qu’aux utilisations malveillantes ou involontaires. La prévision correcte et la fiabilité des résultats sont essentielles pour éviter des impacts négatifs. 

Par exemple, un système d’IA utilisé dans la gestion d’une centrale électrique doit être conçu pour être résistant aux cyberattaques et aux pannes techniques, afin de garantir la sécurité des opérations et la stabilité de l’approvisionnement. 

  1. Confidentialité et gouvernance des données. Ce principe exige le respect de la vie privée, la qualité et l’intégrité des données, et l’accès sécurisé aux données. Les données utilisées par l’IA doivent être pertinentes, exactes, valides et fiables. Les utilisateurs doivent être informés de la collecte et de l’utilisation de leurs données, et avoir la possibilité d’accéder à ces données et de les corriger. 

Ainsi, l’application du Règlement Général sur la Protection des Données (RGPD) à un système d’IA de surveillance urbaine, exige la minimisation des données, l’anonymisation et la transparence sur leur utilisation, est une illustration directe. 

  1. La transparence comprend la traçabilité, l’explicabilité et la communication. Les systèmes d’IA doivent permettre de comprendre comment leurs décisions sont prises et quels facteurs sont pris en compte. Même pour les systèmes complexes, une certaine forme d’explicabilité est nécessaire pour comprendre leur comportement. Une communication claire sur les capacités et les limites du système d’IA est également essentielle. 

Le fait qu’un algorithme de décision de prêt bancaire basé sur l’IA fournisse une explication claire et détaillée des raisons d’un refus de prêt, plutôt qu’une simple réponse « non », illustre la transparence. 

  1. Diversité, non-discrimination et équité. Ce principe vise à garantir que les systèmes d’IA sont développés et utilisés sans préjugés injustes, qu’ils soient accessibles à tous et inclusifs (y compris aux personnes handicapées) et qu’ils incluent la participation des parties prenantes. Il s’agit de prévenir et de réduire les biais dans les données et les algorithmes pour assurer des résultats équitables et non discriminatoires. 

La révision d’un outil d’IA de recrutement qui s’est avéré sexiste en raison de biais dans les données d’entraînement, afin de le rendre plus équitable pour tous les candidats, est un exemple de l’application de ce principe. 

  1. Bien-être sociétal et environnemental. Les systèmes d’IA doivent contribuer positivement au bien-être sociétal, à la durabilité et à la protection de l’environnement, tout en respectant les valeurs sociales et démocratiques. Cela inclut la minimisation des incidents négatifs et la prise en compte de l’impact environnemental de l’IA, comme sa consommation énergétique. L’utilisation de l’IA pour optimiser les flux de trafic urbain et réduire les embouteillages, diminuant ainsi la pollution et améliorant la qualité de vie en ville, contribue au bien-être sociétal et environnemental. 
  1. Responsabilité. Ce principe implique l’auditabilité, la réduction au minimum des incidents négatifs et une communication claire sur les responsabilités et les recours. Il doit exister des mécanismes permettant de garantir l’autonomie et la responsabilité. La traçabilité des opérations de l’IA et la possibilité d’audits externes sont cruciales. Les rôles et responsabilités doivent être définis, et des mécanismes de recours (par exemple pour des plaintes) doivent être disponibles. En cas d’erreur grave d’un système d’IA de diagnostic médical, la capacité d’auditer l’algorithme, ses données d’entraînement et ses décisions, et d’identifier clairement qui est responsable (développeur, hôpital, médecin) et comment les patients peuvent obtenir réparation, illustre le principe de responsabilité. 

Ces principes sont essentiels pour garantir que l’IA soit développée et utilisée de manière éthique et bénéfique pour la société. 

Lors de la mise en œuvre des exigences éthiques pour les systèmes d’IA, des conflits peuvent survenir entre différents principes, rendant certains arbitrages inévitables. Ces décisions doivent être prises de manière raisonnée, transparente, fondée sur les connaissances techniques actuelles, et en évaluant les risques pour les droits fondamentaux. 

Si aucun arbitrage éthiquement acceptable n’est possible, le système ne doit pas être utilisé tel quel. Les décisions doivent être documentées, réévaluées régulièrement, et les responsables doivent en être tenus comptables. 

En cas d’impact négatif injuste, des mécanismes de recours accessibles doivent être prévus, avec une attention particulière aux personnes vulnérables. 

Quitter la version mobile