La Commission européenne vient de rendre publique une série de lignes directrices et d’exigences éthiques formulées par son groupe d’experts de haut niveau sur l’intelligence artificielle. Cet article complète un précédent article qui traitait aussi d’IA et d’éthique, mais dans un cadre de défense national.

La Commission espère un investissement de 20 Md€ par an pendant 10 ans sur l’IA selon une approche en 3 étapes : définir les exigences clés pour une IA digne de confiance, lancer une phase pilote à grande échelle pour recueillir les réactions et retours d’information des parties prenantes, et élaborer un consensus international pour une IA centrée sur l’humain.
Pour la Commission européenne, une IA digne de confiance devrait respecter toutes les législations et réglementations applicables auxquelles s’ajoutent sept éléments essentiels :
- facteur humain et contrôle humain : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine ;
- robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA ;
- respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires ;
- transparence : la traçabilité des systèmes d’IA doit être assurée ;
- diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie ;
- bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique ;
- responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.



https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
Merci Michel pour ce relais d’une info intéressante. A signaler également les travaux de l’IEEE dans ce domaine:
https://ethicsinaction.ieee.org/
https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf
sans compter Allistene, les travaux du Sénat (COMEST et OPCEST).
Le CCNE (comité national d’éthique) ne semble pas avoir mis ce sujet dans ses priorités.
Amitiés