Pour poursuivre un tour d’horizon des approches internationale sur l’intelligence artificielle, intéressons-nous, pour ce dernier article avant la trêve estivale, aux recommandations du Conseil de l’OCDE sur l’intelligence artificielle.
S’appuyant notamment sur les Objectifs de développement durable énoncés dans le Programme de développement durable à l’horizon 2030 adopté par l’Assemblée générale des Nations Unies et sur les travaux importants menés sur l’intelligence artificielle (ci-après dénommée « IA ») dans le cadre d’autres instances internationales gouvernementales et non gouvernementales, l’OCDE reconnait que l’IA a des incidences mondiales généralisées et profondes qui transforment les sociétés, les secteurs économiques et le monde du travail, une tendance qui devrait s’accentuer à l’avenir et qu’elle promet d’améliorer la prospérité et le bien-être des individus, de contribuer à une activité économique mondiale dynamique et durable, de stimuler l’innovation et la productivité, et d’aider à affronter les grands défis planétaires. Mais l’organisation reconnait aussi que la confiance est un déterminant essentiel de la transformation numérique, que, bien qu’il soit difficile de prévoir la nature des futures applications de l’IA et leurs incidences, la confiance dans la fiabilité des systèmes d’IA est un facteur clé de la diffusion et de l’adoption de l’IA ; et qu’un débat public bien informé de l’ensemble de la société est nécessaire afin de concrétiser le potentiel entier de cette technologie tout en limitant les risques qui y sont associés.
L’OCDE met en avant des principes qu’elle considère comme complémentaires et devant être considérés comme un tout pour une approche responsable en appui d’une IA digne de confiance.
Croissance inclusive, développement durable et bien-être
Les parties prenantes devraient adopter de manière proactive une approche responsable en soutien d’une IA digne de confiance afin de tendre vers des résultats bénéfiques pour les individus et la planète, tels que le renforcement des capacités humaines et le renforcement de la créativité humaine, l’inclusion des populations sous-représentées, la réduction des inégalités économiques, sociales, entre les sexes et autres, et la protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être.
Valeurs centrées sur l’humain et équité
Les acteurs de l’IA devraient respecter l’état de droit, les droits de l’homme et les valeurs démocratiques tout au long du cycle de vie des systèmes d’IA. Ces droits et valeurs comprennent la liberté, la dignité et l’autonomie, la protection de la vie privée et des données, la non-discrimination et l’égalité, la diversité, l’équité, la justice sociale, ainsi que les droits des travailleurs reconnus à l’échelle internationale.
Pour ce faire, les acteurs de l’IA devraient instituer des garanties et des mécanismes, tels que l’attribution de la capacité de décision finale à l’homme, qui soient adaptés au contexte et à l’état de l’art.
Transparence et explicabilité
Les acteurs de l’IA devraient s’engager à assurer la transparence et une divulgation responsable des informations liées aux systèmes d’IA. À cet effet, ils devraient fournir des informations pertinentes, adaptées au contexte et à l’état de l’art, afin :
- de favoriser une compréhension générale des systèmes d’IA,
- d’informer les parties prenantes de leurs interactions avec les systèmes d’IA, y compris dans la sphère professionnelle,
- de permettre aux personnes concernées par un système d’IA d’en appréhender le résultat, et,
- de permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles sur les facteurs, et sur la logique ayant servi à la formulation de prévisions, recommandations ou décisions.
Robustesse, sûreté et sécurité
Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie, de sorte que, dans des conditions d’utilisation normales ou prévisibles, ou en cas d’utilisation abusive ou de conditions défavorables, ils soient à même de fonctionner convenablement, et ne fassent pas peser un risque de sécurité démesuré.
Pour ce faire, les acteurs de l’IA devraient veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, afin de permettre l’analyse des résultats produits par lesdits systèmes d’IA et le traitement des demandes d’information, compte tenu du contexte et de l’état de l’art de la technologie.
Les acteurs de l’IA devraient, selon leurs rôles respectifs, le contexte et leur capacité à agir, appliquer de manière continue une approche systématique de la gestion du risque, à chaque phase du cycle de vie des systèmes d’IA, afin de gérer les risques y afférents, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais.
S’agissant des politiques nationales et coopération internationale à l’appui d’une IA digne de confiance, l’OCDE recommande à ses « adhérents » de mettre en œuvre les recommandations suivantes.
Investir dans la recherche et le développement en matière d’IA
Les pouvoirs publics devraient envisager des investissements publics à long terme et encourager les investissements privés dans la recherche et le développement, notamment interdisciplinaire, afin de stimuler l’innovation dans une IA digne de confiance, relevant des défis techniques importants, ainsi que sur les implications sociales, juridiques et éthiques et les politiques liées à l’IA.
Les pouvoirs publics devraient par ailleurs envisager des investissements publics et encourager les investissements privés dans des ensembles de données en libre accès qui soient représentatifs et qui garantissent la protection de la vie privée et des données, pour soutenir un environnement de recherche et développement en matière d’IA sans partialité indue et renforcer l’interopérabilité et l’utilisation de normes.
Favoriser l’instauration d’un écosystème numérique pour l’IA
Les pouvoirs publics devraient favoriser le développement et l’accessibilité d’un écosystème numérique à l’appui d’une IA digne de confiance. Cet écosystème se compose notamment des technologies et infrastructures numériques et des mécanismes de partage des connaissances en matière d’IA, en fonction des besoins. À cet égard, les pouvoirs publics devraient envisager de promouvoir des mécanismes, tels que les fiducies de données (« data trusts »), pour favoriser le partage des données de façon sûre, équitable, légale et éthique.
Façonner un cadre d’action favorable à l’IA
Les pouvoirs publics devraient promouvoir l’instauration d’un cadre d’action favorable qui soutienne une transition souple du stade de recherche et développement à celui de déploiement de systèmes d’IA dignes de confiance. À cette fin, ils devraient envisager le recours à l’expérimentation, afin de fournir un environnement contrôlé dans lequel les systèmes d’IA peuvent être testés et monter en puissance, selon les besoins.
Les pouvoirs publics devraient examiner et adapter, selon les besoins, leur cadres politiques et réglementaires et leurs mécanismes d’évaluation applicables aux systèmes d’IA, afin d’encourager l’innovation et la concurrence dans le développement d’une IA digne de confiance.
Renforcer les capacités humaines et préparer la transformation du marché du travail
Les pouvoirs publics devraient travailler en étroite collaboration avec les parties prenantes en vue de préparer la transformation du monde du travail et de la société. Ils devraient donner aux personnes les moyens d’utiliser et d’interagir efficacement avec les systèmes d’IA au travers de leurs différentes applications, notamment en les dotant des compétences nécessaires.
Les pouvoirs publics devraient prendre des mesures, y compris en recourant au dialogue social, pour assurer une transition équitable des travailleurs au fur et à mesure du déploiement d’IA, notamment par le biais de programmes de formation tout au long de la vie active, du soutien aux personnes affectées par les suppressions de postes et de l’accès aux nouvelles opportunités sur le marché du travail.
Les pouvoirs publics devraient par ailleurs travailler en étroite collaboration avec les parties prenantes pour promouvoir l’utilisation responsable de l’IA au travail, renforcer la sécurité des travailleurs et la qualité des emplois, favoriser l’entrepreneuriat et la productivité, et veiller à ce que les avantages de l’IA soient partagés largement et équitablement.
Favoriser la coopération internationale au service d’une IA digne de confiance
Les pouvoirs publics, y compris ceux des pays en voie de développement, en association avec les parties prenantes, devraient coopérer activement afin de faire progresser la mise en œuvre de ces principes et de progresser dans une approche responsable en appui d’une IA digne de confiance.
Les pouvoirs publics devraient travailler de concert, au sein de l’OCDE et d’autres instances mondiales et régionales pertinentes, en vue de favoriser le partage des connaissances en matière d’IA, selon les besoins. Ils devraient encourager les initiatives multipartites internationales, intersectorielles et ouvertes afin de bâtir une expertise à long terme en matière d’IA.
Les pouvoirs publics devraient encourager l’élaboration de normes techniques internationales multipartites fondées sur la recherche de consensus, au service d’une IA interopérable et digne de confiance.
Les pouvoirs publics devraient en outre encourager la mise au point et l’utilisation, pour leurs propres besoins, d’indicateurs comparables au plan international, afin de mesurer la recherche et le développement dans le domaine de l’IA et le déploiement de l’IA, et de constituer la base factuelle nécessaire au suivi des progrès quant à la mise en œuvre des principes exposés dans les présentes.
Au-delà de ces recommandations, un point intéressant est les définitionsdonnées par l’OCDE des termes techniques suivants :
Système d’IA : Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers.
Cycle de vie d’un système d’IA : Le cycle de vie d’un système d’IA comporte plusieurs phases : i) la phase de « conception, données et modèles », séquence dépendante du contexte comprenant la planification et la conception, la collecte et le traitement des données, ainsi que la construction du modèle ; ii) la phase de « vérification et validation » ; iii) la phase de « déploiement » ; et iv) la phase d’« exploitation et (de) suivi ». Ces phases présentent souvent un caractère itératif et ne suivent pas nécessairement un ordre séquentiel. La décision de mettre un terme à l’utilisation d’un système d’IA peut intervenir à n’importe quel stade de la phase d’exploitation et de suivi.
Connaissances en matière d’IA : Les connaissances en matière d’IA désignent les compétences et les ressources, à l’instar des données, du code, des algorithmes, des modèles, de la recherche, du savoir-faire, des programmes de formation, de la gouvernance, des processus et des meilleures pratiques nécessaires pour comprendre le cycle de vie des systèmes d’IA et y prendre part.
Acteurs de l’IA : Les acteurs de l’IA sont les parties jouant un rôle actif dans le cycle de vie d’un système d’IA, y compris les organisations et les individus qui déploient ou exploitent l’IA.
Parties prenantes : On entend par parties prenantes l’ensemble des organisations et des individus intervenant dans les systèmes d’IA ou concernés par ces systèmes, que ce soit directement ou indirectement. Les acteurs de l’IA constituent un sous-ensemble des parties prenantes.
https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449


