Juin 19

Risque de zoonoses et faune sauvage : options pour la régulation

Lorsque les gouvernants, sortant de la gestion des urgences, se demanderont comment éviter la prochaine pandémie, leur réflexion sur les changements à apporter aux institutions et instruments devrait s’articuler autour des pratiques qu’il s’agit de limiter, d’interdire, de guider et de recommander. Cette réflexion sur les pratiques en cause, leur nature et leurs responsabilités relatives dans la génération d’un risque, devra viser à ce que les innovations institutionnelles qui seront recherchées soient des réponses efficaces aux comportements sociaux qui sont impliqués dans la survenue et la gestion des risques pandémiques. Cibler les instruments pertinents sur les pratiques n’empêche cependant pas de prendre en compte les causes profondes et plus systémiques qui induisent ces pratiques ou rendent impossible d’en changer. 

Le risque de zoonoses émergentes est d’une part en lien avec l’élevage, d’autre part lié à l’accroissement des contacts entre hommes et faune sauvage. 

L’IDDRI vient de publier un Décryptage qui analyse les options pour la régulation des rapports entre humains et faune sauvage et, sur la base de la littérature disponible, propose d’identifier quatre principaux facteurs comportementaux impliqués dans les risques de zoonoses en lien avec la faune sauvage, qui appellent donc des réponses institutionnelles différentes. Il paraît crucial, en effet, de ne pas amalgamer les différentes pratiques de consommation de viande sauvage, ainsi que les facettes de la déforestation, dans les politiques à concevoir. 

Messages clés :

Des pressions internationales existent pour la prohibition des marchés d’animaux sauvages vivants, parfois qualifiés de wet markets. Cette approche a l’avantage de la radicalité, de l’exhaustivité, et de prendre en considération, outre le risque sanitaire, la protection des espèces menacées et le bien-être animal. Elle présente cependant le risque de générer des pratiques clandestines et de faire perdurer un risque mal contrôlé, qu’une approche par l’encadrement sanitaire des marchés pourrait, elle, réduire. 

Cette question ne doit pas être confondue avec celle de la chasse et de la viande d’animaux sauvages (comme la « viande de brousse »), dont l’encadrement nécessitera plutôt le déploiement d’équipes sur le terrain pour proposer une médiation entre autorités et populations concer- nées, endiguer les contaminations et prodiguer les soins. 

Les « intrusions » en forêt, qui occasionnent un accroissement des contacts hommes-faune sauvage, nécessiteront quant à elles un renforcement des moyens consacrés au contrôle des activités illégales, à la police et à la justice environnementales. 

Enfin, la déforestation par changements d’usage des sols, perturbant les écosystèmes et augmentant les risques épidémiques, renvoie à la question plus générale et plus difficile de la consommation d’espace par l’agriculture et, dans une moindre mesure, par l’urbanisation. L’intensification des engagements internationaux pour réduire l’empreinte forestière des importations (notamment européennes), des engagements à étendre les surfaces protégées, et par ailleurs à rendre effectif le contrôle de celles qui le sont déjà, sont des options déjà anciennes et que la prévention du risque sanitaire pourrait conduire à renforcer. 

https://www.iddri.org/sites/default/files/PDF/Publications/Catalogue%20Iddri/D%C3%A9cryptage/202004-IB0220-zoonoses%20regulation.pdf

Publié dans Uncategorized | Laisser un commentaire
Juin 12

Enjeux scientifiques et technologiques de la prévention et de la gestion des risques accidentels

L’Office parlementaires d’évaluation des choix scientifiques et technologiqus (OPECST) a organisé récemment une audition consacrée aux enjeux scientifiques et technologiques de la prévention et la gestion des risques accidentels. Cette audition faisait écho à deux évènements survenus en 2019 : l’incendie de la cathédrale Notre-Dame de Paris le 15 avril et l’incendie de l’entreprise Lubrizol à Rouen le 26 septembre. Dans les deux cas, des mesures sanitaires et environnementales ont dû être mises en place pour contrôler la dispersion de polluants émis par les fumées, tels que le plomb pour le cas de Notre-Dame et divers produits chimiques, dont des hydrocarbures aromatiques polycycliques (HAP), pour Lubrizol. 

Recommandations

Au terme de cette audition publique, l’Office préconise de poursuivre la recherche dans l’ensemble des directions mises en avant par les différents intervenants. Il estime également important de : 

• favoriser la mise en place de moyens plus performants de coordination et d’échange de données entre les différents acteurs impliqués lors d’accidents comportant des risques sanitaires et environnementaux ; 

• mettre au point une méthodologie visant à établir des valeurs de référence avant contamination pour évaluer l’exposition à des substances polluantes des populations vivant dans des territoires déterminés, en vue de guider l’action des autorités dans le cadre de la gestion d’une crise, et élaborer un plan national de déploiement des mesures relatives à ces valeurs de référence ; 

• favoriser le développement de moyens permettant d’acquérir le plus rapidement possible une connaissance précise des substances émises au cours d’un accident industriel, par exemple l’emploi de drones équipés de moyens d’analyse et de prélèvement les plus spécifiques possibles ; 

• mettre systématiquement en place, après un accident, un suivi sanitaire et environnemental sur le long terme, en recherchant en priorité les contaminants les plus dangereux, afin de limiter les expositions à des risques chroniques ; 

• impliquer plus fortement et plus activement les citoyens par des actions éducatives de prévention et en développant, par exemple, les groupes de « Nez experts », capables de détecter et de reconnaître rapidement les odeurs caractéristiques de certains polluants. 

Déroulement

L’audition était articulée autour de deux tables rondes : la première centrée sur les mesures et les axes de R&D mis en place en amont des crises, dans une optique de prévention ; la seconde centrée sur la gestion de crise à court terme. 

Le premier intervenant était Dominique Robin, d’ATMO Sud, association agréée par le ministère chargé de l’environnement pour la surveillance de la qualité de l’air de la région Provence-Alpes-Côte d’Azur. Avec les régions Normandie et Auvergne-Rhône-Alpes, la région PACA accueille en effet de grands bassins industriels, soumis à un risque accru. M. Robin a insisté sur l’importance de la communication et du partage d’information dans ces zones sensibles, que ce soit avec les populations locales mais aussi avec les industriels et les autorités publiques. Cela passe notamment par l’implication active des habitants dans les mesures de prévention, avec, par exemple, la mise en place des «Nez experts» qui s’entraînent à reconnaître les odeurs caractéristiques de certains polluants afin de repérer rapidement les signaux faibles. En écho, le Lieutenant-colonel Libeau, de la Brigade des sapeurs-pompiers de Paris, a souligné l’importance de ne pas « prendre [la population] pour des enfants » et de former les populations locales, dès l’école, aux gestes de premiers secours et aux comportements à adopter en situation de crise. Il a rappelé également l’importance de ne pas oublier les agents et les employés sur site dans les formations. 

Les politiques de prévention de la pollution de l’eau, présentées par Véronique Heim, du Syndicat des Eaux d’Île-de-France (SEDIF), ciblent les risques de contamination des sources situées en amont des usines de traitement et des réseaux d’eau potable situés en aval. Des capteurs haute fréquence fixes ou mobiles (sur bouées) et des modèles numériques de transport des polluants permettent au SEDIF d’identifier rapidement l’origine d’une pollution et de déterminer les mesures adéquates. Les principaux axes d’amélioration portent sur le traitement analytique des données perçues (identification, quantification) ainsi que sur l’utilisation potentielle de drones. 

L’emploi de cette technologie dans un cadre de gestion de crise a aussi été évoqué par les responsables de l’Institut national de l’environnement industriel et des risques (INERIS), troisième acteur présent à cette table ronde, pour ses travaux de caractérisation d’incendie. Pour Bernard Piquette, directeur de la Direction des risques accidentels à l’INERIS, l’incendie tient une place particulière au sein des phénomènes dangereux, notamment en termes d’émission de fumées et de dispersion des polluants. L’INERIS mène un certain nombre de tests en interne et en collaboration avec différents acteurs afin de caractériser le comportement des incendies et d’identifier les produits de combustion accidentelle, différents par nature des inventaires réalisés avant incendie. Ces tests permettent d’alimenter et de préciser des modélisations numériques, qui se veulent les plus réalistes possibles, en termes d’échelle mais aussi de ventilation du feu par exemple. Sur ce volet, et afin d’optimiser les mesures, M. Piquette assure que l’envoi d’un drone dans le panache de fumée, pour effectuer des prélèvements in situ, reste la meilleure solution.

Le choix des substances à mesurer et à analyser n’apparaît pas évident. Il repose principalement sur l’état de l’art en toxicologie (la nocivité de certaines substances est reconnue et quantifiée) mais aussi sur les spécificités locales. La définition précise du terme source est une priorité, mais il s’agit d’un exercice difficile, très dépendant de l’accident. Sa caractérisation permet de connaître les éléments impliqués et sous quelle forme ils ont été émis. Connaître la topographie du site concerné et de ses alentours est primordial dans la gestion post-crise, plus particulièrement pour les modélisations de trajectoire de panache, qui doivent tenir compte des spécificités locales. Ce travail est complémentaire des mesures et prélèvements et permet de cibler des zones à risque ou, a contrario, d’en exclure certaines. Avec les moyens actuels, l’INERIS est capable de simuler le comportement du panache sur une dizaine de kilomètres, quelques heures après l’accident, en se fondant notamment sur les premières informations fournies par les pompiers, et plus généralement, les premiers arrivants. 

La catastrophe de l’usine AZF à Toulouse en septembre 2001 a été évoquée dans le cadre d’échanges sur les plans de prévention des risques technologiques (PPRT). Plusieurs intervenants ont recommandé de veiller à limiter l’urbanisation autour des sites industriels. Ces sites, initialement situés à l’écart des grandes agglomérations, finissent par être «rattrapés» par les habitations pour lesquelles ils présentent un risque, comme ce fut le cas pour AZF. Il convient donc de réguler ce phénomène via les PPRT, qui doivent également prendre en compte les grandes modifications de paysage. Le Lieutenant-colonel Libeau a cité l’exemple du futur Grand Paris Express et de ses nombreux tunnels, pour lesquels de nouvelles procédures doivent être imaginées (par exemple les modalités d’intervention des secours à grande profondeur). 

Les enjeux en termes de santé publique et de risque sanitaire ont surtout été évoqués lors de la seconde table ronde. Les pompiers, en tant que premiers arrivants, forment une population particulière, soumise à une exposition aigüe. Leurs équipements de protection individuelle (EPI tels que les combinaisons, masques, etc.) assurent une première « barrière de sécurité », complétée par un suivi médical rigoureux. Le suivi des populations s’avère, lui, plus problématique car l’exposition est plus diffuse, dans le temps et dans l’espace. Dans ce cadre, l’ANSES travaille à la définition des polluants les plus dangereux, à rechercher en priorité en cas de crise (dioxine, plomb, amiante, HAP, etc.), en exposition unique ou en co-exposition (exposition simultanée à différents polluants). Si la crise et ses éventuels effets aigus doivent être gérés à court terme, le risque chronique doit être surveillé sur le long terme. Les différents acteurs de la table ronde ont tous insisté sur ce point, sur lequel des efforts doivent être menés. Le risque chronique rejoint le sujet des multi-expositions (i.e exposition multi vectorielle), car si les polluants sont souvent d’abord dispersés dans l’air, ils peuvent ensuite se déposer au sol, puis migrer lentement vers les nappes phréatiques et les sous-sols. Comme l’a rappelé le BRGM, ces processus peuvent s’étaler sur des décennies ; une pollution détectée aujourd’hui peut ainsi résulter d’un accident survenu il y a dix ou vingt ans. 

Dans ce contexte, la détermination des valeurs dites « de référence », qui correspondent à l’état du milieu (air, sol, eau) avant la crise, est essentielle. Ces valeurs permettent de mettre en perspective les concentrations mesurées post- accident et d’attribuer, ou non, les éventuelles pollutions à tel ou tel évènement. Pour Véronique Delmas, d’ATMO Normandie, « il n’existe pas, aujourd’hui, pour des polluants comme les dioxines et furanes, de [valeurs de référence] permettant de situer les niveaux rencontrés. Un gros travail est à faire sur ces questions-là ». 

En s’appuyant sur les retours d’expérience de l’accident de Lubrizol ou de l’incendie de Notre-Dame de Paris, les intervenants des deux tables rondes ont pu exposer en détail les compétences qu’ils ont acquises dans la gestion de ces crises. Si chacun a développé des activités et des expertises sur des techniques (mesures, modélisations, etc.) ou des milieux (air, eau, sols), ils ont, chacun à sa manière, montré l’importance de l’anticipation et de la coordination des moyens pour gérer efficacement une crise, volet essentiel pour caractériser au mieux un évènement, en évaluer rapidement les éventuelles conséquences sanitaires ou environnementales et en contenir, au mieux, les effets. 

http://www.assemblee-nationale.fr/dyn/15/rapports/ots/l15b2704_rapport-information.pdf

Publié dans Uncategorized | Laisser un commentaire
Juin 05

Quelle image de la recherche publique chez les dirigeants d’entreprise ?

Une récente étude d’OpinionWay pour l’Association des instituts Carnot, analyse l’image de la recherche publique française chez les dirigeants d’entreprises, petites ou grosses. Cette étude livre quelques confirmations mais aussi surprises et bonnes nouvelles. 

Alors que le Pacte productif lancé par le gouvernement entend organiser les moyens de la France pour améliorer la compétitivité de l’Industrie, notamment par l’innovation, le lien entreprises-recherche s’il est reconnu, n’apparaît pas encore exploité à la hauteur de son potentiel pourtant puissant.

A l’instar des start-ups dont les enjeux de R&D sont structurants, le niveau de satisfaction des « usagers » de la recherche publique est élevé. Cependant les moyens disponibles en matière d’aide à l’innovation, et à la R&D pour les entreprises sont importants mais encore trop souvent méconnus, sous-utilisés.  Si la recherche partenariale peut et doit encore s’améliorer pour gagner en accessibilité, l’offre, les moyens, les compétences sont là et représentent un potentiel encore sous-estimé de la part des entreprises. 

Principaux résultats et enseignements de l’étude  

Avec près de trois dirigeants sur quatre qui estiment que la recherche publique contribue à l’économie du pays, qu’il s’agisse de la croissance économique (86%), de l’attractivité (85%), du développement du territoire (81%) ou de l’emploi (79%), les dirigeants d’entreprise réaffirment leur confiance dans la recherche publique : ils sont aujourd’hui 67% à penser qu’elle répond bien aux besoins d’innovation des entreprises.

Si l’image de la recherche publique en France est positive c’est également par la place qu’occupe la R&D aux yeux de la majorité des dirigeants :  ils sont 63% des interrogés à juger qu’elle est importante pour le développement de leur activité, soit près de deux tiers. Les dirigeants d’entreprises ayant déjà eu recours à la recherche publique sont presque unanimes : 95% estiment la R&D comme importante au développement de leur entreprise. 

La surprise de cette étude réside auprès des start-ups qui révèlent une appétence forte pour la recherche publique, avec plus de la moitié d’entre elles qui y ont déjà eu recours, contre 12% des autres entreprises de 10 salariés et plus. 

Ces deux mondes, d’apparences éloignés, travaillent régulièrement ensemble. D’ailleurs, 43% des dirigeants de startup interrogés, s’ils avaient un projet d’innovation à mener, se tourneraient vers la recherche publique. De manière générale, les start-ups ont une bonne image de la recherche publique : 83% pensent qu’elle produit des connaissances et technologies de grande valeur.

Cependant, plus globalement, les entreprises et industries, n’ont pas encore suffisamment le « reflexe » de la recherche publique pour leur projet R&D et Innovation.  70% des dirigeants d’entreprises déclarent n’avoir jamais réfléchi à la question d’un recours à la recherche publique française. Cela s’explique par une image vieillissante : 49% des chefs entreprises considèrent qu’elle est en stagnation depuis quelques années et son accessibilité est perçue comme plutôt difficile à 48%. 

Enfin, l’étude révèle que l’un des principaux freins à la R&D pour les entreprises, notamment pour les PME, est le manque d’information autour des aides à leur disposition, qu’elles n’identifient pas toujours. Ainsi, parmi les entreprises qui envisagent d’avoir recours à la recherche publique, 46% ne le font pas, car elles ne savent pas à qui s’adresser. 

Pour Philippe Véron, Président de l’Association des instituts Carnot, cette étude confirme et réaffirme la confiance des dirigeants d’entreprises auprès de la recherche publique, mais pointe également les défis qui restent à relever, notamment celui de l’accessibilité. Nous avons d’ores et déjà entrepris des actions pour aller à la rencontre des entreprises en développant, par exemple, des réseaux de commerciaux sur le terrain et nous sommes en train de structurer notre offre de R&D par secteurs d’activité pour gagner en visibilité.

https://www.instituts-carnot.eu/sites/default/files/images/OpinionWay%20pour%20les%20Instituts%20Carnot%20-%20Les%20dirigeants%20les%20start-ups%20et%20la%20recherche%20publique%20-%20Fev2020.pdf

Publié dans Uncategorized | 1 Commentaire
Mai 29

Les défis de la transformation du secteur électrique européen

L’IFRI, think tank français plutôt orienté sur la géostratégie, a réalisé une étude sur la transformation du secteur électrique européen qui fait face à trois grands défis : la décarbonation, la digitalisation et la décentralisation. .

Les risques sont multiples: qu’il n’y ait pas suffisamment d’investissements dans les nouvelles capacités de production bas carbone ni dans les réseaux ; que l’insertion des technologies de stockage de l’électricité et de flexibilité du système se fasse à des coûts très élevés et de manière inefficace ; que l’interaction entre les grands réseaux et infrastructures et les microsystèmes soit mal pensée et coordonnée ; que la digitalisation des systèmes électriques nourrisse une nouvelle fracture numérique ; que nos systèmes électriques soient contrôlés de manière croissante par les GAFAMI (Google, Apple, Facebook, Amazon, Microsoft, IBM) ou des acteurs chinois; que la sécurité des approvisionnements et la décarbonation ne soient pas garanties. 

Capitalisation boursière de quelques sociétés du numérique, du pétrole et de l’électricité en milliards de USD à mi-juin 2018

L’approche dogmatique qui a présidé à la libéralisation de l’électricité en Europe, fondée sur une confiance absolue dans les mécanismes du marché mais avec des exceptions qui se sont multipliées au point d’entraver leur efficacité, a fragilisé les opérateurs historiques, lesquels sont confrontés à de nouveaux défis : un marché de gros qui n’envoie pas les bons signaux, une révolution numérique qui attire de nouveaux entrants peu enclins à investir dans des capacités électriques, des réseaux en pleine mutation à l’échelle locale comme à l’échelle mondiale. 

Il faut une vision industrielle de la concurrence qui permette à ces opérateurs de financer les investissements massifs nécessaires à la transition énergétique tout au long de la chaîne électrique sachant que la production va devenir de plus en plus décarbonée et les réseaux de plus en plus intelligentsIl appartient aux pouvoirs publics de répondre aux trois questions qui vont conditionner l’évolution du secteur dans les prochaines années : jusqu’où faut-il décentraliser la production d’électricité et, d’autre part, comment faut-il réguler les activités de réseaux pour intégrer les nouvelles technologies du numérique ? Et comment réconcilier le marché avec le déploiement à grande échelle des énergies renouvelables (ENR) indispensables pour décarboner mais qui, malgré la baisse de leurs coûts de déploiement, nécessiteront toujours des subventions et des solutions pour pallier leur intermittence ? 

Les compagnies d’électricité doivent connaître les réponses qui seront apportées par la puissance publique pour se positionner par rapport à de nouveaux acteurs de la transition : les territoires, les producteurs décentralisés, les entreprises pétrolières et distributeurs d’énergie, les constructeurs automobiles et les opérateurs du numérique. 

L’appel des centrales sur la base d’un merit order fondé sur les seuls coûts marginaux doit être revisité dans la mesure où les ENR non pilotables ont par nature un coût marginal nul. Plus il y aura de capacités ENR intermittentes dans les mix électriques, plus le prix de gros aura tendance à baisser lorsqu’elles sont disponibles et plus les besoins de capacités flexibles et bas carbone seront élevés. Le système de régulation mis en place devra permettre de rémunérer efficacement ces technologies flexibles (centrales nucléaires ou thermiques classiques). 

Face à ce défi, les centrales non pilotables pourraient être appelées sur la base de leur coût moyen et le principe du coût marginal pourrait être gardé pour les centrales pilotables. On peut aussi considérer que le coût du stockage est une forme d’externalité négative au même titre que le coût du carbone ou celui de la gestion des déchets nucléaires, et dans ce cas l’appel des centrales sur la base des coûts marginaux intégrant ces externalités négatives peut se révéler pertinent. 

La prise en compte des externalités négatives (stockage des ENR et émissions de CO2 pour les centrales carbonées, mais aussi coût de gestion des déchets nucléaires) engendrera un prix d’équilibre plus élevé sur le marché de gros de l’électricité, pour un niveau donné de demande d’électricité. Un prix-plancher du carbone et/ou un meilleur contrôle des quotas de CO2 mis sur le marché du Emission Trading System (ETS) constituent de bonnes mesures pour atteindre cet objectif. Cela devrait rendre inutiles les subventions accordées aux ENR et même le maintien d’un marché de capacité pour les centrales classiques. Pour que les ENR demeurent compétitives et bien placées dans le merit order, il conviendrait donc de faire porter les efforts de recherche et développement sur la baisse des coûts du stockage de l’électricité, que ce soit par batteries ou sous forme de power-to-gas.

Le développement à grande échelle des technologies du numérique, en particulier dans le secteur de l’automobile, fournit de nouvelles perspectives pour les usages électriques. Les équilibres concurrentiels vont évoluer à mesure que la fourniture d’électricité décarbonnée sera associée à des services annexes, de plus en plus liés au numérique. Dans cette perspective, des rapprochements stratégiques pourraient voir le jour entre opérateurs numériques, constructeurs automobiles et fournisseurs d’électricité. On assistera ainsi à une « ubérisation » des activités de fourniture d’électricité, ce qui ne sera pas sans soulever des questions au sujet de la propriété et de la confidentialité des données collectées. On doit également noter que le recours massif au numérique risque de pénaliser les consommateurs qui ne maîtrisent pas bien ces nouvelles technologies (citoyens défavorisés, personnes isolées en zone rurale mal connectée voire personnes âgées) et du coup cela peut accentuer la « fracture numérique » que l’on constate déjà au niveau de la gestion des services publics administratifs (impôts, santé). 

Enfin, il faut réfléchir à l’architecture des réseaux électriques du futur à tous les niveaux : local, national, suprarégional et planétaire. À l’échelle des micro-réseaux, la tarification de l’accès au réseau est appelée à évoluer pour éviter une « spirale de la mort », sans pénaliser le développement de l’autoproduction. Outre un rééquilibrage entre la part puissance et la part électricité consommée, l’introduction d’un tarif spécifique de secours pour l’autoproduction est une option à considérer, d’autant que les péages d’accès devront aller vers une meilleure prise en compte de la localisation et de la période de soutirage ou d’injection de l’électricité pour minimiser les coûts. À la perspective de marchés décentralisés plus ou moins indépendants s’ajoute celle de grands projets d’interconnexion à l’échelle mondiale, porteurs de nouvelles opportunités mais aussi de risque en termes de contrôle des technologies de production et des infrastructures électriques. Il paraît impératif de prendre en compte ces enjeux en ayant pleinement conscience qu’une approche européenne coordonnée et consensuelle est une nécessité pour que notre souveraineté énergétique soit garantie. 

https://www.ifri.org/sites/default/files/atoms/files/percebois_transformation_defis_2019.pdf

Publié dans Uncategorized | Laisser un commentaire
Mai 22

Un observatoire des politiques d’IA

L’OCDE a récemment dévoilé son observatoire des politiques d’intelligence artificielle, OECD.AI, qui « a pour but d’aider les pays (…) à élaborer des cadres politiques et institutionnels pour le développement d’une IA digne de confiance qui bénéficie à la société dans son ensemble, en s’inspirant des principes de l’IA de l’OCDE ». Y sont rassemblées des données de sources diverses, dont des informations sur les compétences en IA issues d’une collaboration entre LinkedIn et la Banque mondiale, qui place le Luxembourg en tête pour son attractivité en la matière, suivi par l’Allemagne.

Cet Observatoire des politiques relatives à l’IA a pour objectif d’aider les pays à encourager, accompagner et suivre le développement responsable de systèmes d’intelligence artificielle (IA) dignes de confiance au service de la société. Ayant vocation à devenir une plateforme en ligne inclusive, dédiée aux politiques publiques relatives à l’IA, il intègre une base de données exhaustive des politiques en matière d’IA dans le monde. Elle met à profit la dynamique créée par la Recommandation de l’OCDE sur l’intelligence artificielle, première norme intergouvernementale sur l’IA, qui a été adoptée en mai 2019 par les pays de l’OCDE et plusieurs économies partenaires, et a jeté les bases de l’élaboration des Principes du G20 sur l’IA, adoptés par les dirigeants des pays du G20 en juin 2019. 

L’Observatoire allie des ressources émanant de l’ensemble de l’OCDE et celles de partenaires issus de tous les groupes de parties prenantes afin de faciliter le dialogue et de fournir des analyses stratégiques pluridisciplinaires, fondées sur des données probantes, sur l’IA. L’Observatoire présente trois attributs fondamentaux : 

  • Pluridisciplinarité: L’Observatoire travaille de concert avec les communautés intervenant dans l’élaboration des politiques à l’échelle de l’OCDE et au-delà – que ce soit dans les domaines de l’économie numérique, de la science et la technologie, de l’emploi, de la santé, de la protection des consommateurs ou de l’éducation – afin d’étudier, moyennant une approche cohérente, les possibilités et les défis des évolutions actuelles et futures de l’IA. 
  • Analyse fondée sur des données probantes : L’Observatoire fait office de forum de collecte et de partage de données probantes sur l’IA, mettant à profit la réputation de l’OCDE en matière de méthodologies de mesure et d’analyses fondées sur des observations factuelles. 
  • Partenariats multipartites mondiaux : L’Observatoire travaille avec les gouvernements et un large éventail d’autres acteurs – notamment des partenaires issus de la communauté technique, du secteur privé, des milieux universitaires, de la société civile et d’autres organisations internationales – et fait office de plateforme de dialogue et de collaboration.

S’agissant de son fonctionnement et de sa structure, l’Observatoire fournit des ressources sur les sujets liés à l’action publique dans le domaine de l’IA ; les politiques et initiatives en matière d’IA ; les tendances et les données ; et formule des orientations pratiques sur la mise en œuvre des Principes de l’OCDE sur l’IA. Il intègre une base de données, actualisée en permanence, des politiques et initiatives relatives à l’IA, que les pays et d’autres parties prenantes peuvent partager et mettre à jour, ce qui permet d’en comparer les éléments clés de manière interactive. Il fait également office de forum pour la collecte de données probantes axées sur les politiques, les débats connexes et la formulation d’orientations à l’intention des gouvernements, s’appuyant pour ce faire sur des partenariats solides noués avec un large éventail d’acteurs externes. 

En matière de partenariats et de mise en œuvre, l’Observatoire facilite la mise en place de partenariats entre les communautés intéressées au sein de l’OCDE, de ses pays partenaires, d’autres entités publiques, d’organisations internationales et de parties prenantes non gouvernementales. Il cherche à favoriser une large participation et à nouer des partenariats avec les responsables d’initiatives dédiées à l’IA au sein de diverses institutions et organisations. 

https://oecd.ai

Publié dans Uncategorized | Laisser un commentaire