Mai 17

Remettre la science au sein de la société

Dans la perspective de la 45ème édition du sommet du G7, qui se tiendra à Biarritz du 25 au 27 août prochains, les académies des sciences des pays membres viennent de remettre à leurs gouvernements respectifs trois déclarations conjointes pour les alerter sur les enjeux scientifiques qu’elles ont jugés prioritaires.

Patrick Flandrin, vice-président Académie des sciences (France), Sébastien Candel, ancien président Académie des sciences (France), Cédric Villani, OPECST, Pierre Corvol, président Académie des sciences (France), Philippe Baptiste, directeur du cabinet de la ministre de l’Enseignement supérieur, de la Recherche et de l’Innovation

Science et confiance

Les changements technologiques et les besoins d’innovation croissants de notre époque exigent une confiance sans faille de la société envers la science, plus particulièrement dans un contexte où l’espace public voit l’expression de sources d’information à la fiabilité contestable. Cultiver le dialogue de confiance entre le public, la classe politique et la sphère scientifique apparaît essentiel pour permettre à la science de remplir son rôle auprès de tous : conseiller, alerter et guider les choix de chacun comme les décisions politiques sur les sujets à fort contenu scientifique. Les académies recommandent dans ce domaine de promouvoir dès le plus jeune âge un enseignement des sciences apte à conférer aux élèves un esprit critique, la capacité de conduire un raisonnement, de mener des expériences scientifiques et de comprendre les bénéfices de la science et le monde qui les entoure. La déclaration des académies met en avant la nécessité, pour la communauté scientifique, de garantir à la recherche l’application de ses principes fondamentaux en matière d’éthique, d’intégrité et de responsabilité. 

Intelligence artificielle et société

Les progrès de l’intelligence artificielle (IA) ont déjà conduit à des résultats remarquables – reconnaissance vocale, classification d’images, véhicules autonomes, systèmes d’aide à la décision…- qui ont bénéficié à nos sociétés dans de nombreux domaines. Cette évolution fulgurante en fait aujourd’hui une technologie susceptible de transformer en profondeur notre vie quotidienne. Les sept académies soulignent les potentiels avantages économiques de l’IA, et relèvent à cet égard la nécessité, afin de faire partager ses bénéfices à l’ensemble de la société, de mener une gestion prudente et de se préparer aux transformations qu’elle va engendrer, notamment dans le secteur de l’emploi. Elles insistent sur le fait que les systèmes et les données de l’IA doivent être fiables, sûrs et sécurisés. Ainsi les données personnelles ne doivent pas être mises à la disposition de tiers sans autorisation. Un ensemble de mesures sont nécessaires pour mettre au point des systèmes d’IA explicables, familiariser les jeunes générations à l’IA, concevoir et développer des recherches interdisciplinaires afin de tirer le maximum des bénéfices sociétaux de l’IA. Les académies recommandent par ailleurs un débat de politique publique sur l’application de l’IA aux armes létales autonomes qui pourrait être selon elles examinée par les organes compétents de l’ONU.

Science citoyenne à l’âge de l’Internet 
La science citoyenne désigne « la recherche menée par des citoyens qui ne sont pas des scientifiques professionnels ». Elle regroupe deux composantes : la recherche participative et la science hors les murs. La première repose sur la contribution de personnes sans formation scientifique initiale poussée, qui prennent part, en tant qu’amateurs, à des projets de recherche, notamment à travers la collecte de données de terrain. La seconde implique des personnes de solide formation scientifique, qui exercent leur activité en dehors des murs des systèmes de recherche professionnels. A la faveur de l’avènement des nouvelles technologies de communication et de la démocratisation du savoir, la science citoyenne connait actuellement un fort dynamisme. Les sept académies encouragent ces deux types de recherche, qu’elles estiment devoir être soutenues par des financements spécifiques. Elles recommandent de promouvoir le co-développement de la science citoyenne et de la recherche menée en laboratoire et soulignent la nécessité de valider les résultats obtenus et de s’assurer que les critères indispensables d’honnêteté, de fiabilité, et d’éthique leur soient bien appliqués. Elles insistent sur l’effort majeur à conduire dans le domaine de l’éducation et de la formation, pour amener les jeunes générations à prendre part dans les meilleures conditions à d’éventuelles activités scientifiques, dans un cadre professionnel ou citoyen. Elles incitent à mettre en place des mesures pour s’assurer que la science citoyenne ne déroge pas aux règles éthiques ou de sécurité.

Les représentants des académies du sommet du G7 réunis à la Fondation del Duca

https://www.academie-sciences.fr/fr/Actions-interacademiques/academies-des-sciences-du-g7-2019.html

https://www.academie-sciences.fr/pdf/rapport/Science_and_trust_G7_2019_FR.pdf

https://www.academie-sciences.fr/pdf/rapport/AI_G7_2019_FR.pdf

https://www.academie-sciences.fr/pdf/rapport/Citizen_G7_2019_FR.pdf

Publié dans Uncategorized | 1 Commentaire
Mai 10

Exigences éthiques pour l’IA : approche de la Commission Européenne

La Commission européenne vient de rendre publique une série de lignes directrices et d’exigences éthiques formulées par son groupe d’experts de haut niveau sur l’intelligence artificielle. Cet article complète un précédent article qui traitait aussi d’IA et d’éthique, mais dans un cadre de défense national.

La Commission espère un investissement de 20 Md€ par an pendant 10 ans sur l’IA selon une approche en 3 étapes : définir les exigences clés pour une IA digne de confiance, lancer une phase pilote à grande échelle pour recueillir les réactions et retours d’information des parties prenantes, et élaborer un consensus international pour une IA centrée sur l’humain.

Pour la Commission européenne, une IA digne de confiance devrait respecter toutes les législations et réglementations applicables auxquelles s’ajoutent sept éléments essentiels :

  • facteur humain et contrôle humain : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine ;
  • robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA ;
  • respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires ;
  • transparence : la traçabilité des systèmes d’IA doit être assurée ;
  • diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie ;
  • bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique ;
  • responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Publié dans Uncategorized | 1 Commentaire
Mai 03

Comment conserver une planète habitable ?

A un moment où les jeunes se mobilisent pour la préservation de la planète et où des ONG déposent plainte contre l’État pour inaction climatique, l’urgence de la situation devient flagrante et les nouvelles ne sont pas toutes bonnes. Deux exemples.

Mesures à prendre pour rester sous 1,5°C.

C’est d’abord un cabinet d’analyse (BL Evolution), repris par Novethic, « accélérateur de transformation responsable », qui évalue les mesures (extrêmes) à prendre pour rester sous 1,5 °C. 

Sans surprise, l’année 2018 a encore battu des records de chaleur. Elle se classe au quatrième rang des années les plus chaudes depuis un siècle au niveau mondial. Et elle a connu une augmentation des phénomènes météorologiques extrêmes, tels que les canicules, les sécheresses, les inondations et les ouragans. Le niveau de la mer a crû de 2 à 3 millimètres par rapport à la même période l’année dernière, alors que la fonte de la banquise et des glaciers s’est accélérée.

« Les concentrations de gaz à effet de serre ont, encore une fois, atteint des niveaux records et si la tendance se poursuit, la température risque d’augmenter de 3 à 5°C d’ici à la fin du siècle« , prévient Petteri Taalas, secrétaire général de l’Organisation météorologique mondiale (OMM). Selon Météo France, qui a publié un bilan provisoire fin décembre, 2018 est l’année la plus chaude depuis le début du XXe siècle, pour la France. 

Il reste peu de temps pour inverser la tendance. Dans un rapport publié récemment, le cabinet B&L évolution a mis en lumière l’ampleur des mesures à mettre en place pour s’aligner sur une trajectoire compatible avec les 1,5°C en France, en s’appuyant sur le scénario proposé par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) d’octobre 2018. Outre les classiques rénovations énergétiques des logements et développement des énergies renouvelables, la plupart des mesures apparaissent drastiques comme l’interdiction d’acheter une voiture neuve, de prendre un long-courrier ou encore la mise en place d’un couvre-feu thermique pour abaisser la température dans les logements.

En suivant cette trajectoire, l’empreinte carbone de la France passerait de 10,5 tonnes d’équivalent CO2 par habitant en 2017 à 3,7 tonnes de CO2 en 2030, ce qui entraîne des changements profonds dans tous les secteurs. Néanmoins, le cabinet reconnaît qu’il s’agit là d’un scénario « peu réaliste » et à l’impact limité si tous les pays n’enclenchent pas eux aussi un basculement aussi important. Or, pour l’instant, on en est loin. 

Le World Resources Institute (WRI) estime dans un rapport publié mi-janvier que les progrès sont insuffisants dans la majorité des secteurs pour viser un pic des émissions en 2020. La consommation de charbon continue de croître, les voitures électriques sont à la traîne et la déforestation grimpe en flèche. Prochaine étape cruciale : le sommet des Nations-Unies en septembre prochain à New York, au cours duquel les États devront présenter des engagements largement revus à la hausse. 

Et B&L Évolution d’ajouter que, quoi qu’il en soit, il ne faut pas baisser les bras car chaque dixième de degré compte pour « conserver des modes de vie décents à moyen terme nous évitant d’entrer dans l’inconnu ». « C’est une véritable économie de guerre qu’il faut mettre en place, une économie de rationnement, d’efforts intenses qui nous sort de notre monde de confort. Cela demande un effort important de la part de tous sur une décennie ou deux. »

La Terre sera-t-elle une étuve en 2100 ?

C’est ensuite une étude publiée dans Nature Geoscience par une équipe de trois climatologues états-uniens du Caltech qui montre qu’au delà d’un taux de 1.200 ppm de CO2 dans l’atmosphère, un point critique est atteint dans le système dynamique qu’est l’atmosphère, qui fait disparaître les stratocumulus. Or, ceux-ci réfléchissent une partie de la lumière solaire et sont donc responsables d’une composante négative du forçage radiatif. En clair, plus d’énergie sera injectée dans l’atmosphère et les températures, déjà atteintes en raison de ce taux de gaz carbonique, grimperont brutalement de 8 °C en moyenne, et de 10 °C, au niveau des régions subtropicales.

Ceci étant, pas de réactions d’effroi : ce taux élevé ne devrait pas être atteint à moyen terme, en tout cas, probablement pas avant 2100 !

Les membres du Giec ont étudié quatre scénarios RCP (Representative Concentration Pathway), quatre hypothèses de trajectoire des émissions de gaz carbonique, et leur conséquence sur la valeur qu’aura ce que l’on appelle le forçage radiatif en 2100. Compte tenu des incertitudes sur les modèles climatiques, ces scénarios donnent respectivement des températures moyennes globales pour la Terre qui seront, en 2100, quelque part entre 1,4 et 3,1°C pour RCP6, et entre 2,6 et 4,8 °C pour le scénario RCP8.5 qui est le scénario « business-as-usual », c’est-à-dire, celui où rien n’est fait, ou presque, pour stopper le réchauffement climatique.

Ceci étant, pas de réactions d’effroi : ce taux élevé ne devrait pas être atteint à moyen terme, en tout cas, probablement pas avant 2100 !

Or, le scénario RCP8.5 correspond à un taux de C02 comparable en 2100, ou pour le moins, peu de temps après ; cela signifie que si les émissions continuent sans inflexion significative, les prédictions sinistres des chercheurs californiens se vérifieraient à ce moment-là. La température moyenne globale sera, non pas de 5, mais bien de 13 °C. 

Le taux de ppm de CO2 est actuellement de 410 ppm environ…  Même si la bataille pour les 1,5 °C est très probablement perdue, que celle pour les 2 °C se présente mal  et que nous allons, plus probablement, vers les 3 °C de plus globalement par rapport à 1900, l’humanité semble tout de même se diriger vers une réduction de ses émissions, il est donc peu plausible que le scénario, avec plus 1.200 ppm, devienne une réalité. On va plutôt vers un scénario qui se situe quelque part en dessous des 900 ppm, même si ces chiffres restent flous.

https://www.novethic.fr/actualite/environnement/climat/isr-rse/infographie-interdiction-d-acheter-une-voiture-neuve-ou-de-prendre-un-long-courrier-couvre-feu-thermique-quotas-sur-les-produits-importes-les-mesures-chocs-pour-rester-sous-1-5-c-146877.html

https://www.nature.com/articles/s41561-019-0310-1.epdf?author_access_token=0KiqRkFsS6qEi37dkGz8X9RgN0jAjWel9jnR3ZoTv0Nq8LfnDsfOJgJee7VyE1P3etD8357qMjqyq2BVVSP5V9bFmsDkWYfYyGV7gtmSgJncc5u_hUNNfMaYS7BFcu8_tWNipaYj6kz2PMZ8OXu5CQ%3D%3D

Publié dans Uncategorized | Laisser un commentaire
Avr 26

Quelle stratégie internationale de l’enseignement supérieur ?

C’est sur la question de la stratégie internationale de l’enseignement supérieur français que Terra Nova s’est récemment concentré. Sont repris plus bas la synthèse et les recommandations faites. Ceci étant, la question du modèle économique n’est abordé principalement qu’au travers de la question des frais d’inscription différentiés. reconnaissons qu’au delà des bienfaits en matière d’aide au développement, notamment de la zone de l’Afrique francophone, et de la diffusion de la culture française via la diplomatie éducative, est-ce au budget national de contribuer à élever le niveau de possibles futurs concurrents ?…

Les étudiants sont de plus en plus mobiles à l’échelle internationale. Comment attirer enFrance ceux qui sont le plus à même de bénéficier de nos formations, qui pourront le mieux contribuer au développement des connaissances et à l’économie de notre pays ou de leur pays d’origine ?  Si la France reste une destination prisée, elle le doit davantage à son ancien prestige ou à son passé colonial qu’à son attractivité actuelle. Nous reculons très vite dans la liste des pays d’accueil, non seulement en nombre d’étudiants accueillis, mais dans les préférences des étudiants mobiles : une vraie dégringolade ! Le sous-financement de nos universités et la dispersion des responsabilités en matière de rayonnement de notre enseignement supérieur limitent nos capacités d’accueil alors que plusieurs de nos pays voisins ont fait du développement de leur enseignement supérieur une vraie priorité nationale.

Le plan « Bienvenue en France » lancé par le gouvernement montre une prise de conscience bienvenue sur ce sujet et une réelle ambition. En revanche, la décision d’augmenter les frais d’inscriptions des étudiants étrangers non-européens présente de nombreux inconvénients : elle n’a pas été suffisamment négociée avec les acteurs universitaires, elle impose une mesure uniforme au lieu de favoriser les stratégies des universités et elle va pénaliser les étudiants de familles modestes, en particulier ceux qui viennent de pays africains alors que l’espace francophone fait partie de nos atouts à privilégier.

Nous ne pouvons pas simplement appliquer des recettes mises en œuvre dans les pays anglophones, qui sont les premiers destinataires de la mobilité étudiante internationale. Nous devons tenir compte de nos atouts : un espace francophone dans lequel les échanges sont déjà forts, une image positive de la France comme pays de culture. Les bénéfices de l’accueil des étudiants étrangers sont nombreux. C’est un élément d’une politique de rayonnement de la France dans le monde. C’est aussi un facteur de dynamisation de nos formations et de notre recherche. Enfin, c’est une manière de contribuer à une politique de développement dont les effets bénéfiques reviennent à moyen ou long terme chez nous. C’est pourquoi la discussion sur l’internationalisation de l’enseignement supérieur ne doit pas faire l’objet d’un débat simpliste, centré uniquement sur les frais d’inscription. Mais pour que notre politique d’accueil porte ses fruits, elle doit viser avant tout une démarche de qualité. Ce qui passe nécessairement par une amélioration des conditions d’accueil des étudiants étrangers.

Nous développons une série de propositions pour y voir plus clair dans notre stratégie internationale d’enseignement supérieur. On ne pourra pas accueillir plus d’étudiants, et mieux les accueillir, sans un financement supplémentaire, inscrit dans la durée et à la hauteur des ambitions annoncées. Sa répartition entre effort budgétaire, donc supporté par les contribuables français, et autres sources de financement est une question complexe qui nécessite une réflexion approfondie. Le partage des rôles entre acteurs diplomatiques et académiques, qui répondent à des logiques différentes, doit être clarifié, en respectant l’autonomie de fonctionnement des acteurs universitaires, notamment en laissant aux universités l’entière maîtrise scientifique et pédagogique de leur politique internationale. Au niveau diplomatique, il la faut prendre en compte en parallèle politique d’influence et logique d’aide au développement. Les établissements universitaires doivent développer leur stratégie internationale et prévoir les services d’accueil et d’accompagnement adaptés pour cela. Les bourses et les exonérations de frais d’inscription des étudiants doivent être développés, en particulier pour les étudiants inscrits en doctorat. A côté des bourses gérées par les postes diplomatiques, des systèmes de bourses académiques doivent être développés. Par ailleurs, les projets de développement de notre formation à l’extérieur sont une perspective à privilégier (double diplomation, déploiement de formations françaises à l’étranger…) et doivent inclure tous les niveaux d’étude, y compris le niveau IUT/STS.

Terra Nova conclut son étude par 12 préconisations.

1. Accompagner une montée en compétences des établissements. 

2. Recrutement d’étudiants étrangers. 

3. Dynamiser la politique des bourses et des exonérations. 

4. Permettre une différenciation des droits selon les cursus. 

5. Aide au développement. 

6. Coopération universitaire et scientifique avec l’Afrique. 

7. Exporter nos formations 

8. Formation professionnelle et apprentissage. 

9. Développer et approfondir les réseaux d’alumni 

10. MOOCs. 

11. Droits d’inscription en doctorat. 

12. Redéfinir les rôles des acteurs institutionnels. 

Rappelons que Terra Nova se définit comme un think tank progressiste indépendant. Son but est de produire et de diffuser des idées et des solutions politiques innovantes, en France et en Europe.

http://tnova.fr/notes/une-strategie-internationale-pour-l-enseignement-superieur-francais

Publié dans Uncategorized | Laisser un commentaire
Avr 19

Innovation : 5 « Grands défis » 

Le Conseil de l’innovation est présenté comme l’instance stratégique de pilotage de la politique d’innovation du Gouvernement. Au deux « défis » déjà financés par le Fonds pour l’innovation et l’industrie (2 en intelligence artificielle et 1 sur le stockage de l’énergie), viennent de s’en ajouter 2 autres sur les thématiques de la cybersécurité et de la bioproduction.

Qu’il me soit permis ici de faire un point sur les travaux et décisions des 3 premières réunions de ce Conseil, la dernière s’étant tenue le 17 avril et ayant été consacrée, hors défis, à deux sujets majeurs : la présentation du plan batteries et la croissance des start-ups en France. 

Le plan batteriesvise à donner à la France une autonomie stratégique sur les batteries, en sachant que la valeur ajoutée des batteries pour la mobilité rend critique la localisation des futures usines de production de cellules sur le territoire européen. Ainsi, dans la future chaîne de valeur du secteur automobile, la maîtrise technologique de la production de cellules de batteries est appelée à jouer un rôle similaire à la conception des moteurs thermiques. Si l’Europe se laisse distancer sur ce segment, elle court le risque d’un déclassement de son industrie automobile. Pour prendre de l’avance, la France et l’Allemagne ont lancé un projet commun visant à construire des usines de batteries dans les deux pays et à collaborer sur des projets de R&D et d’industrialisation de ces technologies, en y associant d’autres pays. Les moyens du Fonds pour l’innovation et l’industrie permettront de financer une partie de ce plan. 

Le financement des start-upsest également un sujet phare de la politique d’innovation du Gouvernement. Si le précédent Conseil a permis de détailler les mesures de l’ambitieux plan deep tech du Gouvernement opéré par Bpifrance, ce Conseil a concentré son attention sur les mesures pour les start-ups en forte croissance. L’écosystème français est en effet en pleine croissance, avec des levées de fonds qui ont atteint 3,6 Mds€ en 2018 et une nouvelle licorne française. Le nombre de levées de fonds de plus de 20 M€ est également en très forte croissance, avec 43 tours de table en 2018, contre 29 en 2017 et seulement 8 en 2014. La France rattrape donc ses voisins dans ce domaine et les actions en fonds de fonds des Programmes d’investissements d’avenir, qui aident à structurer le marché du capital-risque français, montrent toute leur pertinence et doivent à ce titre être préservées. Le Conseil a insisté sur l’importance du soutien de l’ensemble des administrations et opérateurs publics à ces entreprises, par exemple dans le cadre du Pass French Tech. 

Enfin, au cours de cette nouvelle session, le Conseil de l’innovation a choisi deux nouveaux Grands défis. Ces grands défis, dotés de 30 M€ chacun, vont permettre de renforcer les efforts en faveur de l’innovation et de la R&D dans deux secteurs de rupture, où la France a toute sa place : la cybersécurité et la bioproduction. Ces deux Grands défis viennent s’ajouter aux trois premiers…

Point d’étape sur les premiers Grands défis financés par le Fonds pour l’innovation et l’industrie 

Les Grands défis, choisis par le Conseil de l’innovation et financés à hauteur de 120 M€ par an par le Fonds pour l’innovation et l’industrie (FII), visent à répondre à des enjeux sociétaux dans des domaines stratégiques nécessitant la levée de barrières technologiques. Ils doivent : 

  • avoir une portée scientifique et technologique et s’attaquer à des champs et à des verrous technologiques peu explorés ; 
  • présenter un enjeu sociétal et offrir des perspectives de débouchés commerciaux ; 
  • pouvoir s’appuyer sur un vivier d’excellence de laboratoires français et d’entreprises. 

Le premier Conseil de l’innovation du 18 juillet 2018 avait retenu deux grands défis portant sur l’intelligence artificielle et des directeurs de programme ont été recrutés : Olivier Clatz pilotera le défi «Comment améliorer les diagnostics médicaux par l’intelligence artificielle ? » et Julien Chiaroni pilotera le défi « Comment sécuriser, certifier et fiabiliser les systèmes qui ont recours à l’intelligence artificielle ? ».

Le Conseil de l’innovation du 13 décembre 2018 avait retenu un nouveau Grand défi sur le stockage de l’énergie et un nouveau directeur est en cours de recrutement.

Le Conseil de l’innovation du 17 avril 2019 a retenu un grand défi sur la thématique de la cybersécurité et un grand défi sur celle de la bioproduction. 

Comment automatiser la cyber-sécurité pour rendre nos systèmes durablement résilients aux cyber-attaques ? 

L’évolution des technologies numériques et l’intégration des composants numériques communicants dans l’ensemble des objets de la vie quotidienne, mais aussi au sein des équipements industriels ou encore institutionnels et étatiques, transforme radicalement nos usages. Cette exposition croissante au numérique nous rend cependant particulièrement vulnérables aux attaques informatiques. 

Par ailleurs, la complexité croissante des systèmes informatiques favorise les failles susceptibles d’être exploitées par les pirates informatiques, tout en leur offrant des ressources et des outils extrêmement puissants pour leurrer les défenses informatiques (exemple du virus Stuxnet qui a attaqué les centrifugeuses iraniennes en 2010) et lancer des attaques d’une ampleur inédite (à l’instar des attaques qui ont frappé le réseau énergétique ukrainien en 2015). 

Enfin, l’explosion de la quantité des données produites et collectées ne permet plus de relever le défi de la cyber-sécurité en recourant exclusivement aux analyses humaines et aux outils disponibles. 

La pérennisation des investissements économiques passe, par conséquent, par des modèles et des outils de protection informatique rénovés. Pour y répondre, le présent défi ambitionne de poser les bases d’une automatisation de la cyber-sécurité. 

Les perspectives offertes par les nouvelles techniques d’intelligence artificielle, en particulier l’apprentissage automatique, une fois couplées aux approches existantes, permettent, en effet,d’envisager des progrès significatifs aussi bien en amont des attaques (conception puis évaluation des produits et systèmes) qu’en aval (détection puis réaction). 

Ce Grand défi débouchera sur des solutions novatrices au profit des entreprises et des particuliers pour : 

  • –  évaluer la vulnérabilité des systèmes embarqués ; 
  • –  détecter des anomalies dans des flux réseaux et anticiper les attaques ; 
  • –  corriger automatiquement les failles logicielles, qui sont utilisées par les pirates comme « chevaux de troie » ; 
  • –  mettre en place de nouvelles stratégies d’immunisation des réseaux informatiques. 

Plusieurs axes interdépendants présentant chacun des enjeux majeurs de rupture pourraient ainsi faire l’objet d’appels spécifiques par le Directeur de programme. 

° En amont des attaques 

L’évaluation de la sécurité, y compris pendant la phase de développement est essentielle pour attester du niveau de sécurité d’un produit, matériel ou logiciel, ou d’un système. Les approches existantes, comme le «bug bounty», pour l’audit d’un système d’information complexe, reposent sur une multitude d’experts travaillant en parallèle mais ne font que mutualiser des compétences encore trop peu nombreuses sans apporter une assurance complète sur la sécurité. 

° En aval des attaques 

La détection d’attaques se heurte elle aussi aux capacités humaines des analystes, car si des outils permettent d’analyser un grand nombre de données, l’expertise humaine demeure indispensable pour caractériser finement les événements de sécurité ou analyser un code binaire suspecté d’être un logiciel malveillant. Dans ce domaine, des travaux exploitant les données cyber et couplant la modélisation et les techniques d’apprentissage automatique, seront à l’origine de progrès déterminants. 

La réaction aux attaques, qu’il s’agisse de remédiation ou de corrections, n’est également que très peu automatisée. S’il faut moins de quelques heures pour que des logiciels malveillants comme « Wannacry » détruisent des systèmes entiers et causent des centaines de millions d’euros de dégâts, plusieurs semaines seront nécessaires pour les réparer ou les reconstruire. Le défi pourrait consister à mettre au point des outils capables de réagir en temps contraint à une attaque avérée. 

Comment produire biologiquement et à coût réduit des protéines à forte valeur ajoutée ? 

Les systèmes de santé dépendent de façon croissante d’un accès à des protéines critiques et à forte valeur ajoutée, qui sont souvent d’un coût environnemental élevé et complexes à obtenir de source locale. 

L’émergence de protéines fonctionnalisées et sur mesure permet une transformation radicale des thérapies, qui s’individualisent et se complexifient. Néanmoins, les coûts de production des nouveaux médicaments biologiques explosent par rapport aux médicaments chimiques. Ces coûts sont par ailleurs très sensibles à la technologie employée et à la taille des lots. En ce qui concerne les thérapies cellulaires et géniques, il s’agit encore aujourd’hui de techniques peu industrialisées et optimisées. 

Pour répondre à ces besoins, des progrès sont nécessaires. Ceux-ci devront concerner aussi bien des innovations dans les domaines des biotechnologies que du numérique et à leurs croisements (modélisation, physico-chimie in silico…). Aussi, ils devront principalement aborder les questions inhérentes à l’industrialisation de la production de ces nouvelles formes de protéines. L’objectif est de développer et d’amener au marché des protéines innovantes, avec des propriétés disruptives (antivirales ou antibiotiques par exemple). 

Le défi portera principalement sur la levée de verrous technologiques sur les technologies de bioproduction, à la croisée des sciences dites -omics, de l’information et des procédés de bioproduction industrielles. Le défi visera à optimiser et sécuriser les moyens de production de ces protéines, afin de positionner la France en tant que leader sur ces marchés en forte croissance. 

Plusieurs axes inter-dépendants, concernant à la fois les domaines de la santé et de l’agroalimentaire, et présentant chacun des enjeux majeurs de rupture pourraient ainsi faire l’objet d’appels spécifiques par le Directeur de programme : 

  • Produire des protéines aux propriétés disruptives à partir de nouvelles sources, pour des applications dans les domaines de la santé. En particulier, la pureté des protéines, leurs fonctionnalités pharmacocinétiques et l’éco-efficience de leurs méthodes de production constitueront des centres d’intérêt majeurs. Ces innovations feront appel à la biologie de synthèse, à la modélisation des interactions entre protéines et bactéries de notre organisme et aux nouvelles méthodes de fermentations. 
  • Produire de manière efficiente des protéines complexes en (très) petits volumes. La personnalisation des protéines complexes et des biomédicaments pose la question de la pertinence des standards actuels des modes de production, calqués sur la recherche de grandes quantités d’une même molécule. En effet, dans un nombre croissant de situations, les nouvelles protéines devront être produites à des niveaux de personnalisation élevés (allant jusqu’au cas un produit pour un patient). 
  • Améliorer les rendements de l’ensemble de la chaîne de production. L’amélioration des rendements des lignes industrielles de productions biologiques se heurte à des verrous majeurssur les exigences de contrôle qualité, l’optimisation des conditions de culture et la purification des molécules d’intérêt. 
  • Modéliser les problèmes de production à une échelle industrielle. Notamment, limiter le nombre de lots de mise au point par le développement d’outils de conception adaptés pourrait permettre un gain de temps et d’économie considérables. 

https://minefi.hosting.augure.com/Augure_Minefi/r/ContenuEnLigne/Download?id=FB48F232-6BDB-4795-BEA8-CF58466360AE&filename=1179%20-%20DP_Conseil%20de%20l%27innovation_20190417.pdf

Publié dans Uncategorized | Laisser un commentaire