Mai 29

Les défis de la transformation du secteur électrique européen

L’IFRI, think tank français plutôt orienté sur la géostratégie, a réalisé une étude sur la transformation du secteur électrique européen qui fait face à trois grands défis : la décarbonation, la digitalisation et la décentralisation. .

Les risques sont multiples: qu’il n’y ait pas suffisamment d’investissements dans les nouvelles capacités de production bas carbone ni dans les réseaux ; que l’insertion des technologies de stockage de l’électricité et de flexibilité du système se fasse à des coûts très élevés et de manière inefficace ; que l’interaction entre les grands réseaux et infrastructures et les microsystèmes soit mal pensée et coordonnée ; que la digitalisation des systèmes électriques nourrisse une nouvelle fracture numérique ; que nos systèmes électriques soient contrôlés de manière croissante par les GAFAMI (Google, Apple, Facebook, Amazon, Microsoft, IBM) ou des acteurs chinois; que la sécurité des approvisionnements et la décarbonation ne soient pas garanties. 

Capitalisation boursière de quelques sociétés du numérique, du pétrole et de l’électricité en milliards de USD à mi-juin 2018

L’approche dogmatique qui a présidé à la libéralisation de l’électricité en Europe, fondée sur une confiance absolue dans les mécanismes du marché mais avec des exceptions qui se sont multipliées au point d’entraver leur efficacité, a fragilisé les opérateurs historiques, lesquels sont confrontés à de nouveaux défis : un marché de gros qui n’envoie pas les bons signaux, une révolution numérique qui attire de nouveaux entrants peu enclins à investir dans des capacités électriques, des réseaux en pleine mutation à l’échelle locale comme à l’échelle mondiale. 

Il faut une vision industrielle de la concurrence qui permette à ces opérateurs de financer les investissements massifs nécessaires à la transition énergétique tout au long de la chaîne électrique sachant que la production va devenir de plus en plus décarbonée et les réseaux de plus en plus intelligentsIl appartient aux pouvoirs publics de répondre aux trois questions qui vont conditionner l’évolution du secteur dans les prochaines années : jusqu’où faut-il décentraliser la production d’électricité et, d’autre part, comment faut-il réguler les activités de réseaux pour intégrer les nouvelles technologies du numérique ? Et comment réconcilier le marché avec le déploiement à grande échelle des énergies renouvelables (ENR) indispensables pour décarboner mais qui, malgré la baisse de leurs coûts de déploiement, nécessiteront toujours des subventions et des solutions pour pallier leur intermittence ? 

Les compagnies d’électricité doivent connaître les réponses qui seront apportées par la puissance publique pour se positionner par rapport à de nouveaux acteurs de la transition : les territoires, les producteurs décentralisés, les entreprises pétrolières et distributeurs d’énergie, les constructeurs automobiles et les opérateurs du numérique. 

L’appel des centrales sur la base d’un merit order fondé sur les seuls coûts marginaux doit être revisité dans la mesure où les ENR non pilotables ont par nature un coût marginal nul. Plus il y aura de capacités ENR intermittentes dans les mix électriques, plus le prix de gros aura tendance à baisser lorsqu’elles sont disponibles et plus les besoins de capacités flexibles et bas carbone seront élevés. Le système de régulation mis en place devra permettre de rémunérer efficacement ces technologies flexibles (centrales nucléaires ou thermiques classiques). 

Face à ce défi, les centrales non pilotables pourraient être appelées sur la base de leur coût moyen et le principe du coût marginal pourrait être gardé pour les centrales pilotables. On peut aussi considérer que le coût du stockage est une forme d’externalité négative au même titre que le coût du carbone ou celui de la gestion des déchets nucléaires, et dans ce cas l’appel des centrales sur la base des coûts marginaux intégrant ces externalités négatives peut se révéler pertinent. 

La prise en compte des externalités négatives (stockage des ENR et émissions de CO2 pour les centrales carbonées, mais aussi coût de gestion des déchets nucléaires) engendrera un prix d’équilibre plus élevé sur le marché de gros de l’électricité, pour un niveau donné de demande d’électricité. Un prix-plancher du carbone et/ou un meilleur contrôle des quotas de CO2 mis sur le marché du Emission Trading System (ETS) constituent de bonnes mesures pour atteindre cet objectif. Cela devrait rendre inutiles les subventions accordées aux ENR et même le maintien d’un marché de capacité pour les centrales classiques. Pour que les ENR demeurent compétitives et bien placées dans le merit order, il conviendrait donc de faire porter les efforts de recherche et développement sur la baisse des coûts du stockage de l’électricité, que ce soit par batteries ou sous forme de power-to-gas.

Le développement à grande échelle des technologies du numérique, en particulier dans le secteur de l’automobile, fournit de nouvelles perspectives pour les usages électriques. Les équilibres concurrentiels vont évoluer à mesure que la fourniture d’électricité décarbonnée sera associée à des services annexes, de plus en plus liés au numérique. Dans cette perspective, des rapprochements stratégiques pourraient voir le jour entre opérateurs numériques, constructeurs automobiles et fournisseurs d’électricité. On assistera ainsi à une « ubérisation » des activités de fourniture d’électricité, ce qui ne sera pas sans soulever des questions au sujet de la propriété et de la confidentialité des données collectées. On doit également noter que le recours massif au numérique risque de pénaliser les consommateurs qui ne maîtrisent pas bien ces nouvelles technologies (citoyens défavorisés, personnes isolées en zone rurale mal connectée voire personnes âgées) et du coup cela peut accentuer la « fracture numérique » que l’on constate déjà au niveau de la gestion des services publics administratifs (impôts, santé). 

Enfin, il faut réfléchir à l’architecture des réseaux électriques du futur à tous les niveaux : local, national, suprarégional et planétaire. À l’échelle des micro-réseaux, la tarification de l’accès au réseau est appelée à évoluer pour éviter une « spirale de la mort », sans pénaliser le développement de l’autoproduction. Outre un rééquilibrage entre la part puissance et la part électricité consommée, l’introduction d’un tarif spécifique de secours pour l’autoproduction est une option à considérer, d’autant que les péages d’accès devront aller vers une meilleure prise en compte de la localisation et de la période de soutirage ou d’injection de l’électricité pour minimiser les coûts. À la perspective de marchés décentralisés plus ou moins indépendants s’ajoute celle de grands projets d’interconnexion à l’échelle mondiale, porteurs de nouvelles opportunités mais aussi de risque en termes de contrôle des technologies de production et des infrastructures électriques. Il paraît impératif de prendre en compte ces enjeux en ayant pleinement conscience qu’une approche européenne coordonnée et consensuelle est une nécessité pour que notre souveraineté énergétique soit garantie. 

https://www.ifri.org/sites/default/files/atoms/files/percebois_transformation_defis_2019.pdf

Publié dans Uncategorized | Laisser un commentaire
Mai 22

Un observatoire des politiques d’IA

L’OCDE a récemment dévoilé son observatoire des politiques d’intelligence artificielle, OECD.AI, qui « a pour but d’aider les pays (…) à élaborer des cadres politiques et institutionnels pour le développement d’une IA digne de confiance qui bénéficie à la société dans son ensemble, en s’inspirant des principes de l’IA de l’OCDE ». Y sont rassemblées des données de sources diverses, dont des informations sur les compétences en IA issues d’une collaboration entre LinkedIn et la Banque mondiale, qui place le Luxembourg en tête pour son attractivité en la matière, suivi par l’Allemagne.

Cet Observatoire des politiques relatives à l’IA a pour objectif d’aider les pays à encourager, accompagner et suivre le développement responsable de systèmes d’intelligence artificielle (IA) dignes de confiance au service de la société. Ayant vocation à devenir une plateforme en ligne inclusive, dédiée aux politiques publiques relatives à l’IA, il intègre une base de données exhaustive des politiques en matière d’IA dans le monde. Elle met à profit la dynamique créée par la Recommandation de l’OCDE sur l’intelligence artificielle, première norme intergouvernementale sur l’IA, qui a été adoptée en mai 2019 par les pays de l’OCDE et plusieurs économies partenaires, et a jeté les bases de l’élaboration des Principes du G20 sur l’IA, adoptés par les dirigeants des pays du G20 en juin 2019. 

L’Observatoire allie des ressources émanant de l’ensemble de l’OCDE et celles de partenaires issus de tous les groupes de parties prenantes afin de faciliter le dialogue et de fournir des analyses stratégiques pluridisciplinaires, fondées sur des données probantes, sur l’IA. L’Observatoire présente trois attributs fondamentaux : 

  • Pluridisciplinarité: L’Observatoire travaille de concert avec les communautés intervenant dans l’élaboration des politiques à l’échelle de l’OCDE et au-delà – que ce soit dans les domaines de l’économie numérique, de la science et la technologie, de l’emploi, de la santé, de la protection des consommateurs ou de l’éducation – afin d’étudier, moyennant une approche cohérente, les possibilités et les défis des évolutions actuelles et futures de l’IA. 
  • Analyse fondée sur des données probantes : L’Observatoire fait office de forum de collecte et de partage de données probantes sur l’IA, mettant à profit la réputation de l’OCDE en matière de méthodologies de mesure et d’analyses fondées sur des observations factuelles. 
  • Partenariats multipartites mondiaux : L’Observatoire travaille avec les gouvernements et un large éventail d’autres acteurs – notamment des partenaires issus de la communauté technique, du secteur privé, des milieux universitaires, de la société civile et d’autres organisations internationales – et fait office de plateforme de dialogue et de collaboration.

S’agissant de son fonctionnement et de sa structure, l’Observatoire fournit des ressources sur les sujets liés à l’action publique dans le domaine de l’IA ; les politiques et initiatives en matière d’IA ; les tendances et les données ; et formule des orientations pratiques sur la mise en œuvre des Principes de l’OCDE sur l’IA. Il intègre une base de données, actualisée en permanence, des politiques et initiatives relatives à l’IA, que les pays et d’autres parties prenantes peuvent partager et mettre à jour, ce qui permet d’en comparer les éléments clés de manière interactive. Il fait également office de forum pour la collecte de données probantes axées sur les politiques, les débats connexes et la formulation d’orientations à l’intention des gouvernements, s’appuyant pour ce faire sur des partenariats solides noués avec un large éventail d’acteurs externes. 

En matière de partenariats et de mise en œuvre, l’Observatoire facilite la mise en place de partenariats entre les communautés intéressées au sein de l’OCDE, de ses pays partenaires, d’autres entités publiques, d’organisations internationales et de parties prenantes non gouvernementales. Il cherche à favoriser une large participation et à nouer des partenariats avec les responsables d’initiatives dédiées à l’IA au sein de diverses institutions et organisations. 

https://oecd.ai

Publié dans Uncategorized | Laisser un commentaire
Mai 15

Des programmes variés sur les conséquences du changement climatique

Le changement climatique a des conséquences dans tous les domaines. Les programmes de recherche sur l’examen de ses conséquences et la façon d’y remédier se multiplient. Citons-en trois récents.

L’Agence National de la Recherche est partie prenante d’un nouvel ERANET (European Research Area Network) Cofund ‐ Horizon 2020 sur les systèmes alimentaires et le climat qui a ouvert son appel transcontinental à des propositions de recherche dans le domaine des systèmes alimentaires et du climat. L’appel soutiendra la recherche fondamentale et appliquée et se concentrera sur les interactions entre le changement climatique et les systèmes alimentaires : évaluer les conséquences du changement climatique sur les marchés agroalimentaires et développer des chaînes de valeur alimentaires durables et résilientes dans le contexte de l’évolution des besoins et des modèles alimentaires (diètes).

Le projet de recherche DESARC-MARESANUS (DEcreasing Seawater Acidification Removing Carbon) aborde deux problèmes environnementaux de grande importance : l’augmentation de la concentration atmosphérique de dioxyde de carbone (CO2) et l’acidification qui en résulte pour les océans. Une présentation des principaux résultats récents obtenus dans le cadre de ce projet a été faite début février, concernant un processus d’élimination du CO2 de l’atmosphère basé sur la gazéification de la biomasse pour produire de la chaux qui, répandue dans les océans, permet de diminuer leur acidité générant également des sous-produits énergétiques décarbonés tels que l’hydrogène. le projet Desarc-Maresanus, développé par l’École polytechnique de Milan, teste un procédé basé sur un largage en mer Méditerranée de millions de tonnes de chaux éteinte. Ce composé agit doublement : il tempère l’acidité de l’eau et augmente le piégeage du CO2. Le bilan de la première année d’étude est plutôt positif. Il montre qu’il est possible de confier aux navires ordinaires (cargos et paquebots) la dissémination de la chaux.

La NASA et les Nations Unies s’associent pour une plus grande intégration de l’imagerie spatiale dans l’aide aux décisions relatives à la biodiversité, fortement impactés par le changement climatique. Pour aider les décideurs à élaborer des solutions de développement durable fondées sur des données, le PNUD, le Programme des Nations Unies pour l’environnement (PNUE) et le Secrétariat de la Convention sur la diversité biologique (CDB) ont lancé le UN Biodiversity Lab. Le UN Biodiversity Lab est une plateforme en ligne qui permet aux décideurs et autres parties prenantes d’accéder aux couches de données mondiales, de télécharger des ensembles nationaux de données et d’analyser ces ensembles de données en combinaison pour fournir des informations clés sur la biodiversité et sur les objectifs de développement durable fondés sur la nature. 

https://anr.fr/fr/detail/call/systemes-alimentaires-et-climat-fosc/

https://www.eurekalert.org/pub_releases/2020-02/pdm-rcf021020.php

https://www.lepoint.fr/sciences-nature/sciences-de-la-chaux-pour-eliminer-le-co2-de-l-atmosphere-23-02-2020-2364009_1924.php

https://www.france-science.org/La-NASA-et-les-Nations-Unies-s.html?mc_cid=ac9f59c630&mc_eid=a717bf52a3

https://arset.gsfc.nasa.gov/land/webinars/un-biodiversity-2020/fr?utm_source=social&utm_medium=ext&utm_campaign=UN-BIO-FR

Publié dans Uncategorized | Laisser un commentaire
Mai 08

Pour une circulation vertueuse des données numériques

L’Académie des Technologies s’est récemment penchée sur la circulation des données numériques.

Rappelons avec Platon qu’une société existe par les échanges entre ses membres. Les échanges d’idées, de services et de moyens impliquent un principe de réciprocité et font que toutes les parties prenantes y trouvent leur intérêt pour satisfaire leur propre besoin. Les données numériques, qui aujourd’hui sont au cœur de l’activité de nos sociétés, deviennent un élément clef de l’échange. Force est malheureusement de constater qu’elles sont depuis quelques décennies capitalisées et thésaurisées, engendrant de fait une défiance des citoyens – et des entreprises voire des autorités – vis-à-vis de leur circulation, alors même, et la crise que nous traversons le révèle bien, que ceux-ci ont à gagner à un partage. 

L’Académie des technologies considère que la circulation des données numériques constitue un élément indispensable au développement de la société française et européenne. L’amplification de cette circulation peut assurer une résilience accrue de notre société en renforçant son indépendance et sa souveraineté, tout en respectant ses valeurs fondamentales et ses lois 

La crise du coronavirus a notamment suscité un recours accéléré aux technologies numériques pour pallier les contraintes de mobilité, préserver le lien social, et s’agissant de la pandémie en estimer globalement la propagation, mieux suivre un patient voire prédire l’évolution de sa maladie. Dans ce contexte se pose la question du partage par chacun de nous de données susceptibles de favoriser la lutte contre cette pandémie. Ces données agrégées peuvent contribuer de manière déterminante à la capitalisation de la connaissance sur la maladie, permettre d’élaborer des solutions préventives en support à des politiques publiques ou encore aider à définir des protocoles de soins adaptés à la situation de chacun, pour le bénéfice de chaque individu. 

On a là les éléments de définition de ce qui pourrait s’appeler une circulation vertueuse des données c’est-à-dire une circulation qui profite à toutes les parties prenantes d’un échange, que ces parties soient des individus, des entreprises, des collectivités ou les trois. La circulation vertueuse des données numériques, qui dépasse le seul sujet des données de santé, ne doit obérer ni la protection de la vie privée, ni le respect des libertés individuelles, ni les droits de propriété. Plus généralement cette circulation peut et doit être guidée par l’intérêt général et ne pas remettre en cause les valeurs fondamentales de notre société. 

Des solutions de nature technologique et réglementaire existent pour garantir cette continuité des valeurs sociétales. L’Europe dispose déjà d’un règlement sur la protection des données individuelles (RGPD) en avance dans le monde pour protéger la circulation des données personnelles. Sur le plan technologique les outils existent. Les techniques actuelles de chiffrement et d’anonymisation autorisent déjà de nombreuses solutions comme celles qui permettent notamment des opérations de « traçage » envisagées afin de limiter les rencontres pouvant donner lieu à la transmission du virus. Au-delà de celles-ci, des techniques prometteuses dites de chiffrement homomorphe vont permettre de confier à des tiers des opérations spécifiques sur les données sans que ces derniers aient à décrypter ces données. Des équipes françaises tant industrielles qu’universitaires maîtrisent tout à fait ces techniques Des solutions logicielles existantes, développées en France et en Allemagne, permettent d’authentifier de manière tout à fait fiable l’identité des parties prenantes d’un échange. 

Au demeurant, cette circulation vertueuse des données concerne la plupart des secteurs d’activité, et les données individuelles tout autant que les données professionnelles. Malgré des réticences fréquentes, l’expérience de nombreux secteurs industriels montre que le partage de données entre les acteurs recèle des gains importants de compétitivité : ainsi l’opérateur d’un bâtiment urbain moderne pourra optimiser au profit de ses usagers le fonctionnement courant d’un immeuble en croisant des données de l’architecte et du constructeur immobilier avec celles du fournisseur d’énergie, celles du fournisseur d’eau et l’observation des habitudes des habitants s’ils le désirent. Un fabricant de moteurs sera d’autant plus compétitif qu’il croise ses propres données avec celles des systémiers qui embarquent ce moteur dans leurs produits (aviation, automobile, par exemple). Des solutions comme celle proposée par l’association International Data Space, née en Allemagne, permettent de mettre en œuvre des infrastructures informatiques qui facilitent les échanges de données entre industriels tout en permettant à chacun d’en conserver la maîtrise et d’en contrôler les usages. 

L’Académie des technologies recommande de favoriser la circulation des données par la mise en place au niveau européen d’une labellisation des solutions de circulation qui garantisse leur caractère vertueux et sécurisé. 

Jusqu’à présent la circulation des données numériques est vue par le plus grand nombre comme un risque insurmontable à ne pas prendre dans de nombreux cas. Pour certains encore, et ils sont tout aussi nombreux, les données sont constitutives d’un patrimoine qu’il convient de garder pour soi en prenant le risque de ne pas enrichir ce patrimoine par d’autres données externes. 

Pourtant cette circulation existe sous des formes variées et largement sous-contrôlées, et ces données sont thésaurisées le plus souvent dans les entrepôts numériques de quelques grands groupes mondiaux. Rappelons aussi que le « Cloud Act » permet au gouvernement américain d’avoir accès à toutes les données numériques situées sur son sol. 

La labellisation des solutions de circulation des données en Europe par des standards européens permettra de démultiplier la quantité d’acteurs européens capables de les élaborer et les opérer : il est temps de s’assurer de l’existence et de la pérennité de tels acteurs. 

Alors que la crise actuelle révèle et accélère le recours au numérique, l’Académie des technologies alerte sur le risque que soit de fait confié implicitement à quelques grandes plates formes numériques mondiales le soin d’organiser les échanges constitutifs de notre société et souligne l’importance du développement de solutions de fédération de clouds européens. 

La capacité pour chacun, individu ou entreprise, de transmettre des données dont il est propriétaire sans risque au profit d’un intérêt collectif partagé devient une réalité. Sachons nous en saisir sans renoncer à nos valeurs fondamentales. 

https://www.academie-technologies.fr/blog/categories/publications-de-l-academie/posts/pour-une-circulation-vertueuse-des-donnees-numeriques

Publié dans Uncategorized | Laisser un commentaire
Mai 01

Modèles mathématiques des épidémies

Comprendre les bases des modèles mathématiques des épidémies

Je reprends ici un article du professeur Étienne Pardoux de l’Institut de Mathématiques de Marseille, Aix- Marseille Université (AMU), sur les bases des modèles mathématiques des épidémies publié sur l’excellent site « The Conversation ».

Jusqu’où la courbe des infectés et des décès va-t-elle grimper ? Quelle est l’efficacité des mesures de confinement décidées dans la plupart des pays ? Peut-on atteindre l’immunité collective ? Comment mener le déconfinement ? Y aura-t-il une seconde vague ? Qu’est-ce que le taux de reproduction, annoncé lundi soir à 0,6 par le gouvernement, alors qu’il valait 4 avant le confinement ? 

Les modèles mathématiques des épidémies donnent des éléments pour répondre à ce type de questions, partant d’abord des modèles les plus simples. Des versions plus élaborées permettent de faire des prévisions, lesquelles ont convaincu nos dirigeants politiques de confiner la population, malgré la crise économique qui va en résulter. On verra en particulier le rôle du nombre de reproductions de base R0, qui est le nombre moyen de personnes à qui un infecté transmet la maladie au début de l’épidémie. Sa valeur exacte fait encore débat pour le Covid-19. Mais surtout elle dépend non seulement de la façon dont la maladie se transmet, mais aussi du nombre de contacts que chaque individu a chaque jour. C’est pour faire baisser ce nombre en dessous de 1 (on verra pourquoi ci-dessous) que l’on nous confine.

Un modèle simple pour cerner la situation 

Le modèle de Reed-Frost est un des plus vieux modèles mathématiques des épidémies, il date de 1929. Il est très simpliste, mais il permet d’introduire des notions essentielles et d’obtenir une formule mathématique importante. Les individus sont de trois types : S comme susceptible (d’être infecté), I comme infecté et infectieux (capable d’infecter un susceptible), R comme remis ou retiré (soit guéri, soit mort). Dans ce modèle, dit « SIR », le temps est discret (on progresse semaine par semaine, par exemple) ; la population est supposée grande, sa taille est n. Au début, il y a n-1 individus de type S, 1 individu de type I et 0 de type R. Un individu qui est infecté une semaine donnée infectera chaque S avec la probabilité la semaine suivante, puis guérira (devenant R). L’épidémie se poursuit tant qu’il y a des infectés (que I n’est pas nul), puis elle s’arrête. 

Deux remarques : on néglige pour simplifier la phase d’incubation ; on suppose qu’un individu de type R, s’il n’est pas mort (ce qui heureusement est le cas de l’immense majorité des R), est immunisé – en réalité, à ce stade, on ne sait pas encore beaucoup de choses sur l’immunité au Covid-19. 

Le nombre de reproductions de base, noté R0, est le nombre moyen de susceptibles qu’un infecté infecte au début de l’épidémie, c’est-à-dire dire « lorsque presque toute la population est susceptible ». 

Dans le modèle de Reed–Frost, combien vaut R0 ? Donnons des valeurs à nos deux paramètres. Supposons que = 1 000, et que = 0,0025 (soit 0,25 %). Le premier infecté a autour de lui n-1 ≃ = 1 000 individus susceptibles. Puisqu’il infecte chacun d’eux avec la probabilité p, ce nombre moyen vaut ici R0 × = 2,5. 

Il est assez clair que si R0 < 1, il n’y aura pas d’épidémie majeure avec un petit nombre d’infectés initiaux, de même si R0 = 1. Par contre si R0 > 1, un seul infecté initial peut déclencher une épidémie majeure, qui touche une fraction importante de la population. 

Quelle fraction de la population totale sera touchée par l’épidémie ? 

Une question importante, que se posent beaucoup de gens au vu de la croissance exponentielle du nombre d’individus touchés, et qui nourrit les discussions entre épidémiologistes modélisateurs et responsables politiques, est « quelle fraction de la population totale sera touchée par l’épidémie » ? Si l’on admet qu’une personne guérie est immunisée, il est clair que l’épidémie va s’arrêter tôt ou tard. En outre, tout le monde n’est pas touché. Lorsqu’une fraction de la population est immunisée, dans le modèle de Reed-Frost, pour savoir combien de susceptibles un infecté infecte en moyenne, il faut multiplier par le nombre de susceptibles restant, et bien avant que ce nombre ne s’annule, le produit × passe en dessous de 1, et alors l’épidémie s’arrête. 

Voici ce que donnent 10 000 simulations dans les cas R0 = 0,95, et R0 = 2,5. Lorsque R0 < 1, aucune épidémie majeure n’a lieu. Dans le cas R0 = 2,5, une certaine fraction des simulations (qui ne dépend pas de la taille de la population) n’aboutissent pas à une épidémie majeure, tandis que la proportion d’individus infectés dans le cas d’une épidémie majeure se concentre quand la taille de la population augmente autour d’une certaine valeur (laquelle augmente avec R0, comme le montrent des simulations pour plusieurs valeurs de R0.

la proportion de la population totale qui est infectée, indiquée horizontalement. est la taille totale de la population. 

Quelle est la fraction de la population touchée par une épidémie majeure ? Supposons que R0 > 1. Dans la réalité, il y a eu plusieurs infectés initiaux, au moins en Europe de l’Ouest et aux États-Unis, suffisamment pour que l’épidémie majeure soit inévitable. On peut montrer que l’épidémie touche au total une fraction τ de la population, qui pour une grande taille de –×τ population, est proche de la solution de l’équation 1-τ = e 

Cette équation a toujours la solution τ= 0, et si R0>1, il y a une autre solution, qui correspond à une épidémie majeure. On a les valeurs numériques suivantes : pour R0=2, τ=79 % ; pour R0=3, τ=94 % ; pour R0=4, τ=98 % ; et pour R0=5, τ=99 %. 

La preuve de ce résultat, dans le cas du modèle de Reed-Frost est assez élémentaire. En fait on peut l’établir dans un cadre plus général, mais avec quand même les trois hypothèses suivantes : 

  1. Pas d’immunité au départ (naturelle ou par vaccination). Vrai pour le SARS-CoV-2, pas pour la grippe saisonnière. Si la moitié de la population était immunisée, la taille totale serait très réduite ! 
  2. Une communauté homogène, ce qui n’est vrai ni pour le SARS-CoV-2 ni pour aucune maladie. Quelles hétérogénéités sont à prendre en compte dépend de chaque maladie et de son mode de transmission. On considère qu’il faut réduire le nombre d’infectés I d’environ 10 % à 20 % par rapport aux prédictions du modèle homogène. 
  3. On a supposé que le comportement des individus ne change pas au cours de l’épidémie. Bien sûr les mesures prises par les autorités (fermeture des écoles et des lieux publics, confinement) changent la donne. 

On peut tracer la courbe de τ en fonction de R0

Taille totale de l’épidémie en fonction de R0. Notre modèle est en bleu.
Si on prend en compte l’hétérogénéité, en rouge pointillé.
Si la moitié de la population était initialement immunisée, en jaune. 

Comment réduire R0, le nombre de reproductions de base ? On peut factoriser R0 R0 × × l, où est la probabilité de transmission à chaque « contact », est le nombre de « contacts » par jour et est la durée de la période d’infection. Alors, les mesures de prévention visent à réduire R0 en réduisant : 

  1. la probabilité de transmission à chaque « contact » : masques, lavage des mains ; 
  2. le nombre de « contacts » par jour : confinement, éviter les transports publics et les grands rassemblements ; 
  3. la durée de la période d’infection : diagnostic rapide, isolation des infectés, traitement efficace (si disponible). 

Il n’y aura pas d’épidémie majeure si le nombre de reproductions de base peut être réduit à une valeur inférieure à 1 grâce à diverses mesures. Conclusion : il faudrait des masques pour tout le monde (réduction de p) et tester massivement (réduction de l, comme le montre l’exemple de la Corée). 

Si une proportion de la population est vaccinée, alors R0 est remplacé par Rv = (1-vR0 (chaque “tentative d’infecter” ne réussit qu’avec la probabilité 1-v) : Rv est inférieur à 1 si > 1-1/R0.

Deux conclusions sur la vaccination (qui n’est malheureusement pas encore disponible pour le Covid-19) : d’une part, si on connaît R0, on connaît la fraction de la population qu’il faut vacciner pour être sûr qu’il n’y aura pas d’épidémie majeure – par exemple, si R0 vaut 2,5, il faut vacciner 60 % de la population, 75 % si R0 vaut 4, 80 % si R0 vaut 5. D’autre part, en se vaccinant, on se protège soi-même, mais surtout on protège les autres. 

Observer la courbe de propagation de l’épidémie ne suffit pas pour estimer R0 car le taux de croissance de la courbe dépend de deux facteurs : R0 et le « temps de génération » G, c’est-à-dire la durée entre le moment où l’on est infecté et celui où l’on infecte. 

Le taux de croissance croît avec R0, décroît avec G. Il existe des formules qui relient rR0 et la loi de probabilité de G. Par une méthode de « suivi des contacts » (recherche de qui a infecté qui et quand ; ceci a été pratiqué avec succès aux Contamines en février, pour juguler ce foyer d’épidémie), on peut obtenir des informations sur la loi probabilité de G, d’où, en combinant avec l’estimation de r, on peut estimer R0 

La dynamique de l’épidémie 

Jusqu’ici on a surtout discuté la fraction de la population touchée par l’épidémie. Pour décrire l’évolution de l’épidémie, dans le cas d’une grande population, et partant d’une situation où une toute petite fraction de la population est touchée, on peut utiliser un modèle déterministe SIR, qui s’écrit sous la forme d’un système d’équations différentielles, dont je présente ci-dessous graphiquement quelques solutions représentatives. On voit sur les quatre premières courbes que plus R0 est grand, plus la vague des infectés arrive tôt et monte haut. En outre, la réduction de la hauteur du pic est plus marquée que la réduction de la « taille totale de l’épidémie » (l’aire sous la courbe), lorsque l’on réduit R0, car la courbe s’étale. 

Si on part avec R0 = 2,5, puis que l’on applique un confinement au bout de la troisième semaine, l’effet de réduction de la vague est très important, même si le taux de reproduction après confinement reste supérieur à 1. Dans la réalité, on n’observe pas une modification si rapide de la courbe, à la fois parce que le confinement ne se met pas bien en place instantanément, et surtout parce que notre modèle ne prend pas en compte des effets de retard inhérents à l’épidémie (temps de génération G, période d’incubation). 

L’évolution du nombre d’infectés. À gauche, sans confinement et pour R0= 3 (en noir), R0= 2,5 (en bleu), R0=2 (en rouge), R0=1,5 (en vert). À droite, R0= 2,5 en noir puis confinement après la 3e semaine, soit un changement de R0 : R0= 1,5 (en bleu), R0=1 (en rouge), R0=0,85 (en vert). 

L’épidémie actuelle du Covid-19 

Concernant le Covid-19 en France, il y a encore beaucoup d’incertitudes quant à la valeur de R0. Certaines estimations tournent autour de 2,5, d’autres donnent des valeurs plus importantes, entre 3 et 5 ! Il est probable que R0 ne prend pas la même valeur dans des zones peu peuplées, et en région parisienne par exemple où beaucoup de gens se pressent dans les transports en commun. Si le gouvernement n’avait pas pris de mesures fortes, on peut penser qu’entre 60 et 80 % de la population aurait été touchée. Et surtout la vague serait arrivée très vite et serait montée très haut, submergeant le système de santé et augmentant la mortalité. 

Ceci ne règle pas le problème de comment sortir du confinement. Une des difficultés est qu’à ce jour on n’a pas une bonne estimation du nombre de personnes en France qui ont été touchées par le virus, c’est-à-dire I(t)+R(t), si t est la date d’aujourd’hui. On sait combien ont eu des symptômes assez sérieux pour se rendre à l’hôpital, mais une des particularités de cette maladie est qu’elle est bénigne et même non décelée dans la majorité des cas. Et on ne connaît pas avec précision la proportion de ces cas. Donc on ne sait pas aujourd’hui quelle fraction de la population est immunisée, information qui sera importante pour la sortie du confinement. 

Dès que l’on disposera de tests sérologiques fiables de détection des anticorps, on pourra tester par sondage un certain nombre de Français, pour avoir cette information. 

Que se passera-t-il dans deux mois, trois mois, six mois ? Aurons- nous un retour à la normale relativement rapide, comme cela a l’air d’être le cas en Chine ? Au niveau européen ? Au niveau de la planète ? Y aura-t-il des rebonds ? Chacun peut formuler des conjectures, mais je pense que personne, à ce stade, n’a de certitude. 

Les épidémies et la recherche mathématique 

Les épidémies constituent un champ d’application important des mathématiques. Les événements que nous vivons attirent l’attention du public sur cette branche de la modélisation mathématique, et sont aussi l’occasion pour les spécialistes d’accélérer leurs travaux, pour tenter de répondre à des questions qui conditionnent la survie de dizaines, voire de centaines de milliers de gens. Bien sûr, le plus important est la recherche de médicaments efficaces et d’un vaccin, mais les modèles mathématiques restent indispensables pour les décideurs. 

Publié dans Uncategorized | Laisser un commentaire