Juin 04

L’état de l’Enseignement supérieur, de la Recherche et de l’Innovation en France

L’édition 2021 de l’État de l’Enseignement supérieur, de la Recherche et de l’Innovation (E.E.S.R.I.) vient de paraître. Point de repère annuel et chiffré du système français d’enseignement supérieur et de recherche, cet ouvrage présente, au moyen de graphiques, tableaux illustratifs et commentaires, les dernières données de synthèse disponibles sur l’ensemble de ces domaines..

Chaque année, ce document présente un état des lieux chiffré du système français, de ses évolutions, des moyens qu’il met en œuvre et de ses résultats. Une mise en perspective internationale est réalisée pour les indicateurs les plus structurants. L’ouvrage aborde une cinquantaine de thèmes déclinés sur une double page comportant une synthèse et plusieurs graphiques et tableaux illustratifs. L’essentiel des données est issu de sources exploitées par le service statistique ministériel en charge de l’enseignement supérieur, de la recherche et de l’innovation. Ce document s’appuie aussi largement sur d’autres sources et contributions émanant du MESRI et du MENJS (DEPPDGESIPDGRIDGRH notamment) ou d’autres organismes, en particulier de l’Insee, de l’OCDE, du Céreq, de l’OST du Hcéres, d’Erasmus+ et de l’OVE.

Les principales conclusions qui peuvent être tirées sont les suivantes .

  • Des dépenses en faveur de l’enseignement supérieur légèrement supérieures à la moyenne de l’OCDE
  • Le nombre d’étudiants progresse vivement : + 10 % sur les seules 5 dernières années
  • Une amélioration sensible de la réussite à l’université
  • Les milieux sociaux favorisés accèdent toujours beaucoup plus aux diplômes les plus élevés
  • Les jeunes filles sont nettement plus diplômées que les garçons, mais leur insertion professionnelle est bien moins favorable
  • La place des établissements d’enseignement supérieur dans la formation continue reste extrêmement faible
  • La science française dans le paysage mondial de la recherche et de l’innovation
  • En France, près de 620 000 personnes se consacrent à la R&D en 2017 

https://www.enseignementsup-recherche.gouv.fr/cid158045/l-etat-de-l-enseignement-superieur-de-la-recherche-et-de-l-innovation-en-france-n-14-avril-2021.html

Publié dans Uncategorized | Laisser un commentaire
Mai 28

Les ODD comme référentiel pour l’analyse des politiques publiques

Une Brève de l’Académie des technologies propose d’analyser les politiques publiques au regard des ODD (Objectifs de Développement Durable).

Les Objectifs de Développement Durable [ODD] sont un outil cohérent, ambitieux, universel et transversal au service des enjeux sociaux, économiques et environnementaux intrinsèquement liés à un développement soutenable. Comme indiqué dans la Feuille de route de la France pour l’Agenda 2030, la France souhaite être exemplaire et s’est déterminée à atteindre ces 17 ODD et leurs 169 cibles au niveau national et à les promouvoir au niveau international. 

L’Agenda 2030, ses ODD et les objectifs détaillés associés relatifs aux changements climatiques (Accord de Paris), à la protection de la biodiversité (Objectifs d’Aïchi) et à la résilience vis-à-vis des risques de catastrophes (Objectifs de Sendaï) forment un tout cohérent, les ODD au sens large, qui rassemble les besoins et aspirations des Français dans une vision équilibrée des nombreux enjeux et fournit un cadre précis pour l’action. 

L’Assemblée nationale a voté le 26 novembre dernier une résolution demandant au gouvernement de s’assurer que les lois proposées au vote de l’Assemblée contribuent aux ODD. 

L’Académie souligne l’importance d’une méthodologie rigoureuse dans l’utilisation du référentiel des ODD pour l’analyse des politiques publiques. Elle recommande que ce référentiel soit utilisé, en particulier vis-à-vis des actions qui seront mises en place dans le cadre du plan de relance de l’économie de notre pays. 

L’analyse de l’Académie s’appuie sur les travaux au printemps 2020 d’un groupe de membres des Académies des technologies, des sciences et de l’agriculture qui ont porté sur les impacts des crises sanitaires et économiques sur l’atteinte des ODD et sur l’utilisation souhaitable des ODD pour la relance sur tous les plans (économique, social, éducatif, culturel…) de notre pays. 

1. Analyser les impacts d’actions publiques sur les ODD nécessite une méthodologie rigoureuse 

Il est apparu à l’Académie utile d’explorer les méthodologies d’analyse des impacts des options d’action ou d’investissement publics sur les ODD pour identifier celles qui peuvent apporter le plus d’objectivité et de garanties. Les réflexions méthodologiques figurent dans une note d’analyse accessible sur le site de l’Académie (« ODD réflexions méthodologiques », Gérard Payen, Académie des technologies, 31 juillet 2020). L’attention est attiréesur certains éléments majeurs pour la pertinence de telles analyses d’impacts sur les ODD : l’analyse des impacts potentiels positifs et négatifs des options d’action ne doit pas se restreindre à un ODD particulier ou à un petit nombre d’ODD, mais étudier systématiquement l’ensemble de ces objectifs afin de tenir compte de leurs multiples interactions : co‐bénéfices, effets indésirables et besoin de mesures compensatoires ou de politiques complémentaires ; tirer bénéfice de cette cohérence systémique nécessite d’éviter les simplifications excessives. Par exemple, ne pas considérer que les indicateurs actuellement utilisés pour suivre les progrès forment un référentiel suffisant car de nombreux aspects importants ne sont pas mesurés statistiquement. L’usage exclusif d’indicateurs pour l’évaluation des options d’action pourrait conduire à valider un projet en ne détectant pas un impact négatif ou invalider un autre en ne mentionnant pas un impact positif. 

Ainsi les études d’impact d’une politique publique sur les ODD et les objectifs associés ne sauraient se contenter de vérifier que cette politique contribue à une cible ODD particulière, ce qui est évident la plupart du temps. Elles doivent aussi analyser les impacts positifs et, éventuellement, négatifs sur l’ensemble des autres cibles sans se limiter à l’utilisation d’indicateurs. Les évaluations grossières créent un risque de conclusions erronées. 

2. L’Académie des Technologies recommande d’utiliser l’Agenda 2030 et les objectifs associés comme référentiel systématique pour les choix d’action publique, en particulier pour les investissements des plans de relance 

En France comme à l’étranger, la crise sanitaire et ses conséquences économiques et sociales ont fortement sensibilisé et motivé à la prise en compte de la soutenabilité visée par les cibles ODD et leurs objectifs associés. Ces crises ont rendu plus délicate l’atteinte des ODD, ont mis en lumière certaines fragilités de notre pays, remis en cause certaines orientations et augmenté le degré d’incertitude de certains développements futurs. Une analyse succincte (« Epidémie et ODD en France », Valérie Masson-Delmotte, Académie des Technologies, 31 juillet 2020), cible ODD par cible ODD, et pour la feuille de route de la France, de ces différents impacts est accessible sur le site de l’Académie. 

Les orientations prises pour le redémarrage de l’économie et les futurs investissements publics vont structurer l’avenir du pays à moyen et long terme. Ils doivent tenir compte en particulier d’impératifs sociaux (comme la réduction des inégalités et la santé publique), économiques (en renforçant la résilience des infrastructures et des entreprises) et environnementaux (climat, biodiversité, qualité de l’air). 

Suite à cette analyse, est recommandé l’usage des ODD et des objectifs associés comme référentiel systématique pour l’Académie les choix d’action des décideurs publics et économiques ainsi que les choix d’investissements des plans de relance. 

Ceci signifie, en particulier, que les options d’action ou d’investissement fassent l’objet ex ante d’une analyse de leurs différents impacts positifs et négatifs sur l’ensemble des cibles ODD et de leurs objectifs associés. Les auteurs sont bien conscients que certaines cibles sont difficilement conciliables à première vue mais que, justement, un grand mérite des ODD est de fournir un cadre d’évaluation systémique facilitant la recherche de programmes d’actions cohérents faisant l’effort de traiter l’ensemble des enjeux. 

Vu le fort degré d’incertitude sur les évolutions de nombreux paramètres dans l’avenir, priorité devrait être donnée à des choix permettant une flexibilité et des réorientations à moyen terme, en s’appuyant sur les méthodes de prise de décision en situation d’incertitude. 

Il est également nécessaire de faire attention à ne pas imposer de choix unique qui ne tiendrait pas compte de la diversité des situations des Français et des territoires. 

Cette recommandation d’utilisation des ODD comme référentiel dans la période critique actuelle s’appuie sur la feuille de route de la France pour l’Agenda 2030, qui revendique de construire des leviers d’intégration des ODD dans l’action de l’état ainsi que la prise en compte des ODD dans le travail législatif et budgétaire. Elle pourrait s’étendre au secteur économique via les rapports ESG exigés pour les entreprises. 

http://academie-technologies-prod.s3.amazonaws.com/2020/12/08/16/30/05/4f4c18ec-29dd-476f-8793-fcd59118fd28/ODD%20un%20référentiel%20pour%20l’analyse%20des%20politiques%20publiques.pdf

https://www.academie-technologies.fr/blog/categories/autres-publications/posts/epidemie-et-odd-en-france

https://www.academie-technologies.fr/blog/categories/autres-publications/posts/odd-reflexions-methodologiques

Publié dans Uncategorized | Laisser un commentaire
Mai 14

Développement de la mobilité routière automatisée

Anne-Marie Idrac, haute responsable de la stratégie de développement des véhicules automatisés, a récemment publié un rapport sur la Stratégie nationale de développement de la mobilité routière automatisée 2020-2022, à la demande du gouvernement et plus précisément des ministères concernés (Transport, Industrie).

Les 5 principaux enjeux collectifs sont les suivants. 

Le développement sûr de la conduite sans opérateur à bord qui concerne à la fois la concep- tion, l’exploitation, la sécurité, l’acceptabilité et la rentabilité économique de l’automatisation. Les fonctions de supervision et d’intervention à distance représentent ainsi un enjeu prioritaire pour l’action publique, à la fois dans le soutien à la R&D, les démonstrateurs, l’évaluation et la démonstration de sécurité. 

L’amélioration des fonctions de connectivité, notamment liées à l’infrastructure, pour aider le système embarqué dans sa perception de l’environnement, permettre les supervisions et interventions à distance, accompagner le dé- veloppement de services et l’exploitation de flottes de véhicules coopératifs. Le déploiement de la connectivité relève d’enjeux qui dépassent la question de l’automatisation des véhicules terrestres. A ce stade, le choix stratégique pour le développement des véhicules automatisés reste de rechercher les complémentarités entre les technologies C-ITS et les technologies mobiles, en fonction des exigences de qualité de la connectivité tant pour la sécurité que pour la qualité des services. 

La validation de sécurité, qui doit rester au cœur de l’action publique, en articulant les niveaux nationaux, européens et internationaux. Les principes ayant été posés par le cadre issu de la Loi d’orientation des mobilités (LOM) et les premiers travaux à l’ONU, il convient, au niveau national, d’accélérer la production des référentiels de sécurité, en priorité pour les transports publics et partagés sur itinéraires ou zones prédéfinis. La doctrine technique de validation relative à la supervision, à la connectivité et à l’utilisation des scénarios pour la validation, constitue une priorité. Les niveaux-cibles de sécurité visés pour les différents cas d’usage feront l’objet de travaux, en tenant compte de leur acceptabilité. 

L’acceptabilité, qui doit rester un sujet d’écoute, de vigilance et d’échanges permanents avec les acteurs de l’éco-système et, plus largement de la société civile. La question de la sécurité restera probablement centrale dans les perceptions, mais l’appétence ou le consentement à payer pour les nouveaux services, devraient prendre une importance croissante et feront l’objet d’un suivi renforcé. 

La gestion de la donnée, qui devient centrale pour la conception, la validation, l’apprentissage et l’exploitation des systèmes et des services de mobilité automatisée. Le cadre règlementaire issu de la Loi d’orientation des mobilités, concerne principalement l’utilisation des données d’apprentissage et de validation et l’utilisation des données par les autorités publiques ; sa mise en œuvre associera étroitement les acteurs, au premier rang desquelles les collectivités locales et en s’assurant de la cohérence avec le cadre européen et international. 

Les actions prioritaires à renforcer portent sur : 

Le soutien à l’innovation, qui sera renforcé et élargi, pour tenir compte de la maturation des cas d’usages, de l’importance croissante de la connectivité et de l’apport de l’infrastructure, et du besoin d’approfondir les modèles économiques. Il s’agit notamment d’accompagner le passage à l’échelle de services, ce qui nécessite de tenir compte de phases de progressivité (vitesse réduite, environnements restreints) et du développement des nouvelles briques, liées notamment à la vision augmentée, la supervision et la connectivité. Face à ce besoin de soutien public (estimé à 300 millions d’Euros sur la durée du programme d’investissements d’avenir – 2021-2025), les outils devront permettre d’adresser des projets de recherche ou de prototype, des expérimentations, des pilotes de services, des évaluations d’impacts, et des prises de participation dans des opérations de création d’actifs liés principalement aux données et à leur exploitation. 

L’approche européenne, qui sera mobilisée encore davantage, dans ses différents leviers : mobilisation du programme de recherche et d’innovation Horizon Europe, poursuite des projets de déploiement pilote (permettant d’accélérer la convergence entre automatisation et connec- tivité), mise en place du cadre d’homologation de la sécurité des véhicules, normalisation de la connectivité. 

L’accompagnement des territoires, qui associera plus étroitement les représentants des collectivités aux travaux techniques pré-réglementaires et normatifs et facilitera les échanges d’expériences et la mise à disposition de doctrine technique et d’évaluation économique des nouveaux services. 

La visibilité de la stratégie, au niveau national et international, sera améliorée, par des actions conjointes des pouvoirs publics et de France Véhicules Autonomes. 

https://www.entreprises.gouv.fr/files/files/secteurs-d-activite/industrie/20171_strategie-nationale-vehicule_automatise_web.pdf

Publié dans Uncategorized | Commentaires fermés sur Développement de la mobilité routière automatisée
Avr 30

Impact environnemental d’un accident nucléaire

Trente-cinq ans après l’accident de Tchernobyl et 10 ans après celui de Fukushima, il est intéressant de faire une comparaison entre ces deux accidents. Pour ça, reprenons une fiche de l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire).

Rappel des circonstances des deux accidents

Accident de Tchernobyl (26 avril 1986) : L’accident est dû à une augmentation brutale et incontrôlée de la réaction nucléaire (x 100), entraînant l’explosion du cœur du réacteur, la destruction du bâtiment et un incendie du graphite du réacteur.

Accident de Fukushima (11 mars 2011) : L’accident est du à la perte des alimentations électriques et des sources de refroidissement des réacteurs. Cela à entraîne la dégradation du combustible nucléaire puis la fusion du cœur de 3 réacteurs, suivie de décompressions des enceintes de confinement et d’explosions d’hydrogène.

Conséquences sur les installations

A Tchernobyl (image de gauche), le réacteur est entièrement éventré et le combustible s’est dispersé autour de l’installation. A Fukushima Daiichi (image de droite), les réacteurs sont restés intègres : il y a eu des explosions et des fuites, mais le combustible ne s’est pas retrouvé à l’air libre. 

Les rejets radioactifs dans l’air

A Tchernobyl, le combustible étant à l’air libre, les rejets ont été continus durant une dizaine de jours. Il y a eu des émissions massives et des retombées massives.

Dans le cas de Fukushima Daiichi, il s’agit d’une suite d’événements, une quinzaine d’épisodes de rejets discontinus qui ont eu lieu durant 12, 13 jours.

En termes de radionucléides rejetés, il y a bien entendu des radionucléides qui sont communs aux deux accidents : les gaz rares, les radionucléides à vie courte (iodes et tellures radioactifs) qui vont être déterminants pour la dose reçue lors du passage du panache radioactif, et les césiums radioactifs qui vont former les dépôts et qui seront prépondérants par la suite pour ce qui concerne l’irradiation externe des populations.

Comparaison de la radioactivité globale rejetée dans l’atmosphère

En termes de gaz rares, les rejets ont été équivalents pour les deux événements. Pour les iodes et les tellures à vie courte, il y a eu 10 fois plus de rejets lors de l’accident de Tchernobyl. Pour les césiums, il y a eu trois fois plus de rejets dans l’atmosphère pour Tchernobyl. Cependant, à Fukushima, il y a également eu 27 PBq de rejets liquides de césium radioactifs.

Pour tous les autres radionucléides, et en particulier le strontium 90 et le plutonium, il y a une différence majeure qui est liée aux circonstances de l’accident : dans le cas de Tchernobyl, le réacteur ayant explosé, le combustible a été dispersé et on a trouvé du plutonium et du strontium 90 de manière massive dans l’environnement. A Fukushima, on n’a trouvé que des traces de ces radionucléides dans l’environnement.

Les dépôts rémanents de césium 137 à l’échelle locale

En regardant les cartes des dépôts, on voit bien l’impact de la météorologie. A Fukushima, on voit des dépôts importants au Nord-Ouest qui sont liés à des vents soufflant du sud-est et aux pluies.

En termes de dépôts en césium total, à Fukushima on est arrivé au maximum à des dépôts de 3 millions de becquerels par m². Dans le cas de Tchernobyl, on est à 20 millions de becquerels par m² dans les zones les plus contaminés.

Les dépôts rémanents de césium 137 à l’échelle régionale/continentale

En termes d’étendues des zones impactées, on a au Japon un événement d’importance régionale avec des dépôts qui s’étendent jusqu’à 250 kilomètres de la centrale accidentée.

Dans le cas de Tchernobyl, on a un événement qui est à l’échelle continentale, on note des dépôts relativement significatifs jusqu’en Grèce au sud, en Russie à l’est, en Scandinavie au nord et au Pays de Galle à l’ouest.

On est donc à deux échelles différentes, mais on retrouve le même type de dépôts en « taches de léopard ». Ces taches sont une conséquence directe de la météorologie locale lors du passage du panache radioactif.

Superficie des territoires ayant reçu des dépôts de césium 137

Dans le cas de l’accident de Fukushima, on estime que près de 24 000 km² ont reçu un dépôt de césium 137 supérieur à 10 000 Bq/m². Par comparaison, suite au passage du panache radioactif de Tchernobyl au dessus du territoire français en 1986, les zones les plus contaminées étaient de l’ordre de 20 000 à 30 000 Bq/m².

Si on s’intéresse aux zones les plus contaminées, c’est-à-dire celles où vont apparaitre les premiers impacts sanitaires, à des niveaux de contamination supérieurs à 600 000 Bq/m², cela représente environ 600 km² pour l’accident de Fukushima contre 13 000 km² pour l’accident de Tchernobyl.

Contamination des denrées alimentaires

Il y a plusieurs points communs entre Tchernobyl et Fukushima concernant la contamination des denrées alimentaires : 

  • Les denrées les plus sensibles aux retombées radioactives ont été les légumes à feuilles, le lait (car les vaches ont brouté de l’herbe contaminée) et, par la suite, la viande.
  • Les niveaux de contamination les plus élevés dans les légumes à feuilles et le lait ont été observés dans les semaines suivant l’accident et ont nettement diminué par la suite.

Ainsi, si on prend l’exemple de la contamination des épinards cultivés dans la préfecture de Fukushima. En moins d’un mois, la contamination en iode a diminué et est repassée sous le seuil de commercialisation de 2000 Bq/Kg. Deux facteurs sont entrés en jeu : d’une part la décroissance des iodes (dont la période radioactive est de 8 jours), et d’autre part la croissance naturelle de la plante qui grandit et dilue alors la radioactivité. Du côté des césiums, la contamination est repassée sous le seuil de commercialisation de 500 Bq/Kg en un mois et demi.

Il y a également de fortes différences entre les deux accidents.

L’accident de Tchernobyl s’est produit au printemps, alors que la végétation était déjà très développée. Les plantes occupaient une surface importante et ont donc fortement capté la radioactivité, entrainant une contamination importante des denrées alimentaires. De plus, le bétail était en pâture dehors et a donc ingéré la radioactivité. Ceci explique la forte contamination des légumes à feuilles et du lait.

En revanche, l’accident de Fukushima s’est déroulé pendant l’hiver (mois de mars), avec une végétation peu développée (peu de surface foliaire et donc peu de captage), et la présence de neige a eu un rôle protecteur vis-à-vis des végétaux. Les pratiques d’élevage (vaches à l’intérieur nourries avec du fourrage récolté avant l’accident) semblent avoir limité les fortes contaminations des denrées.

Conclusions

La gravité d’un accident ne doit pas être évaluée uniquement par l’importance des rejets radioactifs. Les conditions météorologiques au moment des rejets ont un rôle déterminant (sens du vent, épisodes pluvieux ou neigeux…) sur l’importance et l’étendue de la contamination radioactive. Les conditions environnementales et la saison ont également une influence importante. Au Japon, la situation en bord de mer de la centrale a entrainé une contamination marine, mais les forts courants ont permis une dilution rapide de la radioactivité. 

Les conséquences de ces accidents majeurs ne se limitent pas aux effets sanitaires potentiels. Dans les deux cas, on se retrouve avec des territoires durablement contaminés, des conséquences sociales et économiques importantes avec le bouleversement de la vie de nombreuses personnes (environ 150 000 personnes au Japon, environ 270 000 autour de Tchernobyl).

https://www.irsn.fr/FR/connaissances/Environnement/expertises-incidents-accidents/comparaison-tchernobyl-fukushima/Pages/1-impact-environnemental-fukushima-tchernobyl.aspx?dId=5d0cc222-c748-41ea-bae7-33f47b490598&dwId=ebe35772-4442-413c-b628-068fde521abe

Publié dans Uncategorized | 1 Commentaire
Avr 16

Quelles flexibilités pour le système électrique ?

C’est à l’ANRT que l’on doit un rapport très pertinent sur la flexibilité du système électrique français. Ses principaux éléments sont ici repris.

La montée des énergies renouvelables (EnR), c’est-à-dire en pratique de l’éolien et du photovoltaïque, affecte les caractéristiques et le fonctionnement du réseau électrique. Ces sources sont intermittentes, et font appel à deux énergies primaires – le vent et le soleil – qui ne se stockent pas. Ceci crée un besoin beaucoup plus fort de flexibilité pour faire face aux écarts entre l’offre et la demande d’électricité, écarts qui se manifestent avec une amplitude et une fréquence plus grandes, et peuvent obliger les acteurs du système électrique à réagir en temps réel. 

Pour autant, il n’est pas possible de transiger avec la sécurité d’approvisionnement dans le contexte de la transition énergétique : comme il arrive que simultanément, sur de vastes étendues, les EnR ne produisent pas d’électricité pendant plusieurs jours, le système électrique finit par se heurter au difficile problème du stockage de longue durée. Il est également essentiel de maintenir la stabilité de la tension et de la fréquence, malgré l’absence d’inertie naturelle de l’éolien et du photovoltaïque. Enfin, il est indispensable de minimiser le coût financier de la transition énergétique, et la flexibilité doit être utilisée pour réduire l’investissement global, alors qu’elle va elle-même en demander. 

D’autre part, la production et la distribution d’électricité se décentralisent, sous l’effet des directives européennes, de la multiplication des producteurs d’EnR – surtout le photovoltaïque – et en accord avec un mouvement qui favorise l’autoconsommation et plus généralement des circuits de production plus courts. Les progrès du numérique permettent justement de décentraliser le contrôle et le pilotage des éléments du réseau électrique, et aussi de proposer de nouveaux services. 

Le besoin de flexibilité fait donc partie d’un changement plus vaste, mais il concentre un grand nombre des problèmes de la transition énergétique, ainsi que des défis de recherche. C’est pour cela que le groupe de travail de l’ANRT, présidé par Olivier Appert, l’a mis à son programme pour l’année 2020, après deux années de travaux consacrés respectivement à l’équilibrage et au contrôle du réseau électrique, puis à la modélisation systémique comme aide aux décisions d’investissement. 

La question des besoins de flexibilité est une problématique mondiale, comme l’a rappelé l’Agence internationale de l’énergie (AIE). Cependant, les enjeux nationaux sont forts, et notre position économique et stratégique est en cause. On entend parfois dire qu’il n’y a pas d’urgence. C’est oublier, d’une part, l’interconnexion électrique de la plaque européenne, qui nous exposera dès 2022 aux conséquences de l’arrêt chez nos voisins de centrales nucléaires et à charbon ; et d’autre part, le temps nécessaire pour préparer le renouvellement du parc nucléaire, sachant que la part de centrales pilotables décroît, alors que celles-ci contribuent fortement à l’équilibre du réseau. 

Le rapport fait l’inventaire des solutions envisageables pour la flexibilité, en montrant quels problèmes il faut résoudre pour les mettre en œuvre, et quelles sont les recherches nécessaires à cet égard. 

Les solutions de flexibilité 

Les principales solutions sont la modulation de la production, l’interconnexion des réseaux électriques, le stockage et la flexibilité de la demande. 

Les centrales nucléaires françaises ont été conçues pour être modulables, et il serait bon qu’une éventuelle nouvelle génération le soit aussi. 

L’interconnexion à longue distance, puissant moyen de compensation des fluctuations météorologiques, se heurte malheureusement à la difficulté de faire accepter socialement de nouvelles lignes aériennes à haute tension, alors que les lignes enterrées coûtent très cher. 

Le stockage de quelques heures à quelques jours bénéficie de la chute spectaculaire du coût des batteries, induit par la croissance du marché de l’automobile électrique. Le lithium-ion est de très loin la filière dominante, même si d’autres voies sont explorées. Ces batteries permettront aussi de traiter le problème du maintien de la tension et de la fréquence (grid support et grid forming). Les batteries des véhicules électriques pourraient servir d’appoint (ce qu’on appelle le V2G : vehicle to grid), à condition de développer des services d’échange entre lieu de stationnement et besoins de consommation. Mais qui paiera alors l’interface bidirectionnelle entre la voiture et le réseau ? Il s’agit d’un exemple des questions économiques que posent les équipements et les services de flexibilité. 

Le stockage de longue durée (plusieurs semaines à plusieurs mois) nécessaire pour compenser les défections épisodiques des EnR intermittentes, n’a pas, à l’horizon 2035, de solution économiquement viable. Actuellement, les seules solutions opérationnelles sont les barrages hydrauliques avec station de transfert d’énergie par pompage (STEP), mais qu’on ne peut guère développer en Europe faute de nouveaux sites acceptables par la société civile. Ce problème critique est une puissante motivation pour la recherche, notamment sur des technologies telles que l’hydrogène. 

L’effacement de la demande est pratiqué depuis longtemps avec les consommateurs industriels, en particulier les entreprises électro-intensives. Aller plus loin que les 5 GW actuellement estimés passera par une « flexi-conception » des installations, afin de préserver la production malgré les interruptions de courant. Mais là encore, comment l’investissement sera-t-il financé ? 

Pour les particuliers, l’effacement de consommation commence à apparaître, via l’émergence des solutions proposées par les agrégateurs, qui sont facilitées par les interfaces numériques. L’effacement de la demande et la fourniture corollaire de services au réseau générés par cette flexibilité sont donc un exemple des nouveaux services que peut rendre le numérique, sachant que la fiabilité est essentielle, car le fonctionnement du réseau ne doit pas être mis en péril. 

Le numérique est au cœur du développement de la flexibilité. Il permet, via les capteurs et les moyens de transmission, de connaître finement l’état du réseau, et, grâce aux capacités de traitement et aux divers actionneurs – qui sont souvent des équipements d’électronique de puissance – de réagir en temps réel, de régler les conditions d’injection et de coupure, de prévenir les courts-circuits. 

Si le réseau est désormais ouvert à une multiplicité d’acteurs, il faut néanmoins gérer l’ensemble du système et assurer sa cohérence, tout en lui donnant une architecture adaptée à la décentralisation de l’intelligence de contrôle et de pilotage. C’est la distribution de l’électricité, avec plusieurs opérateurs et le contact direct avec des millions d’usagers, qui constitue la partie la plus complexe. Même si l’autoconsommation comporte des bénéfices pour les usagers, les boucles locales ne disposent pas des réserves de flexibilité du réseau électrique, qui permettent de garantir la sécurité d’approvisionnement et la qualité du courant : le raccordement au réseau demeure une sécurité indispensable pour les consommateurs. Cependant, la tarification actuelle de l’acheminement à 80 % d’énergie et 20 % de puissance ne fait pas payer cette sécurité à son prix. 

La décentralisation du réseau, la multiplication des points d’injection, et l’arrivée de nouveaux services ouvrent de nouvelles opportunités, mais exposent a contrario tant à des captations de valeur par des opérateurs étrangers ayant accès aux données qu’à des cyber-attaques. Il faudra s’en protéger. 

Beaucoup de ces questions nécessitent des modélisations. Modélisations et numérique sont liés, par les moyens de calcul et par l’usage croissant de données de plus en plus nombreuses dans les modèles. Ceux-ci devront être construits dans une perspective systémique, couvrir des aspects techniques, économiques, sociaux, tout en tenant compte des nouvelles incertitudes liées à la prévision des EnR et au comportement des usagers. 

Les modèles peuvent aider à structurer les marchés et à leur donner des règles de fonctionnement idoines. Les marchés actuels ont été mis en place pour favoriser la meilleure utilisation instantanée des moyens disponibles. Ils ne fournissent pas de signal prix susceptible d’inciter à des investissements de long terme. Cependant, le marché est un outil pour donner une valeur à la flexibilité, à condition de bien définir les différents services rendus, et sachant que la rémunération dépendra de la tarification. 

Les priorités de recherche 

Les analyses conduisent à recommander les thèmes suivants, en concertation avec l’alliance ANCRE (Alliance nationale de coordination de la recherche pour l’énergie)  : le numérique (décentralisation du contrôle et du pilotage, cyber sécurité, défense des chaînes de valeur), la modulation de la production d’électricité, les interconnexions, le stockage (y compris les combinaisons avec d’autres énergies), l’effacement de la demande, la fiabilité des réseaux, la modélisation, ainsi que les aspects économiques et réglementaires de la flexibilité. 

Nous avons donné des indications sur la nature des efforts, qui dépend des enjeux, de la maturité des solutions, et des capacités françaises : on ne traite pas un problème d’industrialisation comme un problème de recherche amont. 

http://www.anrt.asso.fr/sites/default/files/anrt_rapport_snre_2021.pdf

Publié dans Uncategorized | Commentaires fermés sur Quelles flexibilités pour le système électrique ?