Avr 30

Impact environnemental d’un accident nucléaire

Trente-cinq ans après l’accident de Tchernobyl et 10 ans après celui de Fukushima, il est intéressant de faire une comparaison entre ces deux accidents. Pour ça, reprenons une fiche de l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire).

Rappel des circonstances des deux accidents

Accident de Tchernobyl (26 avril 1986) : L’accident est dû à une augmentation brutale et incontrôlée de la réaction nucléaire (x 100), entraînant l’explosion du cœur du réacteur, la destruction du bâtiment et un incendie du graphite du réacteur.

Accident de Fukushima (11 mars 2011) : L’accident est du à la perte des alimentations électriques et des sources de refroidissement des réacteurs. Cela à entraîne la dégradation du combustible nucléaire puis la fusion du cœur de 3 réacteurs, suivie de décompressions des enceintes de confinement et d’explosions d’hydrogène.

Conséquences sur les installations

A Tchernobyl (image de gauche), le réacteur est entièrement éventré et le combustible s’est dispersé autour de l’installation. A Fukushima Daiichi (image de droite), les réacteurs sont restés intègres : il y a eu des explosions et des fuites, mais le combustible ne s’est pas retrouvé à l’air libre. 

Les rejets radioactifs dans l’air

A Tchernobyl, le combustible étant à l’air libre, les rejets ont été continus durant une dizaine de jours. Il y a eu des émissions massives et des retombées massives.

Dans le cas de Fukushima Daiichi, il s’agit d’une suite d’événements, une quinzaine d’épisodes de rejets discontinus qui ont eu lieu durant 12, 13 jours.

En termes de radionucléides rejetés, il y a bien entendu des radionucléides qui sont communs aux deux accidents : les gaz rares, les radionucléides à vie courte (iodes et tellures radioactifs) qui vont être déterminants pour la dose reçue lors du passage du panache radioactif, et les césiums radioactifs qui vont former les dépôts et qui seront prépondérants par la suite pour ce qui concerne l’irradiation externe des populations.

Comparaison de la radioactivité globale rejetée dans l’atmosphère

En termes de gaz rares, les rejets ont été équivalents pour les deux événements. Pour les iodes et les tellures à vie courte, il y a eu 10 fois plus de rejets lors de l’accident de Tchernobyl. Pour les césiums, il y a eu trois fois plus de rejets dans l’atmosphère pour Tchernobyl. Cependant, à Fukushima, il y a également eu 27 PBq de rejets liquides de césium radioactifs.

Pour tous les autres radionucléides, et en particulier le strontium 90 et le plutonium, il y a une différence majeure qui est liée aux circonstances de l’accident : dans le cas de Tchernobyl, le réacteur ayant explosé, le combustible a été dispersé et on a trouvé du plutonium et du strontium 90 de manière massive dans l’environnement. A Fukushima, on n’a trouvé que des traces de ces radionucléides dans l’environnement.

Les dépôts rémanents de césium 137 à l’échelle locale

En regardant les cartes des dépôts, on voit bien l’impact de la météorologie. A Fukushima, on voit des dépôts importants au Nord-Ouest qui sont liés à des vents soufflant du sud-est et aux pluies.

En termes de dépôts en césium total, à Fukushima on est arrivé au maximum à des dépôts de 3 millions de becquerels par m². Dans le cas de Tchernobyl, on est à 20 millions de becquerels par m² dans les zones les plus contaminés.

Les dépôts rémanents de césium 137 à l’échelle régionale/continentale

En termes d’étendues des zones impactées, on a au Japon un événement d’importance régionale avec des dépôts qui s’étendent jusqu’à 250 kilomètres de la centrale accidentée.

Dans le cas de Tchernobyl, on a un événement qui est à l’échelle continentale, on note des dépôts relativement significatifs jusqu’en Grèce au sud, en Russie à l’est, en Scandinavie au nord et au Pays de Galle à l’ouest.

On est donc à deux échelles différentes, mais on retrouve le même type de dépôts en « taches de léopard ». Ces taches sont une conséquence directe de la météorologie locale lors du passage du panache radioactif.

Superficie des territoires ayant reçu des dépôts de césium 137

Dans le cas de l’accident de Fukushima, on estime que près de 24 000 km² ont reçu un dépôt de césium 137 supérieur à 10 000 Bq/m². Par comparaison, suite au passage du panache radioactif de Tchernobyl au dessus du territoire français en 1986, les zones les plus contaminées étaient de l’ordre de 20 000 à 30 000 Bq/m².

Si on s’intéresse aux zones les plus contaminées, c’est-à-dire celles où vont apparaitre les premiers impacts sanitaires, à des niveaux de contamination supérieurs à 600 000 Bq/m², cela représente environ 600 km² pour l’accident de Fukushima contre 13 000 km² pour l’accident de Tchernobyl.

Contamination des denrées alimentaires

Il y a plusieurs points communs entre Tchernobyl et Fukushima concernant la contamination des denrées alimentaires : 

  • Les denrées les plus sensibles aux retombées radioactives ont été les légumes à feuilles, le lait (car les vaches ont brouté de l’herbe contaminée) et, par la suite, la viande.
  • Les niveaux de contamination les plus élevés dans les légumes à feuilles et le lait ont été observés dans les semaines suivant l’accident et ont nettement diminué par la suite.

Ainsi, si on prend l’exemple de la contamination des épinards cultivés dans la préfecture de Fukushima. En moins d’un mois, la contamination en iode a diminué et est repassée sous le seuil de commercialisation de 2000 Bq/Kg. Deux facteurs sont entrés en jeu : d’une part la décroissance des iodes (dont la période radioactive est de 8 jours), et d’autre part la croissance naturelle de la plante qui grandit et dilue alors la radioactivité. Du côté des césiums, la contamination est repassée sous le seuil de commercialisation de 500 Bq/Kg en un mois et demi.

Il y a également de fortes différences entre les deux accidents.

L’accident de Tchernobyl s’est produit au printemps, alors que la végétation était déjà très développée. Les plantes occupaient une surface importante et ont donc fortement capté la radioactivité, entrainant une contamination importante des denrées alimentaires. De plus, le bétail était en pâture dehors et a donc ingéré la radioactivité. Ceci explique la forte contamination des légumes à feuilles et du lait.

En revanche, l’accident de Fukushima s’est déroulé pendant l’hiver (mois de mars), avec une végétation peu développée (peu de surface foliaire et donc peu de captage), et la présence de neige a eu un rôle protecteur vis-à-vis des végétaux. Les pratiques d’élevage (vaches à l’intérieur nourries avec du fourrage récolté avant l’accident) semblent avoir limité les fortes contaminations des denrées.

Conclusions

La gravité d’un accident ne doit pas être évaluée uniquement par l’importance des rejets radioactifs. Les conditions météorologiques au moment des rejets ont un rôle déterminant (sens du vent, épisodes pluvieux ou neigeux…) sur l’importance et l’étendue de la contamination radioactive. Les conditions environnementales et la saison ont également une influence importante. Au Japon, la situation en bord de mer de la centrale a entrainé une contamination marine, mais les forts courants ont permis une dilution rapide de la radioactivité. 

Les conséquences de ces accidents majeurs ne se limitent pas aux effets sanitaires potentiels. Dans les deux cas, on se retrouve avec des territoires durablement contaminés, des conséquences sociales et économiques importantes avec le bouleversement de la vie de nombreuses personnes (environ 150 000 personnes au Japon, environ 270 000 autour de Tchernobyl).

https://www.irsn.fr/FR/connaissances/Environnement/expertises-incidents-accidents/comparaison-tchernobyl-fukushima/Pages/1-impact-environnemental-fukushima-tchernobyl.aspx?dId=5d0cc222-c748-41ea-bae7-33f47b490598&dwId=ebe35772-4442-413c-b628-068fde521abe

Publié dans Uncategorized | 1 Commentaire
Avr 16

Quelles flexibilités pour le système électrique ?

C’est à l’ANRT que l’on doit un rapport très pertinent sur la flexibilité du système électrique français. Ses principaux éléments sont ici repris.

La montée des énergies renouvelables (EnR), c’est-à-dire en pratique de l’éolien et du photovoltaïque, affecte les caractéristiques et le fonctionnement du réseau électrique. Ces sources sont intermittentes, et font appel à deux énergies primaires – le vent et le soleil – qui ne se stockent pas. Ceci crée un besoin beaucoup plus fort de flexibilité pour faire face aux écarts entre l’offre et la demande d’électricité, écarts qui se manifestent avec une amplitude et une fréquence plus grandes, et peuvent obliger les acteurs du système électrique à réagir en temps réel. 

Pour autant, il n’est pas possible de transiger avec la sécurité d’approvisionnement dans le contexte de la transition énergétique : comme il arrive que simultanément, sur de vastes étendues, les EnR ne produisent pas d’électricité pendant plusieurs jours, le système électrique finit par se heurter au difficile problème du stockage de longue durée. Il est également essentiel de maintenir la stabilité de la tension et de la fréquence, malgré l’absence d’inertie naturelle de l’éolien et du photovoltaïque. Enfin, il est indispensable de minimiser le coût financier de la transition énergétique, et la flexibilité doit être utilisée pour réduire l’investissement global, alors qu’elle va elle-même en demander. 

D’autre part, la production et la distribution d’électricité se décentralisent, sous l’effet des directives européennes, de la multiplication des producteurs d’EnR – surtout le photovoltaïque – et en accord avec un mouvement qui favorise l’autoconsommation et plus généralement des circuits de production plus courts. Les progrès du numérique permettent justement de décentraliser le contrôle et le pilotage des éléments du réseau électrique, et aussi de proposer de nouveaux services. 

Le besoin de flexibilité fait donc partie d’un changement plus vaste, mais il concentre un grand nombre des problèmes de la transition énergétique, ainsi que des défis de recherche. C’est pour cela que le groupe de travail de l’ANRT, présidé par Olivier Appert, l’a mis à son programme pour l’année 2020, après deux années de travaux consacrés respectivement à l’équilibrage et au contrôle du réseau électrique, puis à la modélisation systémique comme aide aux décisions d’investissement. 

La question des besoins de flexibilité est une problématique mondiale, comme l’a rappelé l’Agence internationale de l’énergie (AIE). Cependant, les enjeux nationaux sont forts, et notre position économique et stratégique est en cause. On entend parfois dire qu’il n’y a pas d’urgence. C’est oublier, d’une part, l’interconnexion électrique de la plaque européenne, qui nous exposera dès 2022 aux conséquences de l’arrêt chez nos voisins de centrales nucléaires et à charbon ; et d’autre part, le temps nécessaire pour préparer le renouvellement du parc nucléaire, sachant que la part de centrales pilotables décroît, alors que celles-ci contribuent fortement à l’équilibre du réseau. 

Le rapport fait l’inventaire des solutions envisageables pour la flexibilité, en montrant quels problèmes il faut résoudre pour les mettre en œuvre, et quelles sont les recherches nécessaires à cet égard. 

Les solutions de flexibilité 

Les principales solutions sont la modulation de la production, l’interconnexion des réseaux électriques, le stockage et la flexibilité de la demande. 

Les centrales nucléaires françaises ont été conçues pour être modulables, et il serait bon qu’une éventuelle nouvelle génération le soit aussi. 

L’interconnexion à longue distance, puissant moyen de compensation des fluctuations météorologiques, se heurte malheureusement à la difficulté de faire accepter socialement de nouvelles lignes aériennes à haute tension, alors que les lignes enterrées coûtent très cher. 

Le stockage de quelques heures à quelques jours bénéficie de la chute spectaculaire du coût des batteries, induit par la croissance du marché de l’automobile électrique. Le lithium-ion est de très loin la filière dominante, même si d’autres voies sont explorées. Ces batteries permettront aussi de traiter le problème du maintien de la tension et de la fréquence (grid support et grid forming). Les batteries des véhicules électriques pourraient servir d’appoint (ce qu’on appelle le V2G : vehicle to grid), à condition de développer des services d’échange entre lieu de stationnement et besoins de consommation. Mais qui paiera alors l’interface bidirectionnelle entre la voiture et le réseau ? Il s’agit d’un exemple des questions économiques que posent les équipements et les services de flexibilité. 

Le stockage de longue durée (plusieurs semaines à plusieurs mois) nécessaire pour compenser les défections épisodiques des EnR intermittentes, n’a pas, à l’horizon 2035, de solution économiquement viable. Actuellement, les seules solutions opérationnelles sont les barrages hydrauliques avec station de transfert d’énergie par pompage (STEP), mais qu’on ne peut guère développer en Europe faute de nouveaux sites acceptables par la société civile. Ce problème critique est une puissante motivation pour la recherche, notamment sur des technologies telles que l’hydrogène. 

L’effacement de la demande est pratiqué depuis longtemps avec les consommateurs industriels, en particulier les entreprises électro-intensives. Aller plus loin que les 5 GW actuellement estimés passera par une « flexi-conception » des installations, afin de préserver la production malgré les interruptions de courant. Mais là encore, comment l’investissement sera-t-il financé ? 

Pour les particuliers, l’effacement de consommation commence à apparaître, via l’émergence des solutions proposées par les agrégateurs, qui sont facilitées par les interfaces numériques. L’effacement de la demande et la fourniture corollaire de services au réseau générés par cette flexibilité sont donc un exemple des nouveaux services que peut rendre le numérique, sachant que la fiabilité est essentielle, car le fonctionnement du réseau ne doit pas être mis en péril. 

Le numérique est au cœur du développement de la flexibilité. Il permet, via les capteurs et les moyens de transmission, de connaître finement l’état du réseau, et, grâce aux capacités de traitement et aux divers actionneurs – qui sont souvent des équipements d’électronique de puissance – de réagir en temps réel, de régler les conditions d’injection et de coupure, de prévenir les courts-circuits. 

Si le réseau est désormais ouvert à une multiplicité d’acteurs, il faut néanmoins gérer l’ensemble du système et assurer sa cohérence, tout en lui donnant une architecture adaptée à la décentralisation de l’intelligence de contrôle et de pilotage. C’est la distribution de l’électricité, avec plusieurs opérateurs et le contact direct avec des millions d’usagers, qui constitue la partie la plus complexe. Même si l’autoconsommation comporte des bénéfices pour les usagers, les boucles locales ne disposent pas des réserves de flexibilité du réseau électrique, qui permettent de garantir la sécurité d’approvisionnement et la qualité du courant : le raccordement au réseau demeure une sécurité indispensable pour les consommateurs. Cependant, la tarification actuelle de l’acheminement à 80 % d’énergie et 20 % de puissance ne fait pas payer cette sécurité à son prix. 

La décentralisation du réseau, la multiplication des points d’injection, et l’arrivée de nouveaux services ouvrent de nouvelles opportunités, mais exposent a contrario tant à des captations de valeur par des opérateurs étrangers ayant accès aux données qu’à des cyber-attaques. Il faudra s’en protéger. 

Beaucoup de ces questions nécessitent des modélisations. Modélisations et numérique sont liés, par les moyens de calcul et par l’usage croissant de données de plus en plus nombreuses dans les modèles. Ceux-ci devront être construits dans une perspective systémique, couvrir des aspects techniques, économiques, sociaux, tout en tenant compte des nouvelles incertitudes liées à la prévision des EnR et au comportement des usagers. 

Les modèles peuvent aider à structurer les marchés et à leur donner des règles de fonctionnement idoines. Les marchés actuels ont été mis en place pour favoriser la meilleure utilisation instantanée des moyens disponibles. Ils ne fournissent pas de signal prix susceptible d’inciter à des investissements de long terme. Cependant, le marché est un outil pour donner une valeur à la flexibilité, à condition de bien définir les différents services rendus, et sachant que la rémunération dépendra de la tarification. 

Les priorités de recherche 

Les analyses conduisent à recommander les thèmes suivants, en concertation avec l’alliance ANCRE (Alliance nationale de coordination de la recherche pour l’énergie)  : le numérique (décentralisation du contrôle et du pilotage, cyber sécurité, défense des chaînes de valeur), la modulation de la production d’électricité, les interconnexions, le stockage (y compris les combinaisons avec d’autres énergies), l’effacement de la demande, la fiabilité des réseaux, la modélisation, ainsi que les aspects économiques et réglementaires de la flexibilité. 

Nous avons donné des indications sur la nature des efforts, qui dépend des enjeux, de la maturité des solutions, et des capacités françaises : on ne traite pas un problème d’industrialisation comme un problème de recherche amont. 

http://www.anrt.asso.fr/sites/default/files/anrt_rapport_snre_2021.pdf

Publié dans Uncategorized | Commentaires fermés sur Quelles flexibilités pour le système électrique ?
Avr 02

Le rôle d’architecte des connaissances des grandes entreprises de défense 

La fin de la guerre froide marque un tournant pour la défense des pays occidentaux. L’intensification des conflits asymétriques combinée au renforcement des contraintes budgétaires sur les dépenses militaires entraînent de nouvelles problématiques pour les industriels de défense. Dans ce contexte, l’innovation de défense joue un rôle clé. Comme le prône la Loi de programmation militaire 2019-2025 française, l’innovation militaire est une de ses quatre priorités. Le ministère des Armées français met l’innovation technologique au centre de sa politique : « Innover pour faire face aux défis futurs, en préparant la supériorité opérationnelle des armées à plus long terme ; cette innovation permettra ainsi de disposer des équipements adaptés aux menaces futures. » 

Les analyses de l’innovation font souvent la distinction entre innovation civile et mili- taire. Certaines technologies telles que les bombes nucléaires ou la furtivité des véhicules sont, sinon spécifiques à la défense, du moins très largement dominées par ce champ d’application. Néanmoins, ces technologies représentent une petite partie des innovations de défense et une large part des spécificités technologiques de défense repose davantage sur des exigences de performances spécifiques et une architecture originale des systèmes. Les systèmes d’armes se distingueraient plus par leurs combinaisons des connaissances, i.e. une architecture adaptée à la spécificité militaire, que par la mobilisation de connaissances spécifiques au monde de la défense. Cette approche de l’innovation permet de considérer les proximités entre les entreprises sous l’angle original des connaissances plutôt que sous celui du secteur industriel, trop restrictif pour étudier la défense. En effet, la production d’armement est diverse, allant des navires et sous-marins aux missiles en passant par les satellites. 

Une note de l’IRSEM explore la manière dont les entreprises de défense combinent des connaissances en vue d’innover. L’IRSEM (Institut de recherche stratégique de l’École militaire) a vocation à contribuer au débat public sur les questions de défense et de sécurité.

La conclusion de cette note met en avant qu’existe une différence significative entre les pratiques des entreprises civiles et des entreprises de défense. Celles-ci ont une architecture de connaissances à la fois plus exploratrice et exploitante que les entreprises civiles, c’est-à-dire qu’elles réalisent à la fois plus de combinaisons originales mais aussi plus de liaisons usuelles. Deux éléments explicatifs peuvent apporter un éclairage sur ces résultats. D’une part, les contraintes exogènes posées aux entreprises pour la production d’armement. Elles sont de natures diverses et concernent la structure de marché, l’environnement de collaboration, la finalité des produits et l’organisation de la production. D’autre part, cette spécificité est encouragée par les choix stratégiques des entreprises en termes de diversification de leur activité. Cela est autant un enjeu pour la composition technologique de leurs innovations militaires qu’un enjeu de soutenabilité économique. Pour elles, cultiver la spécificité que leur impose la production de défense leur permet de se différencier des entreprises civiles. 

https://www.irsem.fr/media/5-publications/notes-de-recherche-research-papers/nr-irsem-108.pdf

Annexe : Graphiques de la note

Les résultats présentés dans les graphiques ci-dessous regroupent une représentation graphique de la distribution des indicateurs de cohérence, respectivement l’exploitation et l’exploration, ainsi qu’un tableau contenant statistiques descriptives et résultats d’un test (Wilcoxon Rank Sum Test) permettant la comparaison entre entreprises civiles et de défense. Chaque variable de cohérence est moyennée par entreprise sur la période 2010-2014. 

Le graphique 1 présente la distribution et les statistiques descriptives de l’indicateur d’exploitation par entreprise, i.e. la réalisation de combinaisons de connaissances usuelles. Les entreprises de défense sont distinguées selon le Top 100 du SIPRI, des autres entreprises, civiles. Évidemment, le nombre d’observations est bien plus important dans le groupe des entreprises civiles que dans celui des entreprises de défense. Un score d’exploitation haut traduit une capacité forte de l’entreprise à réaliser des combinaisons de connaissances fréquentes dans l’ensemble des brevets étudiés. La distribution de cet indicateur est concentrée, avec peu d’observations aberrantes et un faible écart-type. De plus, la moyenne et la médiane du score d’exploitation sont plus importantes au sein des entreprises de défense. Ce résultat est conforté par le test d’égalité des distributions qui valide la supériorité significative des entreprises de défense en termes d’exploitation de combinaisons de connaissances usuelles. 

Grap 1

Exploitation – distinction civil/défense
Lecture : Le graphique est une boîte à moustache se lisant de la manière suivante : le rectangle regroupe les deuxième et troisième quartiles, la ligne est la valeur médiane, le losange correspond à la moyenne, les segments représentent les premier et neuvième déciles. Le tableau présente les statistiques descriptives associées aux indicateurs de cohérences par groupe d’entreprises (civil/défense). La dernière colonne présente le résultat du Wilcoxon sum rank test, avec les *** traduisant une p-value inférieure à 1 %, i.e. la probabilité de rejeter l’hypothèse nulle à tort. 

Cette première facette de la cohérence de la base de connaissances est complétée par le graphique 2, présentant l’indicateur d’exploration de combinaisons de connaissances originales au sein de l’entreprise. Nous constatons une distribution dispersée, avec un écart-type important dans les deux groupes. De plus, la moyenne et la médiane du score d’exploration sont plus importantes au sein des entreprises de défense, résultat confirmé par le test d’égalité des distributions. Ces deux tableaux mettent ainsi en évidence le fait que les spécificités de la production militaire affectent effectivement le processus d’innovation des entreprises de défense en affectant l’architecture des connaissances. 

Exploration – distinction civil/défense
Publié dans Uncategorized | Commentaires fermés sur Le rôle d’architecte des connaissances des grandes entreprises de défense 
Mar 26

Le CIR contribue à préserver l’essentiel de la compétitivité économique du chercheur français

Malgré la désindustrialisation et la concurrence croissante de régimes fiscaux favorables à la R&D partout dans le monde, le CIR a contribué à préserver l’essentiel. Dans l’industrie, la recherche connait une décennie de croissance, concourant à l’établissement de conditions favorables à la relocalisation des emplois manufacturiers. Le rapprochement de sites de production renforcés avec une R&D alerte, compétente et étoffée peut enclencher un cycle vertueux. Les risques sont toutefois élevés de voir la dynamique engagée se briser. 

Tel est le résumé de l’étude annuel de l’ANRT sur le coût du chercheur . La plupart des graphiques parlent d’eux-mêmes.

La valeur de 73 place le cours du chercheur français, cette année, en position médiane, au sein des 16 pays de notre échantillon. 

Les écarts ont un impact d’autant plus décisif que la proximité géographique est grande. Le cours Français bénéficie d’un avantage comparatif de 16 points vis-à-vis de l’Allemagne, et de 21 par rapport à la Belgique. 

La sanction s’alourdit encore pour les cours états-uniens, à nouveau en hausse à 165. Rareté des chercheurs dans certains domaines sous tension et manque de renouvellement de leurs effectifs font de la présence de chercheurs sur le territoire américain un luxe que bien peu de multinationales peuvent se permettre. Des écarts qu’aucun système de soutien à la R&D ne s’avère assez efficace pour compenser. 

Attractivité : « attention fragile », la preuve par l’exemple (bis) 

L’attractivité du territoire national est fragile. Au fil de ses dix années d’existence, le Panel de l’ANRT a pointé l’impact significatif des évolutions du différentiel de coûts des chercheurs sur la taille des équipes de R&D, en particulier entre pays proches géographiquement. L’attractivité procède d’une combinaison évolutive de conditions caractéristiques ; elle ne résulte pas uniquement de l’exposition au CIR des dépenses de R&D des entreprises. Pour celles-ci, la clé première de décision d’implantation reste le plus souvent l’accès au marché (y compris via un site de production local). Au deuxième rang joue le critère d’accès à des compétences. Enfin, viennent les différentiels de coûts, dont ceux de personnels ne sont qu’une des composantes. 

Cette année encore, il faut porter l’alerte : de coups de rabot apparemment mineurs en suppression de clause secondaire, c’est la confiance qui se désagrège. Et avec, son lot de conséquences économiques préjudiciables à moyen terme. Le projet de loi de finance 2021 contient à nouveau une mauvaise nouvelle. Après la perte moyenne estimée de 3,5% du montant CIR 2021 (conséquence de la loi de finance 2020) induit par la réduction du taux de prise en compte des dépenses de personnel de 50 % à 43 %, l’année 2022 (CIR 2023) verra encore le montant du CIR se réduire. 

La clause qui autorise les entreprises à exposer un montant doublé pour les dépenses correspondant à de la R&D confiée à leurs partenaires publics (jusqu’à un plafond de 12 millions d’euros) va être supprimée par un amendement gouvernemental. A la différence du coup de rabot précédent qui affecte de manière indiscriminée tous les bénéficiaires, cette suppression va s’avérer très préjudiciable de manière ciblée : ce sont les relations de recherche partenariale qui vont payer le prix fort. Si le montant global moyen de CIR perdu peut être estimé à 2%, la dynamique particulière de ce crédit d’impôt doublé risque de signer un coup d’arrêt brutal à la partie la plus sensible de la recherche, la recherche public-privé. Pour la très grande majorité des 4000 entreprises qui l’utilisent tous les ans, ce « CIR doublé » constitue le facteur décisif pour investir en R&D ou pas. Pour prendre sa décision d’investissement, le responsable d’entreprise raisonne en dynamique de flux de trésorerie. Sous ce prisme, ce crédit d’impôt pro-recherche partenariale réduit de manière drastique le risque financier associé à la décision de se lancer dans un projet de R&D. Le coût net de l’investissement en cas de CIR doublé est inférieur d’un facteur 6 à celui avec un CIR à 30%. A défaut de mettre en œuvre une ingénierie financière puissante, en cours de négociation à l’heure où ces lignes sont écrites, c’est à un effondrement complet des relations partenariales pour une grande partie des entreprises, les PME, déjà très affaiblies par les conséquences économiques de la crise sanitaire, auquel on doit donc s’attendre. 

http://www.anrt.asso.fr/fr/actualites/comparaison-internationale-sur-le-cours-du-chercheur-panel-anrt-cir-2020-34875

Publié dans Uncategorized | Commentaires fermés sur Le CIR contribue à préserver l’essentiel de la compétitivité économique du chercheur français
Mar 12

L’innovation quantique : une priorité aux Etats-Unis

La France lance une initiative forte sur le quantique : elle va consacrer 1,8 Md€ sur 5 ans aux technologies quantiques. C’est certes très peu comparé aux 10 Md$ annoncés par la Chine pour son laboratoire national quantique. 

C’est néanmoins du même ordre de grandeur qu’aux Etats-Unis où, si l’administration fédérale va débloquer 1,2 Md$ entre 2018 et 2023, Google, IBM, Microsoft et Amazon participent largement eux aussi à l’effort de recherche.

Dans le cadre du National Quantum Initiative (NQI), le Department Of Energy (DOE), le National Institution of Standards and Technologies(NIST) et la National Science Foundation (NSF) ont organisé un séminaire virtuel fin 2020 pour communiquer sur les différentes activités menées ou à venir en lien avec les technologies quantiques. 

De nombreux sujets ont été abordés comme lesinfrastructures et installations mises en place, l’état de l’art de la recherche scientifique en physique quantique, l’importance des collaborations entre le gouvernement, le secteur académique et le secteur privé, le transfert technologique du laboratoire vers le marché et la nécessité de former une main d’œuvre pour le développement de ces technologies. Globalement, 3 axes principaux sont évoqués.

1. Du laboratoire au marché, une approche du NIST pour le transfert de technologies 

L’objectif de cette approche est d’améliorer et d’accélérer le transfert des technologies développées dans les laboratoires du NIST vers le marché et de mieux penser l’ensemble du cycle de conception des produits (notamment en exploitant le feedback sur les derniers produits pour amélioration des suivants). Les principales stratégies énoncées par le NIST pour atteindre ces objectifs sont : 

  • Modernisation et amélioration des législations (droits d’auteurs et propriété intellectuelle) pour la création d’une nouvelle politique et développer le transfert technologique,
  • Renforcement des engagements avec les experts et investisseurs du secteur privé et le secteur public, 
  • Soutien à l’entreprenariat et à la formation de la future génération de chercheurs, 
  • Amélioration de l’outil de transfert technologique,
    Compréhension globale des tendances technologiques et du progrès scientifique. 

2. L’éducation et la formation de la main d’œuvre 

L’objectif est d’atteindre l’excellence dans la formation eSnTEM (Science, Technology, Engineering, Mathematics) à tous les niveaux afin de soutenir le développement d’une main d’œuvre diverse et bien préparée aussi bien de chercheurs, techniciens, ingénieurs et enseignement que de citoyens bien informés. 

Pour ce faire, l’approche de la direction de l’éducation et des ressources humaines (EHR) de la NSF comporte plusieurs composantes : 

  • la mise en place de plusieurs programmes de financements pour l’éducation dans différents domaines et niveaux de STEM,
  • un investissement conséquent pour la recherche,
  • l’identification de méthodes efficaces pour fournir des formations (formelles et informelles) répondant aux exigences des STEM. 

À cela s’ajoute le Quantum Information Science and Engineering Network (QISE), co-dirigé par les universités de Chicago et de Harvard et également financé par la NSF. C’est un programme de formation pour étudiants diplômés poursuivant une carrière en science et ingénierie quantiques que ce soit dans le secteur académique ou industriel. 

Le modèle de l’éducation du QISE est basé sur la collaboration d’un «triplet » : étudiant diplômé, mentor d’université et mentor industriel. Actuellement, plus de 60 doctorants collaborent ainsi avec des laboratoires publics et industriels. Parmi ses partenaires, le QISE compte IBM, Oak Ridge National Laboratory, Google, NIST et Argonne National Laboratory. En outre, des écoles d’été sont organisées pour compléter la formation. Par exemple, la « Quantum Science Summer School », financée par la NSF, la DOE et AFOSR, a lieu tous les ans depuis 2017. 

Il est important de préciser que certains critères seront imposés aux futurs financements tels que (comme précisé par l’intervenant de la NSF) : diversifier le type d’institutions bénéficiaires, varier la distribution géographique de ces dernières (ne pas se cantonner aux seules côtes est et ouest), élargir les disciplines des participants (ex : ingénieurs, informaticiens), identifier plus de partenaires potentiels, élargir la base des utilisateurs, établir une feuille de route pour répondre au besoin de main d’œuvre au court et long terme. 

3. Les installations, les recherches et les financements pour la recherche en physique quantique 

Pour la réalisation et le renforcement des initiatives et projets évoqués, il y a besoin d’installations de pointe à travers l’ensemble du territoire américain. À titre d’exemple, le Advanced Scientific Computing Research (ASCR) du DoE a mentionné des installations possédant une large gamme de ressources : le National Energy Research Scientific Computin Center(NERSC) au Lawrence Berkeley National Laboratory, l’Argonne Leadership Computing Facility(ALCF) au Argonne National Laboratory et le Oak Ridge Leadership Computing Facility (ORLCF) à Oak Ridge National Laboratory

En ce qui concerne les sujets scientifiques mis en avant pour aboutir aux applications attendues telles que les ordinateurs ou la cryptographie quantiques, mentionnons la recherche sur les matériaux supraconducteurs, la physique des ions piégés, les matériaux bidimensionnels, la photonique et l’optique. 

L’intérêt grandissant pour les technologies quantiques se révèle également au travers de la croissance des financements alloués : à titre d’exemple le budget déployé par la NSF sur le sujet passera de 142.87 M$ en 2020 à 226.36 M$ en 2021. 

Ainsi, les acteurs majeurs de la recherche et de l’innovation dans le domaine des sciences quantiques sont déterminés à mettre en place les moyens nécessaires pour aboutir à une percée technologique. Leur approche se focalise sur les modèles de transfert de technologie et de commercialisation, la formation des différents acteurs, la création et le renforcement de collaborations transverses, le déploiement de financements conséquents et la mise en place d’installations de pointe pour la recherche. 

Publié dans Uncategorized | Commentaires fermés sur L’innovation quantique : une priorité aux Etats-Unis