Mar 08

Une analyse suisse sur … l’innovation en Suisse

La Suisse est géographiquement en Europe et politiquement membre des Nations-Unies… depuis 2002 ! Elle dispose d’un des meilleurs systèmes d’enseignement supérieur et de recherche du monde, EPFL et EPFZ sont souvent dans le top 10 de classements mondiaux.

Il est intéressant de connaître le regard de la Suisse sur son propre système d’innovation, regard fourni par le rapport « Recherche et innovation en Suisse », publié par le SEFRI (Secrétariat d’État à la formation, à la recherche et à l’innovation).

Ce rapport note que le système suisse de recherche et d’innovation s’avère très performant en comparaison internationale. Si l’on compare en effet la Suisse avec ses principaux concurrents et partenaires économiques, on constate qu’elle figure souvent parmi les pays les mieux classés en matière de recherche et d’innovation. La Suisse se démarque en particulier en ce qui concerne les indicateurs relatifs aux conditions-cadres et à l’éducation, ainsi qu’au niveau des publications et des brevets. Ces dernières années, les écarts entre pays se sont toutefois réduits. 

Il convient donc de prêter une attention particulière aux domaines dans lesquels la performance de la Suisse présente un potentiel d’amélioration. Parmi ceux-ci figurent par exemple le transfert de savoir et de technologie (TST) entre petites entreprises et hautes écoles (les grandes écoles suisses), ainsi que les activités d’innovation des petites entreprises. 

L’excellente position de la Suisse se confirme également dans la comparaison avec les « régions d’innovation », même si les résultats sont moins clairs que dans la comparaison avec les pays. On relèvera par exemple que dix régions consacrent un plus grand pourcentage de leur produit intérieur brut (PIB) à la recherche et développement (R-D), et que sept régions présentent une part de l’emploi consacré aux branches à forte intensité de recherche et de savoir plus élevée que la Suisse. 

L’analyse de ce rapport se décompose en plusieurs thématiques :

  1. Conditions-cadres de la recherche et de l’innovation
  2. Education et qualifications 
  3. Personnel actif dans le domaine de la recherche et de l’innovation
  4. Dépenses dans le domaine de la recherche et de 
  5. Financement de la recherche et de l’innovation
  6. Participation aux programmes-cadres de recherche de l’UE
  7. Publications 
  8. Brevets 
  9. Transfert de savoir et de technologie 
  10. Activités d’innovation des entreprises 
  11. Performance économique 
  12. Technologies de l’information et de la communication 
  13. La Suisse comparée aux régions-phares de l’innovation 

Quelques graphiques « macro » sont assez édifiants…

Le lecteur de ce blog est renvoyé au rapport lui-même pour davantage de précision, mais il est amusant, voire réconfortant en ces temps d’auto-flagellation collective, de mettre en avant quelques graphiques ou figures mettant en évidence des critères où la France est plus performantes que la Suisse…

Le lecteur de ce blog est renvoyé au rapport lui-même pour davantage de précision, mais il est amusant de mettre en avant quelques graphiques ou figures mettant en évidence des critères où la France est plus performante que la Suisse (ceci étant, que la France soit plus performante que la Suisse à H2020 est plutôt normal)… Figures et graphiques parlent d’eux-mêmes.

Enfin, signalons que ce rapport inclut un avertissement sur les indicateurs et leurs limites : les indicateurs sont des représentations quantitatives qui fournissent des informations synthétiques, en l’occurrence dans ce rapport sur les investissements, les interactions et les performances en matière de recherche et d’innovation.
Il convient toutefois de garder à l’esprit que, d’une manière générale, les indicateurs doivent être interprétés avec précaution, spécialement dans le domaine de la recherche et de l’innovation : 

  • L’impact de la recherche et de l’innovation ne peut être mesuré qu’à moyen ou long terme.
  • Les indicateurs sont généralement statiques et ne peuvent appréhender pleinement la complexité du système national d’innovation.
  • Il est extrêmement difficile de mesurer l’impact de la recherche et de l’innovation sur des biens ne relevant pas des marchés, qu’ils soient de nature culturelle, sociale, politique ou environnementale.

<https://www.sbfi.admin.ch/dam/sbfi/fr/dokumente/2018/12/f-i-teil-b.pdf.download.pdf/F-I_Teil_B_f.pdf>

Voir aussi

Publié dans Uncategorized | Laisser un commentaire
Mar 01

Pour enseigner le numérique à l’école

Le numérique fait partie de nos vies. Tous nos jeunes s’expriment via le numérique : téléphones portables, réseaux sociaux sur internet, …. à un point tel que le numérique devrait presque être considéré comme un apprentissage élémentaire au même titre que l’écriture et la parole ! Ceci permettrait d’éviter les dérives liées à un auto-apprentissage du numérique dès la plus tendre enfance !

Un premier pas, tardif (mais mieux vaut tard que jamais), qu’il convient de signaler positivement, est la création (« dès 2020 » (sic !)) d’un CAPES d’informatique.

La France a une longue expérience en matière d’enseignement de l’Informatique dans l’enseignement secondaire général, mais celui-ci a fluctué depuis les années quatre-vingts. Une option informatique en terminale avait été créée dès 1981, entraînant, sept ans plus tard, l’apparition d’une épreuve officielle au baccalauréat. Le parcours, dans les collèges et les lycées, d’une option Informatique longtemps restée dans le giron des professeurs de mathématiques, a été mouvementé : supprimée en 1992, rétablie en 1995, à nouveau supprimée en 1998, elle a longtemps témoigné de la difficulté pour les chercheurs et chercheuses, et ingénieurs en sciences du numérique de faire reconnaître leur domaine comme une discipline à part entière.

La création de ce certificat professoral accompagne l’apparition d’une nouvelle discipline au lycée, intitulée “Numérique et science informatique”, mise en œuvre par la réforme du lycée. Plus de la moitié des lycées de France accueilleront la nouvelle discipline en 2020, créant ainsi un besoin de 1500 postes. Dans un premier temps, ces postes seront couverts, selon le ministre, “par des professeurs qui suivent des formations continues pendant les mois qui viennent pour être prêts pour l’année prochaine ” avant l’arrivée des professeurs titulaires du CAPES.

La structuration de l’enseignement numérique favorisera l’approfondissement de la culture numérique, le développement du sens logique des élèves, par exemple grâce à la programmation, et une connexion plus grande entre les savoirs numériques et les autres savoirs. Elle permettra aussi de créer des vocations chez les jeunes, particulièrement chez les jeunes femmes, qui ne représentent encore aujourd’hui qu’un tiers des salariés du secteur et 27% des effectifs des écoles d’ingénieurs.

https://talentsdunumerique.com/actu-informatique/metier-professeur-dinformatique-au-lycee

https://www.letudiant.fr/educpros/actualite/le-capes-informatique-en-2020-une-reconnaissance-et-des-defis.html

Publié dans Uncategorized | Laisser un commentaire
Fév 22

L’INRIA nouveau est arrivé

La granulométrie la plus fine de la recherche publique française est le laboratoire, lui-même dépendant très souvent d’une UMR, unité mixte de recherche. Le « mixte » n’a rien de « genré », mais signifie que cette UMR a plusieurs organismes ou établissements tutelles, université, CNRS ou autres organismes de recherche. Si les universités sont encore très largement autogérées avec un président élu et un corps social qui n’évolue que lentement, on a assisté depuis quelques décennies à une personnalisation forte des organismes de recherche en fonction de leur dirigeant, celui-ci étant maintenant majoritairement un Président-Directeur général.

Ce n’est donc pas une surprise qu’après le départ d’Antoine Petit au CNRS, INRIA entame une évolution de sa stratégie avec son nouveau P-DG, Bruno Sportisse. Cette évolution concerne notamment une structuration de l’offre d’INRIA en matière de partenariat, des objectifs très ambitieux de création de spin-offs et la recherche d’un développement de l’innovation dans 5 secteurs-clés dont défense et sécurité.

A ce titre, la note sur la politique d’établissement stipule que des relations privilégiées doivent être envisagées avec des ministères en très forte demande sur le numérique, notamment dans la sphère Défense-Sécurité, avec des partenariats à envisager au niveau stratégique avec la DGA, et plus généralement l’Agence de l’innovation de défense, et l’ANSSI.

Dans ces secteurs, la transformation numérique de la société crée de formidables opportunités mais entraîne aussi une exposition accrue des systèmes d’information et des données personnelles aux attaques. Les risques sont également majeurs pour les États ou les opérateurs d’importance d’un point de vue humain et économique.

Saluons donc la récente publication d’un livre blanc sur la cybersécurité qui fournit un aperçu des travaux académiques sur différents aspects relatifs à la cybersécurité, avec en particulier une cartographie des activités de recherche menées par les équipes Inria. 

Le livre blanc commence par une description des menaces et des modèles d’attaques, que ce soit au niveau matériel, réseau, système d’exploitation, application, ou humain. Face à ces menaces, les « primitives cryptographiques », telles que le chiffrement, constituent une première défense pour garantir la confidentialité et l’intégrité des données. Mais la sécurité de ces primitives doit aussi être continuellement scrutée : c’est le rôle de la cryptanalyse. L’établissement de communications sécurisées, y compris en présence d’attaquants, utilise des protocoles cryptographiques, construits au-dessus des primitives de base. La complexité de ces protocoles rend nécessaire leur validation via des techniques formelles, qui se sont avérées particulièrement efficaces pour la détection de failles ou pour garantir l’absence de certains types d’attaques. Munis de ces primitives et protocoles, l’étape suivante consiste à construire des services de sécurité, par exemple pour l’authentification ou le contrôle d’accès, que ce soit au sein du système d’exploitation ou d’Internet. Cependant, comme rien n’est infaillible, une surveillance de ces systèmes d’informations est aussi nécessaire pour détecter les violations des politiques de sécurité, et des mécanismes automatiques doivent être ajoutés pour pouvoir réagir rapidement en cas d’attaque afin d’en limiter les impacts. 

Le respect de la vie privée, aspect essentiel de la cybersécurité, est également complexe, car intégrant aussi des dimensions légales, économiques et sociétales. Plusieurs facettes sont explorées, que ce soit dans la compréhension des principes, dans la construction d’outils, ou dans la mise en évidence des pratiques de captation de données personnelles. 

Enfin, différents domaines applicatifs posent de sérieuses questions en matière de cybersécurité, car en devenant connectés, les systèmes numériques ont largement augmenté la surface d’attaque possible et sont devenus potentiellement plus vulnérables. 

Ce Livre Blanc identifie plusieurs défis scientifiques et technologiques, notamment :

  • Penser la cryptographie post-quantique. Comme l’apparition à moyen terme d’un ordinateur quantique, capable de casser la majorité des systèmes cryptographiques actuels, semble de plus en plus vraisemblable, il faut dès maintenant concevoir des primitives cryptographiques qui résistent à un ordinateur quantique afin que les informations sensibles dans les messages chiffrés aujourd’hui restent indéchiffrables demain.
  • Calculer sur des données chiffrées. L’apparition du “cloud” et l’externalisation du stockage et du traitement de données ont créé le besoin de réaliser des calculs sur des données chiffrées pour garantir leur confidentialité. L’’efficacité des chiffrements homomorphes et fonctionnels qui répondent à ces besoins est actuellement insuffisante pour passer à l’échelle et reste un sujet de recherche essentiel avec un impact économique potentiel considérable.
  • Prouver de bout en bout des protocoles cryptographiques. Garantir la sécurité de protocoles cryptographiques est extrêmement complexe, que ce soit au niveau des spécifications ou de l’implémentation. Les méthodes formelles et les preuves assistées par ordinateur sont essentielles pour assurer un niveau de confiance suffisant. Il faut donc en généraliser l’utilisation. Il faudrait aussi les étendre pour permettre la certification de propriétés complexes comme l’anonymat.
  • Développer la sécurité de l’Internet des Objets.Sécuriser les objets connectés de l’Internet des objets est un défi majeur, du fait de la quasi absence de protection de beaucoup d’entre eux, de leur caractère intrusif dans le monde physique, et de l’ampleur des attaques permises.
  • Renforcer la protection de la vie privée des citoyens. L’accroissement massif du volume et du caractère intrusif des collectes de données personnelles pose de nombreuses questions. Des recherches transversales sont nécessaires afin d’apporter la transparence et de mettre en évidence les pratiques, bonnes ou mauvaises, dans ces environnements complexes sujets à de constantes évolutions technologiques.

Signalons aussi deux autres livres blancs publiés par Inria, concernant l’Intelligence Artificielle et les véhicules autonomes et connectés.

Le premier pose les bases d’une vision globale des problématiques liées à l’Intelligence Artificielle et dessine les orientations stratégiques et scientifiques de l’institut. Il invite le lecteur à repenser le transhumanisme, percer les secrets de l’apprentissage automatique… et, pourquoi pas, remettre en perspective une certaine « robot-phobie » ?

Le deuxième fait le point et soulève l’ensemble des problématiques liées aux grandes avancées et innovations dans le domaine des véhicules autonomes et connectés. Quels défis technologiques et scientifiques ? Quels enjeux économiques, sociaux et environnementaux ? Quels impacts légaux et éthiques ? Un texte qui mesure, questionne et anticipe.

https://www.inria.fr/actualite/actualites-inria/inria-publie-son-livre-blanc-sur-la-cybersecurite

https://www.inria.fr/actualite/actualites-inria/intelligence-artificielle-les-defis-actuels-et-l-action-d-inria

https://www.inria.fr/actualite/actualites-inria/livre-blanc-vehicules-autonomes-et-connectes

Publié dans Uncategorized | Laisser un commentaire
Fév 15

L’indonésie, sentinelle et gardienne du climat ?

L’Indonésie est régulièrement victime des soubresauts terrestres, volcanismes, tremblements de terre ou tsunami. Elle est située sur la ceinture de feu du Pacifique. L’histoire retient l’éruption du Krakatoa en août 1883 qui a fait plusieurs dizaines de milliers de morts et atteint l’Europe, notamment par la nébulosité de cendres qui dura plusieurs années, et, plus récemment, le tsunami de décembre 2014 qui tua plus de 220 000 personnes dans la région. C’est la région au monde la plus exposée aux catastrophes naturelles. 

L’Indonésie, ce n’est pas moins de 270 millions d’habitants… Une déforestation galopante… Et des éruptions volcaniques qui émettent beaucoup de CO2. Mais contrairement à ce que l’on pourrait penser, l’Indonésie a aussi sa part dans la régulation du réchauffement climatique. 

L’actualité récente de la recherche a mis l’Indonésie au premier plan, s’agissant du changement climatique.

C’est d’abord un article dans Science qui met en évidence que dans le Pacifique, une poche d’eau froide contribuerait à « climatiser » la Terre.

L’océan Pacifique garderait caché au fond de ses entrailles une poche d’eau froide vieille de plus de 600 ans qui contribuerait ainsi à «climatiser» la Terre. Et sa disparition pourrait s’avérer catastrophique. Telle est la conclusion des travaux de deux chercheurs américains. Ils ont compilé des mesures modernes et historiques de circulation océanique pour détecter et quantifier l’influence du refroidissement de la période glaciaire sur les profondeurs intérieures du Pacifique.

Il y a mille ans, l’hémisphère nord de notre planète connaissait une période de réchauffement climatique appelé «optimum climatique médiéval» qui a été suivie à partir du XIIIème siècle par un refroidissement global, la petite ère glaciaire. La cause de ce net refroidissement serait une activité volcanique se développant en Indonésie. 

Ce que les chercheurs démontrent aujourd’hui, c’est que cette vague de froid qui a touché le globe à l’époque n’aurait toujours pas fini d’être évacuée par l’océan Pacifique. Cette poche de froid n’est plus présente dans l’Atlantique, le Gulf Stream, qui transporte la chaleur de l’atmosphère dans les profondeurs, a «épuisé» bien plus rapidement cette réserve que le Pacifique.

Cette réserve de froid a pu rester très longtemps piégée dans les profondeurs et agir alors sur la température globale du globe en absorbant la chaleur du Pacifique, ce qui a sans doute permis de continuer à limiter les effets du réchauffement ces dernières années. Mais cette réserve va finir par se tarir.

Nous ne sommes pas en mesure de dire si l’impact de ce refroidissement du Pacifique peut avoir des conséquences sur les prévisons du GIEC analysent les auteurs. Mais l’influence de l’optimum climatique médiéval et de la petite ère glaciaire est de moins en moins important, comparé aux effets anthropiques. Les conclusions fondamentales du dernier rapport du GIEC, en octobre, ne devraient pas en être modifiées.

Selon les géologues, les changements naturels de température à long terme sur notre planète résultent de variations dans les concentrations atmosphériques de CO2. Ils soupçonnent depuis longtemps la tectonique des plaques d’influencer lourdement le climat mondial. Aujourd’hui, une équipe apporte quelques précisions en la matière, s’appuyant sur l’exemple des montagnes d’Indonésie. Si le pays ne représente que 2 % de la superficie des terres de notre planète, il éponge 10 % du volume de CO2 absorbé dans le monde.

Le secret d’une telle efficacité : des montagnes issues d’une collision tectonique colossale entre une chaîne de volcans insulaires et le continent. Des montagnes constituées donc de roches riches en magnésium et en calcium, anciennement enfouies dans l’océan. Ces roches-là, arrosées par les pluies tropicales, se révèlent incroyablement efficaces à capturer le CO2 atmosphérique pour le transformer en calcaire !

“Ces montagnes sont le principal interrupteur du climat mondial ». Des chercheurs annoncent même aujourd’hui que l’apparition de ce type de montagnes tropicales coïncide avec la quasi-totalité de la demi-douzaine de périodes glaciaires qu’a connue la Terre depuis 500 millions d’années. « Ces montagnes pourraient bien constituer le principal interrupteur du climat mondial », va même jusqu’à avancer Francis Macdonald, géologue à l’université de Californie, à Santa Barbara.

Ainsi, les périodes glaciaires d’il y a 50 et 90 millions d’années pourraient être le résultat de collisions entre une chaîne de volcans insulaires dans l’océan Néotethys, aujourd’hui disparu, et les continents asiatique et africain. Une analyse du champ magnétique des roches formées lors de l’apparition des Appalaches, il y a quelque 460 millions d’années, montre que des montagnes se sont élevées jusque sous les tropiques alors qu’une nouvelle période glaciaire commençait.

Quelques coïncidences ? Pour en avoir le cœur net, les chercheurs ont analysé toutes les sutures tectoniques – ces cicatrices laissées par l’affrontement entre deux croûtes – connues pour contenir des fragments de fonds marins volcaniques. Magnétisme des roches et modèles de dérive des continents leur ont permis de déterminer leurs anciennes latitudes. Des résultats qu’ils ont ensuite comparés à des enregistrements climatiques pour confirmer la corrélation avec les périodes glaciaires.

Certains remettent déjà en question ces résultats, arguant plutôt de l’influence prépondérante du volcanisme sur le climat. Mais, selon Francis Macdonald, la force de cette théorie réside non seulement dans sa capacité à prédire le début des périodes glaciaires, mais également leur fin. Ainsi, un climat chaud semble correspondre à l’état naturel de la Terre. Du type de celui qu’elle a connu pendant les trois quarts des 500 derniers millions d’années. Et les collisions survenues en Indonésie seraient de nature à faire basculer le climat mondial dans une période glaciaire. Jusqu’à ce que les montagnes s’érodent et que les continents poursuivent leur dérive, laissant alors la planète se réchauffer.

http://science.sciencemag.org/content/363/6422/70

https://fr.weforum.org/agenda/2019/01/l-indonesie-jouerait-un-role-de-thermostat-dans-le-climat-mondial/

Publié dans Uncategorized | Laisser un commentaire
Fév 08

Et si la voiture électrique n’était pas la panacée …

Coincée entre la loi de programmation énergétique, le mouvement des gilets jaunes et le manque de vision systémique, le concept de voiture électrique est à la fois un mantra, un mythe, une source d’avancées technologiques, un risque industriel et un espoir.

Il est donc intéressant de rapporter ici les réflexions d’un blog, Echoradar, se définissant comme un « blogzine de détection et d’alerte avancée » et traitant de géopolitique, de défense, de sécurité et de technologie. Que des bons sujets ! De plus, l’analyse est systémique et globale, forme que j’appelais de mes voeux… dans mes voeux.

Pourquoi la ruée vers la voiture électrique doit-elle être tempérée ?Tel est le titre de l’article en question… dont les principaux éléments sont repris ci-dessous.

L’avènement du retour en grâce des véhicules électriques est un fait marquant des années 2010. Cet engouement, appréciable pour les bienfaits que peut prodiguer la fée électrique y compris dans le domaine des transports, ne saurait cependant éluder quelques questionnements amplement nécessaires à peine de désagréments conséquents.

  • La capacité de production électrique durant les créneaux horaires critiques (principalement 18h-21h) : dès lors que le parc sera en mesure de dépasser les 50% de véhicules électriques, comment la production pourra-t-elle suivre en cas de pic de sollicitation énergétique maintenu sur une durée conséquente ? Sur un échantillon territorial modeste, l’association écologique anglaise Green Alliance avait détaillé dans une étude publiée en avril 2017 que les réseaux britanniques n’étaient pas prêts à assurer une forte demande simultanée de voitures électriques en phase de recharge. L’Observatoire France Stratégie abonda en ce sens dans son étude prospective pour un véhicule propre.
  • La capacité de transport de l’énergie concernée, sachant qu’un déploiement pour accroître les capacités n’est pas une question de jours, ni de mois mais d’années et surtout d’investissements publics massifs. L’État si prompt à faire reposer sur les constructeurs et les conducteurs la charge d’un changement radical technologique sera-t-il prêt à investir dans les infrastructures nécessaires comme tel devrait être son rôle d’incitateur et de promoteur ? Qui assumera le coût des bataillons de bornes de recharge nécessaires pour satisfaire une demande exponentielle pouvant même être brutale ?
  • La réelle consommation électriquedes véhicules en circulation : sur ce point les constructeurs se montrent particulièrement discrets, et devront lever les interrogations relatives à cette donnée sensible selon un ensemble de critères définis et acceptés par l’ensemble du secteur. Certains pays, telle la Norvège, en viennent à souhaiter la taxation des SUV et berlines électriques qui dénaturent l’apport écologique de tels véhicules, lesquels réclament autrement plus d’énergie que les modèles plus compacts.
  • La problématique de la pollution ou plus exactement le déport de celle-ci puisque la confection d’une automobile électrique est bien plus gourmande en énergie et ressources fossiles qu’un véhicule traditionnel en raison d’une élaboration industrielle différente comme complexe (à commencer par les batteries qui réclament un usinage très particulier). Mais aussi l’extraction de terres rares comme de ressources minérales spécifiques entraînant toute une industrie de prospection, de récolte puis de traitement, généralement en des pays peu sourcilleux sur la problématique écologique. Sur le sujet du déport de pollution, ajoutons qu’en Allemagne, par exemple, la production d’électricité repose à 66% sur la combustion de matières fossiles, ce qui dans ce cas de figure repose de façon sensible le déport de pollution entre la fabrication et la circulation.
  • Le risque de basculement d’une relative souveraineté technologique européenne vers une dépendance accruevis à vis de fournisseurs de solutions technologiques et énergétiques d’origine asiatique. D’où la demande du président Vavassori de l’Association européenne des équipementiers automobiles à favoriser une phase de transition comme l’hybridation ou les carburants de synthèse et non une fuite en avant mû uniquement par la précipitation politique. Ou comme le gouvernement japonais qui promeut les solutions à base d’hydrogène pour éviter la main-mise étrangère sur une technologie dont elle ne maîtrise pas l’ensemble de la chaîne. En somme, ne pas arrêter les recherches et les tests sur des solutions alternatives au profit d’une seule voie qui pourrait déboucher sur une impasse vis à vis d’autres problématiques. Il est symptomatique de l’absence de vision stratégique des décideurs européens que l’excellence en matière de conception des moteurs thermiques acquise par les constructeurs du vieux continent est en passe d’être balayée par des décisions politiques les plaçant dans une situation de dépendance.
  • Le manque de recul sur les effets d’une électrification majeure. Tel était le sens de l’intervention de Carlos Tavarès lors du 67ème salon de l’automobile à Francfort 2017 où le président du groupe PSA n’entend pas endosser la responsabilité de décisions politiques de l’électrification à marche forcée du secteur. En somme ne pas subir les effets d’un « électrogate » incubé en amont par les dirigeants politiques soucieux d’éteindre une polémique avec une solution arbitraire. Par ailleurs le dirigeant français prit soin d’évoquer la question de l’inocuité des émissions électromagnétiques des futures électromobiles, sujet trop rarement évoqué et pourtant crucial sur un plan épidémiologique.
  • Le besoin de disposer d’un réel outil de mesureen matière d’autonomie en conduite réelle : le cycle NEDC souvent pris comme référence pour indiquer l’autonomie en kilomètres ne trompe pas les experts qui prennent soin de minorer systématiquement les résultats. Tout comme pour le diesel, il ne s’agit pas fondamentalement de triche, mais plutôt d’optimisation de télémétrie. L’utilisation progressive du modèle WLTP devrait permettre d’avoir une meilleure perception de la consommation réelle des électromobiles.
  • En optant préférentiellement, si ce n’est exclusivement, pour la voie électrique, ne se ferme-t-on pas à d’autres voies, y compris celle du diesel propre comme le propose certains équipementiers tel Faurecia avec son filtre à NOx ASDS ? Certaines recherches demandent plusieurs années avant une concrétisation industrielle : ne fragilise-t-on pas ces sociétés qui opèrent des développements sur le long terme en leur sommant de stopper toute avancée dans un domaine au profit d’un autre dont la maturité industrielle et commerciale reste à prouver ?
  • La rentabilité économiquedes électromobiles pour les constructeurs : un point sensible que souleva feu Sergio Marchionne, président de Fiat-Chrysler, en relatant qu’aux États-Unis pour chaque Fiat 500e vendue, la perte était de 20 000 dollars. Si l’homme est un abonné des déclarations tonitruantes, une réalité est attestée : sans apport fiscal, le marché de l’électromobilité s’effondrerait aussitôt. Le cas de Hong-Kong est symptomatique et tend à démontrer que le marché de l’électromobilité est artificiellement tiré vers le haut. Sur l’ancienne colonie anglaise, le mois précédant la suppression de l’exemption de taxes sur les véhicules électriques, Tesla vendit 2939 unités ; le mois du rétablissement des taxes, Tesla écoula… zéro modèle ! Du reste, si la Tesla Model 3 vise à être plus abordable financièrement, elle le doit indirectement à une aide fédérale américaine. Il va sans dire que ce business model repose en grande partie sur des incitations fiscales et des subventions, et que leur suppression risque d’entraîner une dépression économique pour les constructeurs les plus exposés (gamme 100% électrique).
  • Le coût économique et social des mesures d’incitationau passage à l’électromobilité ne peut plus être ignoré depuis la sévère crise des gilets jaunes français en octobre-décembre 2018 : la taxe carbone censée favoriser le passage d’un mode de déplacement à un autre s’est révélée être un accélérateur de paupérisation. La politique de fiscalité punitive et non incitative a dressé contre elle une partie de la population, discréditant l’argument écologique initial. Ajoutons qu’en outre l’électromobilité a un coût réel d’achat et d’emploi : le véhicule bien entendu, mais couplé à l’abonnement obligatoire en fourniture d’électricité ainsi que la location des batteries (qui n’est plus obligatoire chez certaines marques mais qui engendre un forfait supplémentaire conséquent lors de l’achat du véhicule).

Pour approfondir le sujet, la lecture d’un document provenant de Norvège ayant trait au modèle si particulier de ce pays scandinave dont l’achat d’électromobiles représente déjà près d’un tiers du parc automobile neuf pour 2017 peut être d’un certain apport [Bjart Holtsmark et Anders Skonhoft, The Norwegian support and subsidy policy of electric cars. Should it be adopted by other countries?http://www.svt.ntnu.no/iso/Anders.Skonhoft/Environmental%20Science%20and%20Policy%20814.pdf]. Modèle souvent cité en exemple, le cas norvégien repose néanmoins sur une donne singulière : c’est l’exploitation off-shore de gisements de pétrole et de gaz qui permettent le soutien fiscal très fortement généreux de ce type de motorisation avec en appoint une auto-suffisance énergétique excédentaire (principalement due à l’énergie d’origine hydroélectrique). Un modèle qui pourrait évoluer à l’avenir avec le tarissement progressif et sensible des réserves de ressources fossiles en Mer du Nord. La capitale Oslo, qui dispose d’un péage urbain à l’instar de Londres, a même commencé à rétablir des droits de passage aux véhicules électriques qui en étaient exempts jusqu’à présent. Son exemple doit inciter les autres pays à précisemment éviter les écueils d’une incitation trop ciblée et trop arbitraire.

Autre document à compulser, émanant cette fois de l’Agence Européenne de l’Environnement : Electric vehicles from life cycle and circular economy perspectives. Loin de donner quitus à l’électromobile, les auteurs de l’étude tiennent à insister sur l’obligation de recourir à une approche globale et non se focaliser uniquement sur l’émission d’agents polluants dans l’atmosphère durant la circulation [European Environment Agency : https://www.eea.europa.eu]. Il est ainsi préconisé de favoriser l’économie circulaire de manière plus systématique.

L’électromobile est promise à un (nouvel) avenir radieux à la condition d’éviter le dogmatisme, l’illusion et la précipitation de mesures politiques qui pourraient voir son essor stoppé brutalement au premier revers. Pareilles décisions stratégiques doivent être pensées dans une optique de pérennité assortie d’une approche empreinte de neutralité technologique afin de laisser ouvertes toutes les portes de l’innovation pour le plus grand profit de tous, à commencer par la santé de la planète.

Publié dans Uncategorized | 2 Commentaires