close
    • chevron_right

      Hainan : la première île écolo-nucléaire ?

      Michel Gay · ancapism.marevalo.net / Contrepoints · Saturday, 13 February, 2021 - 04:35 · 3 minutes

    Hainan

    Par Michel Gay.

    L’île de Hainan au sud de la Chine souhaite créer une zone pilote de développement d’énergies propres pour devenir la première île écologique en augmentant la part du nucléaire comme principale source de production d’électricité pour se substituer au pétrole, au charbon, et au gaz.

    Décarboner l’île

    La politique énergétique consistant à se retirer du pétrole, du charbon et à réduire la production onéreuse d’électricité à partir du gaz qui ne correspond pas à l’objectif affiché de neutralité carbone, a fait l’objet d’un consensus sur l’île de Hainan selon les Nouvelles nucléaires de Chine publiées début février 2021 par l’ambassade de France en Chine.

    Mais le développement des filières éoliennes et solaires est soumis à un stockage massif d’électricité encore inexistant. Elles ont aussi leurs propres contraintes (productions fatales variables ou intermittentes) et une faible densité énergétique par unité de surface, ce qui est un problème sur une île de 34 000 km2 densément peuplée où vivent près de 10 millions d’habitants.

    Une étude locale a conclu que le recours accru à ces énergies dépendant du vent et du soleil ne permettrait pas de répondre aux besoins de l’île, provoquerait des conflits liés à l’usage des sols, et compromettait son écosystème et ses paysages naturels. Le parc éolien et solaire restera donc identique dans les années à venir.

    Le nucléaire comme solution

    Selon le souhait des autorités chinoises, le nucléaire représentera donc une part importante de la production d’électricité de Hainan en devenant une zone pilote de développement d’énergies propres comme le nucléaire pour viser une île écologique. Le nucléaire sera alors la principale énergie ajoutée sur l’île pour la période 2026-2035.

    Le Hainan possède déjà deux réacteurs nucléaires de 650 mégawatts (MW) en fonctionnement et accueillera deux autres réacteurs Hualong 1 de 1150 MW chacun sur un des nombreux sites dédiés disponibles sur l’île ce qui portera la puissance nucléaire installée de 1300 MW à 3600 MW.

    Première île écolo-nucléaire au monde

    Il y a bien eu un essai 100 % renouvelables pour la production d’électricité sur l’île d’El Hierro (ouest des Canaries) à partir d’éolien et d’hydraulique, mais ce fut un échec financier et technique.

    Entre 2015 et 2018, la part de consommation du diesel (fioul lourd) a oscillé entre 44 % et 70 %. En 2019, elle était toujours de 46 % ( 54 % pour les renouvelables ).

    La Grande-Bretagne envisage toujours la construction d’ une dizaine de réacteurs nucléaires dans les prochaines années pour diminuer sa consommation de gaz et de charbon.

    Même l’Irlande pourrait se tourner vers le nucléaire selon le site Wnn news du 9 février 2021 .

    En effet, le groupe de professionnels irlandais « 18 for 0 » vise à introduire 18 % de production nucléaire sur l’île pour réduire à 0 % la consommation d’énergie fossile pour sa production d’électricité en 2037.

    Il a écrit fin janvier 2021 au ministre irlandais de l’Environnement, du climat et des communications, Eamon Ryan, « pour l’exhorter à envisager l’énergie nucléaire dans les plans du pays afin de réduire les émissions de carbone et pour s’enquérir des projets du gouvernement de mener une étude sur le potentiel de l’énergie nucléaire. »

    À l’horizon 2035, en ayant réellement réduit sa consommation d’énergies fossiles à presque zéro pour sa production d’électricité, l’île de Hainan pourrait donc bien devenir la première île écolo-nucléaire au monde !

    • chevron_right

      Les éléments du progrès : le caoutchouc (6)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 7 February, 2021 - 04:25 · 5 minutes

    caoutchouc

    Par Tony Morley.
    Un article de HumanProgress

    Environ 10 % de toutes les plantes à fleurs produisent une petite quantité de latex lorsqu’elles sont percées ou coupées. Le latex est un mélange chimique complexe de protéines, alcaloïdes, amidons, sucres, huiles, tanins, résines et gommes qui coagulent lorsqu’ils sont exposés à l’air. Lorsque le polymère du latex durcit, il commence à ressembler à une forme brute de caoutchouc reconnaissable par quiconque connaît le caoutchouc moderne.

    Bien qu’il existe un grand nombre de plantes qui produisent au moins un peu de latex, c’est l’arbre à caoutchouc ( Hevea brasiliensis ) qui est la principale source mondiale de la matière première du latex nécessaire à la production de caoutchouc naturel. L’hévéa du Brésil est originaire des forêts tropicales amazoniennes qui s’étendent sur toute la largeur de l’Amérique du Sud et est exploité pour son latex par les habitants indigènes de la région depuis au moins l’an 1000 de notre ère.

    Les premiers indigènes d’Amazonie ont utilisé le latex dans nombre de produits artisanaux très innovants. Le latex humide était incorporé par brossage aux vêtements et aux protections pour les pieds afin d’en améliorer la résistance et de fournir une méthode efficace d’imperméabilisation. Le latex était versé sur ou dans des moules en terre et on le laissait s’évaporer pour former des bols, des récipients d’eau et des paniers à la fois résistants et flexibles.

    L’explorateur français Charles-Marie de la Condamine a été le premier Européen à observer des plantes produisant du latex au Pérou en 1735 et à envoyer des spécimens en Europe en 1736. La culture agricole des plantes productrices de latex et l’utilisation industrielle du latex et du caoutchouc en Europe ont été lentes à se développer jusqu’au début des années 1800. L’aube de la Révolution industrielle a été simultanément l’aube du caoutchouc en tant que matériau de première importance.

    La demande de caoutchouc naturel est devenue insatiable. Un nombre croissant de plantations d’hévéas en Amérique du Sud et, plus tard, en Asie, en Inde et en Afrique peinaient à répondre à la demande de l’Europe et, dans une moindre mesure, à celle de l’Amérique du Nord. Les scientifiques, les entrepreneurs et les industriels ont rapidement trouvé des milliers d’applications pour le caoutchouc. Ce matériau est devenu très précieux pour la fabrication de ceintures, de joints, d’imperméabilisants, de vêtements, de bottes, de premiers pneus et bien d’autres choses encore.

    Cependant, l’utilisation du caoutchouc naturel était limitée par deux défauts majeurs : sa résistance et sa durabilité. Le caoutchouc naturel a tendance à se raidir considérablement dans les environnements froids, à perdre toute sa robustesse et à fondre lorsqu’il est soumis à un chauffage relativement léger. C’est le hasard combiné à l’expérimentation qui a permis de dépasser ces limites en 1839, lorsque l’Américain Charles Goodyear (célèbre pour ses pneus modernes) a mis au point un procédé de chauffage du caoutchouc naturel avec du soufre. La mise au point de ce procédé s’appelle la vulcanisation.

    La vulcanisation n’était pas une amélioration marginale du matériau. Le procédé a considérablement amélioré la solidité et la résistance à la chaleur et au froid du caoutchouc. Au cours des cent années suivantes, le processus de vulcanisation a fait du caoutchouc un pilier de l’industrialisation rapide de l’Occident. Son utilisation  dans les véhicules de tourisme, les bicyclettes, les camions, les avions, les bateaux, les navires, les usines et les maisons a transformé et enrichi la civilisation.

    Cependant, la demande de caoutchouc naturel a continué à dépasser l’offre et la Seconde Guerre mondiale, en particulier, a créé une pénurie importante – surtout parmi les forces alliées.

    Le caoutchouc synthétique produit à partir d’hydrocarbures naturels a été synthétisé pour la première fois lors d’une série d’expériences entre 1875 et 1882. Mais cette production se faisait en grande partie en laboratoire jusqu’au début des années 1940.

    À la différence des plantations tropicales et des chaînes d’approvisionnement difficiles à mettre en place, l’avantage du caoutchouc synthétique était sa fabrication à partir d’hydrocarbures existants. Peu après la fin de la Seconde Guerre mondiale, l’amélioration de la composition du caoutchouc synthétique, de la technicité et de la rentabilité de sa fabrication a conduit à des percées majeures dans les technologies et les applications du caoutchouc.

    Les améliorations de sa composition et de sa fabrication se sont poursuivies tout au long des années 1960 jusqu’à l’ère moderne – le monde consommant des volumes vraiment prodigieux de caoutchouc naturel et synthétique.

    En 2019, l’humanité a produit et utilisé un peu plus de 29 millions de tonnes de caoutchouc naturel et synthétique. Près de 14 millions de ces tonnes étaient du caoutchouc naturel et 15,2 millions de tonnes étaient synthétiques.

    L’utilisation intensive du caoutchouc naturel et synthétique a un impact énorme sur la vie moderne. Presque toutes les voitures et tous les camions de la planète roulent sur des pneus en caoutchouc vulcanisé renforcé, transportant des familles, de la nourriture et des matériaux. Et presque tous les avions atterrissent sur des pneus en caoutchouc haute performance.

    L’industrie des transports est peut-être la principale utilisatrice de caoutchouc. Et ce matériau continue à rendre service à la société de centaines de milliers de façons, de la prophylaxie moderne sous forme de préservatifs en latex, à l’imperméabilisation, à l’amortissement des vibrations et aux pneus vraiment énormes qui permettent aux engins miniers et aux camions de fournir à l’humanité les minéraux et les métaux du progrès.

    À l’avenir, le caoutchouc issu de sources renouvelables, qu’il soit naturel ou synthétique, continuera à jouer un rôle clé dans la prospérité des pays développés, tout en contribuant à la croissance économique des pays en développement.

    Sur le web

    • chevron_right

      Nord Stream 2, l’Allemagne face à ses contradictions

      François Jolain · ancapism.marevalo.net / Contrepoints · Friday, 5 February, 2021 - 04:45 · 1 minute

    Par François Jolain.

    Contradictions sur les partenaires commerciaux

    En pleine crise de Crimée, l’Allemagne faisait pression sur la France pour annuler la livraison de deux porte-hélicoptères Mistral à la Russie. Aujourd’hui, les rôles s’inversent. Suite à l’affaire Navalny, la France demande officiellement à l’Allemagne d’arrêter Nord Stream 2 , son projet de gazoduc russe.

    Or, le gouvernement d’Angela Merkel, si prompt à pointer du doigt les partenaires français peu fréquentables comme la Russie ou l’Arabie Saoudite , semble se contredire sur son propre partenariat russe.

    Il faut dire que là où la France pouvait se permettre de ne pas livrer les bâtiments militaires, l’Allemagne se retrouve coincée dans une dépendance énergétique au gaz russe.

    Contradiction sur son mix énergétique

    Tout a commencé par l’arrêt du nucléaire en 2011, puis par un investissement massif des énergies renouvelables. Or, le renouvelable n’a pas remplacé les anciennes centrales à charbon , elles restent toujours disponibles pour pallier la volatilité des productions éoliennes ou solaires.

    C’est ainsi que la capacité de production d’énergie verte est arrivée au même niveau que la capacité de productions d’énergies fossiles ou nucléaires, sans la remplacer. Si l’on installe 1 GW d’éolien, il faut aussi 1 GW de gaz pour sécuriser la production lors de vent calme. Ainsi, les deux infrastructures marchent de concert par intermittence. À la fin il y a même davantage de production par énergie fossile que par énergie renouvelable.

    Avec l’abandon des centrales au charbon trop polluantes pour des centrales au gaz, le mix énergétique allemand dépend plus que jamais du gaz russe. Les mêmes qui protestaient contre le nucléaire puis le charbon, se retrouvent à protester impuissants contre Nord Stream 2.

    L’Allemagne s’enfonce dans une dépendance au gaz russe. Un partenariat bien plus nocif que la vente de deux Mistrals…

    • chevron_right

      Énergie : le gouvernement lit-il les rapports de France Stratégie ?

      Michel Negynas · ancapism.marevalo.net / Contrepoints · Friday, 29 January, 2021 - 03:40 · 12 minutes

    France Stratégie

    Par Michel Negynas.

    Le Premier ministre dispose d’un organisme de prospective, France stratégie .

    La dernière étude de France Stratégie

    France Stratégie définit ainsi ses missions :

    « France Stratégie contribue à l’action publique par ses analyses et ses propositions. Elle anime le débat public et éclaire les choix collectifs sur les enjeux sociaux, économiques et environnementaux. Elle produit également des évaluations de politiques publiques à la demande du gouvernement. Les résultats de ses travaux s’adressent aux pouvoirs publics, à la société civile et aux citoyens. »

    Elle succède au Commissariat général à la Stratégie et à la prospective, et elle est un lointain successeur au Commissariat général du Plan.

    Beaucoup de ses analyses tombent dans un écologisme parfois quasi radical. Il est d’autant plus remarquable qu’en matière d’énergie, elle tranche avec le politiquement correct. Elle vient de publier une note d’analyse sur la sécurité de l’approvisionnement électrique en Europe à l’horizon 2030 .

    Et ce n’est pas rassurant, surtout qu’en matière industrielle, 2030 c’est demain. Il y a donc peu de chances que la situation puisse être significativement améliorée d’ici là.

    Quelques extraits

    Dès les premières phrases :

    « Dans la prochaine décennie, les nombreux arrêts de centrales pilotables, au charbon ou nucléaires, actuellement programmés et dont les conséquences concrètes semblent assez peu intégrées dans le débat public, pourraient renforcer l’importance de cette question. »

    Et le diagramme introductif dit tout : au niveau européen, la demande en pointe est supposée rester constante à 400 GW ; de 50 GW de surcapacité en 2020 (à condition que tout fonctionne à 100 %,) on passe à 25GW de sous capacité en 2035. Ces chiffres sont en plus optimistes car les puissances par nature sont inégalement réparties géographiquement, comme par exemple l’hydraulique. Or, les distances et les capacités d’interconnexion ne permettent pas de faire n’importe quoi.

    La première leçon est qu’il faut raisonner :

    • au niveau européen, alors que chaque État décide de diminuer ses capacités en espérant se faire dépanner au besoin par les autres.
    • en capacités pilotables, car les producteurs intermittents et aléatoires ne peuvent assurer une quelconque fourniture à la pointe d’hiver. Le soi-disant foisonnement du vent et du solaire sur toute l’Europe est une légende urbaine.

    Mais France Stratégie enfonce le clou :

    En France, on est déjà limite, même en raisonnant en capacité moyenne ; et la pénurie à 2035 est concentrée sur l’Allemagne, la Belgique et la France, c’est-à-dire le cœur du réseau européen.

    RTE essaie de chiffrer les probabilités que l’on soit en situation tendue compte tenu des scenarii de la Programmation Pluriannuelle de l’Energie (PPE). Elles sont loin d’être nulles. On peut donc s’attendre à des périodes d’extrêmes fragilités du réseau. Elles donneront lieu à des coupures coordonnées si tout se passe bien. Mais tout incident, même mineur, peut provoquer le black out en cascade dans une telle situation. La gravité  de cette éventualité est extrême. L’approche devrait donc être sécuritaire, et pas probabiliste.

    Mais ce n’est pas tout.

    « Par ailleurs de fortes proportions d’ENRi complexifient le pilotage des réseaux, comme l’a montré la première période de confinement. L’apparition de congestions de plus en plus fréquentes sur les réseaux, en particulier de distribution, oblige les GRT (les centres de contrôle)  à faire du « redispatching » et à déconnecter sélectivement un certain nombre d’installations (« écrêtement»). Ces opérations sont d’autant plus complexes que les ENR ont priorité d’injection sur le réseau, sont très réparties sur le territoire et peuvent connaître des variations de production très rapides. L’Observatoire Capgemini a rappelé dans son édition datée du 3 novembre 202029 que l’Allemagne et le Royaume-Uni ont subi pour ces raisons des quasi black-out respectivement les 21 avril et 23 mars 2020, en pleine crise de la Covid, les gestionnaires de réseau s’étant trouvés à court de moyens permettant de conserver l’équilibre du système. »

    Comme cela a été maintes fois signalé sur Contrepoints , l’éolien et le solaire , en plus de ne guère contribuer à la production, fragilisent le réseau.

    Sur le plan économique et ses conséquences sur l’investissement, France stratégie observe, comme tous les experts :

    « L’arrivée de quantités massives d’ENRi, avec des coûts marginaux quasi nuls, sans tenir compte des conditions d’intégration au système électrique, a entraîné une chute des prix de marché de gros, de plus en plus souvent négatifs. Ce marché ne permet plus de déclencher les investissements nécessaires à la transition énergétique, ou simplement au maintien d’un accès fiable à l’électricité. »

    Enfin, France stratégie met les pieds dans le plat :

    « Le nouveau cadre européen de gouvernance (de l’énergie) tend à valoriser les investissements vertueux d’un point de vue environnemental, en particulier avec la taxonomie verte. Cependant, pour assurer l’atteinte de ses objectifs, il est essentiel d’assumer ses implications politiques. »

    La taxinomie verte a fait l’objet d’un article ici .

    Traduite en langage clair, si l’Europe veut vraiment poursuivre sa fuite en avant vers les énergies éoliennes et solaires, il faudra dire aux citoyens qu’ils devront baisser leur consommation et au besoin, admettre des coupures d’électricité.

    En conclusion, parmi ses recommandations, France Stratégie ne peut que dire :

    « Les énergies renouvelables matures posent des problèmes spécifiques d’intégration au réseau alors même qu’elles devraient voir à court terme leur part en puissance dépasser celle des centrales conventionnelles. Au risque de rendre non pilotable le système électrique, elles doivent donc le plus rapidement possible être en mesure de contribuer à son équilibre technique (participation à la réserve, au traitement des congestions réseaux […] Au niveau européen, on observe qu’en contradiction avec les objectifs climatiques et d’indépendance énergétique, plusieurs pays européens ont décidé de compenser les fermetures de centrales au charbon ou nucléaires par la mise en service de centrales à gaz, un moyen de production flexible et peu capitalistique. Cela se fait dans l’urgence pour certains (Belgique), de façon plus planifiée pour d’autres (Italie, Allemagne, Espagne) ou de manière prévisionnelle pour d’autres encore (pays de l’est de l’Europe). »

    Il n’y a donc pas que sur Contrepoints qu’on peut lire ça.

    Il est possible que les propos alarmistes distillés depuis quelques mois soient consécutifs à cette étude, et que nos gouvernants découvrent le problème. Mais ce n’est pourtant pas la première fois que France Stratégie tire la sonnette d’alarme.

    Il y a des précédents

    En août 2017, elle a publié une étude sur la transition énergétique allemande , qui est le modèle de notre transition puisque comme eux, nous voulons atteindre plus de 90 GW d’énergie intermittente (ils en sont en fait, maintenant, à 110 GW)

    Une des conclusions est la suivante :

    « La facture présentée au consommateur est très élevée pour la montée en puissance des ENR déjà accomplie, environ 25 milliards d’euros par an sur une durée de vingt ans. Les ENR qui se développent aujourd’hui sont encore soutenues financièrement et des coûts annexes imprévus, mal quantifiés mais très importants, apparaissent pour la construction de lignes et le maintien de la sécurité du réseau. Mais le plus inquiétant à court terme est peut-être la sécurité d’approvisionnement, car le réseau est aujourd’hui fragilisé par des flux massifs non contrôlables et intermittents d’électrons lorsque le solaire et l’éolien tournent à plein. »

    C’était en 2017, peut-être faut-il du temps à un gouvernement pour réaliser… sauf que France Stratégie faisait déjà en 2014 les constatations suivantes dans une étude intitulée « La crise du système électrique européen ».

    Cette étude s’attache plutôt aux conditions de marché, qui sont elles aussi surréalistes. Mais on y trouve :

    « L’’intégration massive d’énergies renouvelables subventionnées et prioritaires sur le réseau conduit à une situation de surcapacité, déprime les prix de l’électricité sur le marché de gros (ils deviennent même parfois négatifs) et dégrade fortement la rentabilité des centrales thermiques à gaz : dans l’UE-27, près de 12 % des capacités thermiques fonctionnant au gaz pourraient fermer en l’espace de trois ans. Or ces centrales sont indispensables à l’équilibre du système qui doit faire face à l’afflux d’ENR intermittentes et aléatoires. Dans le même temps, d’importants investissements sont nécessaires au renouvellement des infrastructures vieillissantes. Plusieurs grands opérateurs, en graves difficultés financières – leur endettement net a doublé au cours des cinq dernières années –, auront du mal à y faire face .

    C’est-à-dire qu’à cause des caractéristiques des ENR, ces programmes de transition  sont tellement irréalistes qu’ils génèrent des conditions de marché qui éjectent les investissements nécessaires à la sécurisation du réseau ; en 2020, on en voit le résultat. On voyait déjà le problème dans les services du gouvernement en 2014.

    Et si on veut chercher les avis des vrais experts, il faut aller en 2012. En vue de préparer la Loi sur la transition écologique, une commission a été mise sur pied . Elle était dirigée par messieurs Grandil et Percebois, experts mondialement reconnus en collaboration avec France Stratégie.

    Elle a fait huit propositions dont la troisième :

    « Ne pas se fixer aujourd’hui d’objectif de part du nucléaire à quelque horizon que ce soit, mais s’abstenir de compromettre l’avenir et pour cela maintenir une perspective de long terme pour cette industrie en poursuivant le développement de Gen-4. La prolongation de la durée de vie du parc actuel paraît donc la meilleure solution (sous la condition absolue que cela soit autorisé par l’ASN) »

    En fait, la loi de Transition énergétique a pris l’exact contrepied des huit propositions !

    Est-ce que ça va changer ?

    Visiblement, les décideurs ont pris peur. Mais c’est juste pour 2023 ! Après ça ira mieux, on pourra arrêter 14 centrales nucléaires ! Pour l’instant, envers et contre tout, on en reste à la stratégie initiale décidée à des fins purement électorales. Contre l’avis de la Cour des comptes, de l’Académie des technologies, de France Stratégie…Un KW d’éolien et de solaire est toujours censé être équivalent à un KW gaz ou nucléaire !

    Évidemment, d’autres organismes gouvernementaux sèment le trouble : l’ADEME s’aligne plus ou moins sur Greenpeace, et RTE reste dans l’ambiguïté.

    RTE vient de publier, en liaison avec l’agence internationale de l’Energie, un rapport  faussement intitulé dans la presse : 100 % d’électricité renouvelable c’est possible.

    En réalité, les aspects économiques et sociaux ne sont pas abordés, et pour cause. Mais que dit le rapport ?

    « Ce nouveau rapport, Conditions et prérequis en matière de faisabilité technique pour un système électrique avec une forte proportion d’énergies renouvelables à l’horizon 2050, met en avant quatre ensembles de conditions techniques strictes, qui devront être remplies pour permettre, avec une sécurité d’approvisionnement assurée, l’intégration d’une proportion très élevée d’énergies renouvelables variables dans un système électrique de grande échelle, comme celui de la France :

    • Même si elles doivent encore faire l’objet d’une démonstration à grande échelle, il existe un consensus scientifique sur l’existence de solutions technologiques permettant de maintenir la stabilité du système électrique sans production conventionnelle. Des difficultés spécifiques pourraient concerner les systèmes comportant une part importante de photovoltaïque distribué pour lesquels il est nécessaire de poursuivre l’évaluation des impacts sur le réseau de distribution et la sûreté du système électrique.
    • La sécurité d’alimentation en électricité (adéquation des ressources) — la capacité d’un système électrique à approvisionner la consommation en permanence — peut être garantie, même dans un système reposant en majorité sur des énergies à profil de production variable comme l’éolien et le photovoltaïque, si les sources de flexibilité sont développées de manière importante, notamment le pilotage de la demande, le stockage à grande échelle, les centrales de pointe, et avec des réseaux de transport d’interconnexion transfrontalière bien développés. La maturité, la disponibilité et le coût de ces flexibilités doivent être pris en compte dans les choix publics.
    • Le dimensionnement des réserves opérationnelles et le cadre réglementaire définissant les responsabilités d’équilibrage et la constitution des réserves opérationnelles devront être sensiblement révisés, et les méthodes de prévision de la production renouvelable variable continuellement améliorées.
    • Des efforts substantiels devront être consacrés au développement des réseaux d’électricité à compter de 2030, tant au niveau du transport que de la distribution. Cela nécessite une forte anticipation et un engagement public en matière de planification à long terme, d’évaluation des coûts et de concertation avec les citoyens pour favoriser l’acceptation des nouvelles infrastructures. Ces efforts peuvent néanmoins être partiellement intégrés au renouvellement des actifs de réseau vieillissants. »

    Autrement dit, c’est presque possible, à condition de résoudre des impasses technologiques et économiques dont tous les experts disent qu’elles ne seront jamais opérationnelles, en tout cas pas à l’horizon 2050.

    Avec des avis comme ça, on n’est pas prêts de changer de stratégie ! Sauf après un black out ?

    • chevron_right

      L’objectif « zéro carbone » : un doux rêve

      Jacques Henry · ancapism.marevalo.net / Contrepoints · Monday, 25 January, 2021 - 04:30 · 3 minutes

    carbone

    Par Jacques Henry.

    Il ne faut pas rêver, une civilisation moderne décarbonée est un objectif impossible à atteindre dans l’état actuel des connaissances scientifiques et technologiques à l’ horizon 2050 et encore moins à l’ horizon 2030 . Cette obsession de la neutralité carbone a conduit les gouvernements à prendre des décisions irréalisables.

    Prenons l’exemple des moulins à vent considérés comme la panacée pour réduire les émissions de carbone. Outre le fait que les ressources en lanthanides nécessaires pour la production d’aimants permanents sont limitées, ces immenses machines nécessitent des quantités d’acier extravagantes pour produire quelques MWs quand les conditions météorologiques sont favorables.

    Dans l’état actuel des technologies de production de l’acier l’utilisation de pétrole ou de charbon est incontournable. La seule alternative existante pour réduire les émissions de CO2 lors de la production d’acier est la réduction de la fonte à l’aide d’hydrogène, pour faire très court car écrire deux pages au sujet de ce procédé industriel serait inutile.

    Apparaît alors le problème de la production d’hydrogène pour décarboner (au moins en partie) les aciéries mais ce même problème se posera pour les voitures équipées de « piles à combustible ». L’industrie de l’acier a une mauvaise image de marque car elle est polluante mais pour construire des éoliennes il faut beaucoup d’acier, sept à dix fois plus par kW installé que pour une centrale nucléaire. Il est donc très facile de comprendre que considérer comme non polluantes en termes de carbone ces éoliennes est un pur mensonge.

    Et ce mensonge perdurera tant que l’industrie sidérurgique ne pourra pas avoir accès à de l’hydrogène à un prix abordable. Il n’existe qu’une seule possibilité pour produire de l’hydrogène à bas coût mais celle-ci ne plait pas trop aux tenants des énergies dites vertes.

    Il s’agit des réacteurs nucléaires à très haute température refroidis avec de l’hélium sous haute pression de génération IV susceptibles d’alimenter une unité de production d’hydrogène mettant en œuvre le cycle dit iode-sulfate dont l’une des étapes requiert une température de 830 °C. Seuls les réacteurs nucléaire à très haute température (environ 1000 degrés en sortie du circuit primaire) sont capables de fournir une telle température à un stade industriel qui soit totalement décarboné.

    On en revient donc au rôle majeur que devra jouer à l’avenir l’énergie nucléaire pour tenter de réduire les émissions de carbone à un coût modéré qui ne soit pas dévastateur pour l’économie.

    À ma connaissance le seul pays au monde développant aujourd’hui ce type de technologie est la Chine. Le Japon s’est fixé un objectif de « neutralité carbone » à l’horizon 2050, la Chine a opté pour l’horizon 2060 car ce pays a pris en compte le poste industriel de production d’acier.

    Pour atteindre une réduction des émissions de carbone suffisante, ce poste n’aura pas d’autre alternative que les réacteurs nucléaires de quatrième génération. Il en est de même pour tous les autres pays industrialisés dont en Europe en particulier l’Allemagne, pays qui, paradoxalement, veut se « dénucléariser ».

    Encore une fois le sujet abordé dans ce billet met en évidence la mauvaise planification des pays européens qui parient sur le « tout renouvelable », une posture totalement déconnectée des réalités industrielles. Gouverner c’est prévoir, dit-on, il faut se rendre à l’évidence que seule la Chine est capable de prévoir…

    Sur le web

    • chevron_right

      Les éléments du progrès : le silicium (4)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 24 January, 2021 - 04:25 · 7 minutes

    silicium

    Par Tony Morley.
    Un article de HumanProgress

    Le silicium est un élément métallique brillant et semi-conducteur utilisé pour la fabrication de l’acier, de l’aluminium, des cellules solaires photovoltaïques et, bien sûr, des puces de processeur d’ordinateur.

    Après l’oxygène, le silicium est l’élément le plus abondant contenu dans la croûte terrestre, représentant près de 30 % de sa masse. Cependant, à l’état de corps simple il ne se trouve pas sous forme pure dans la nature. Il est généralement lié à l’oxygène sous forme minérale.

    On trouve ce type de silicium en abondance sous forme de dioxyde de silicium (SiO2), de quartzite, de quartz, de sable de plage ordinaire et de centaines d’autres composés minéraux.

    C’est le chimiste suédois Jöns Jacob Berzelius qui a été le premier à isoler et à décrire le silicium élémentaire en 1824. Cependant, la capacité d’isoler et de fabriquer en masse du silicium métallique de haute pureté ne sera atteinte que beaucoup plus tard.

    Depuis près de cinq mille ans, l’homme transforme en verre le dioxyde de silicium présent dans le sable , améliorant constamment sa capacité à le faire. La production de verre à base de silicium a transformé notre capacité collective à créer de l’art, de la verrerie, et plus tard à développer l’optique qui allait contribuer à fonder les idées de la révolution scientifique, vers 1540 à 1650.

    L’utilisation du verre dans les premiers instruments scientifiques a révolutionné la compréhension scientifique, contribuant à des découvertes majeures en physique, astronomie, chimie et biologie. Cette révolution s’est poursuivie avec l’avènement du soufflage de verre amélioré et la gamme plus étendue d’instruments plus perfectionnés qu’il permettait.

    L’essor de la révolution industrielle, l’amélioration de la technologie du verre déployée dans les microscopes, les télescopes, les thermomètres et une pléthore innombrable d’instruments de laboratoire, a transformé notre compréhension du monde naturel.

    Le verre continue à rendre un service inestimable au développement de la société industrialisée, qu’il s’agisse du verre haute résistance et résistant aux rayures que l’on trouve dans des milliards de téléphones portables et d’écrans d’ordinateurs, du verre de protection utilisé pour les fenêtres de nos maisons, bureaux et véhicules ou du verre plus courant utilisé dans un million d’autres applications.

    L’humanité produit environ 6,7 millions de tonnes de silicium par an. Environ 80 % sont produits sous forme de ferrosilicium utilisé dans la fabrication du fer et des aciers à haute performance aux propriétés de résistance aux températures élevées et à la corrosion, ou utilisés dans l’alliage avec l’aluminium. L’alliage de l’aluminium avec le silicium améliore sa solidité et sa résistance à la corrosion, tout en améliorant les performances de moulage du métal ; il est couramment utilisé dans le moulage et la production de moteurs.

    Une très petite proportion du dioxyde de silicium de haute pureté extrait chaque année – environ 15 % – est destinée à devenir la matière première des plaquettes qui constituent les unités centrales de traitement des milliards de téléphones portables et de systèmes informatiques.

    Le premier transistor au silicium fonctionnel a été développé en 1954 aux Bell Labs par un physico-chimiste américain, Morris Tanenbaum. Le transistor a été plutôt mal accueilli à l’époque, et peu de gens auraient pu spéculer avec précision sur la façon dont les transistors au silicium allaient transformer radicalement le progrès et la croissance de la société.

    Le silicium polycristallin de qualité processeur (une forme hautement purifiée de silicium métallique) est le matériau de base des plaquettes sur lesquelles sont construites les unités centrales de traitement.

    Cependant, il est courant mais faux de penser que le silicium des puces informatiques est fabriqué à partir du sable d’une plage quelconque. S’il est vrai que les puces de silicium sont fabriquées à partir de sable, il ne s’agit en aucun cas de sable ordinaire.

    Le dioxyde de silicium sous forme de sable remplit nos plages, couvre le fond des deltas des rivières et des océans, et recouvre nos déserts. Cependant, tout le sable d’Arabie saoudite ne fournira pas à la civilisation le silicium nécessaire à un seul microprocesseur. Pour atteindre les niveaux étonnamment élevés de pureté du silicium requis, le matériau source doit lui-même être d’une pureté inégalée.

    Ces sources de dioxyde de silicium ultra-pur sont exploitées dans quelques endroits seulement dans le monde, peut-être plus particulièrement dans un ensemble de petites mines à Spruce Pine, Tennessee. Les mines à ciel ouvert de dioxyde de silicium blanc de haute pureté sont si brillantes qu’elles brillent comme un phare lorsqu’on les regarde depuis Google Earth.

    Une fois exploitée, la roche mère de dioxyde de silicium doit être lavée, broyée, filtrée pour éliminer les impuretés, conditionnée et préparée pour la fusion. Le silicium élémentaire pur doit être libéré des liaisons d’oxygène par une fusion à très haute température dans un puissant four à arc électrique.

    Le dioxyde de silicium est mélangé à deux sources principales de carbone, généralement le charbon et le bois, et placé dans le four, où le carbone ajouté aide à évacuer l’oxygène sous forme de dioxyde de carbone gazeux. On obtient ainsi du silicium élémentaire pur à 99 %.

    Malheureusement, du point de vue du processeur informatique, une pureté de 99 % ressemble à un désert. Ce qu’il faut, c’est un lingot d’une pureté de 99,9999999999999 %. Cela représente un atome de non-silicium pour sept milliards d’atomes de silicium. Cela équivaut à une personne sur l’ensemble de la population humaine.

    Pour atteindre ce niveau de pureté étonnant, le silicium métallique est soumis à une série de processus chimiques. Ces processus convertissent le silicium métallique en tétrachlorure de silicium – un composé nécessaire à la production de verre de fibre optique à haute performance qui transporte 99 % des données de communication intercontinentale du monde par quelque 285 câbles de données sous-marins.

    Le produit secondaire, le trichlorosilane, est ensuite transformé en polysilicium, le silicium ultra-pur qui sera transformé en plaquettes informatiques en silicium. De là, le polysilicium est fondu à haute température et sous atmosphère de gaz inerte, dans un creuset en quartz pur.

    Le creuset en fusion est maintenu en rotation et un cristal germe de silicium ultra-pur est inséré, sur lequel le silicium fondu dans le creuset commence à croître. Au fur et à mesure de sa croissance, le cristal est soigneusement tiré – vers le haut et vers l’extérieur – de la masse fondue dans un mouvement continu extrêmement lent. Une fois terminé, un monocristal de silicium pur a été cultivé, avec une masse d’environ 100 kg, soit 220 livres.

    Les lingots sont découpés avec précision et polis pour obtenir une finition miroir sans défaut. Les plus parfaits de ces disques circulaires de silicium pur sont le support sur lequel est gravée l’architecture des processeurs informatiques des unités centrales modernes. D’autres plaquettes sont transformées en matériau de base des cellules solaires.

    La qualité, la pureté et les propriétés physiques des plaquettes de silicium finies n’ont pas changé de façon spectaculaire au cours de la dernière décennie. Cependant, l’architecture des microprocesseurs gravés sur ce silicium s’est beaucoup améliorée. Le silicium est un exemple parfait de ressource matérielle ayant peu de valeur intrinsèque, jusqu’à ce que l’homme lui confère la capacité d’effectuer un travail utile.

    Au cours des prochaines décennies, le silicium continuera à constituer la base de notre ère numérique. Le silicium témoigne de la capacité de la civilisation à transformer une ressource minérale apparemment sans valeur en l’un des produits les plus avancés technologiquement et les plus précieux que l’humanité ait créés.

    Sur le web

    • chevron_right

      Le retour de la folie hydrogène

      Michel Gay · ancapism.marevalo.net / Contrepoints · Wednesday, 20 January, 2021 - 03:50 · 6 minutes

    Par Michel Gay.

    Puisque la folie de l’hydrogène (H2) revient à la mode avec le plan de relance du gouvernement de septembre 2020 lui accordant 7 milliards d’euros d’ici 2030, voici quelques rappels qui risquent de refroidir les ardeurs.

    Une civilisation hydrogène ?

    Depuis cette annonce, les chasseurs de subventions se lèchent les babines devant ce pactole qu’il s’agit maintenant de s’accaparer au mieux avec des études et des projets pompes-à-fric plus mirifiques les uns que les autres pour faire croire que la France se dirige vers une future « civilisation hydrogène ».

    À l’horizon 2035, le Réseau de transport d’électricité (RTE) envisagerait de remplacer par de l’H2 vert une partie seulement de l’H2 industriel (environ 40 %) déjà produit et utilisé dans la chimie. Celui-ci est aujourd’hui obtenu à partir du gaz naturel méthane par la technique du vaporeformage pour le raffinage du pétrole et la fabrication d’engrais principalement.

    Son usage éventuel comme énergie dans la mobilité pour succéder au pétrole et au gaz n’est pas prévu avant 2050 au mieux.

    Certes, pour le service rendu en termes d’autonomie (supérieure à 600 km) et de rapidité de ravitaillement (quelques minutes), le gaz hydrogène (H2) dit vert  pourrait être le meilleur moyen écologique d’électrifier les transports via une pile à combustible (PAC).

    L’hydrogène est une énergie qui apparaît merveilleuse et futuriste pour succéder aux carburants fossiles (pétrole, gaz, charbon) dans la mobilité et le chauffage depuis… plus d’un siècle !

    En effet, l’hydrogène vert est extrait de l’eau (H2O) avec de l’électricité. En pratique, 11 litres d’eau (ou 11 kg) sont nécessaires pour produire 1 kg d’hydrogène qui permet de parcourir environ 100 km avec une PAC dans une voiture moyenne. L’eau ne manque pas en Europe, et l’électricité verte peut être produite grâce au vent et au soleil intermittents ainsi qu’à l’uranium , tous disponibles pour des millénaires.

    Après avoir brûlé le gaz hydrogène pour se chauffer, ou l’avoir retransformé en électricité dans une PAC, il se recombine avec l’oxygène de l’air pour redonner… de l’eau. Extraordinaire !

    Quoi de plus simple, de plus propre et de plus écologique ?

    Ce serait donc une énergie non polluante disponible en quantité inépuisable.

    Pourquoi ne pas y avoir pensé plus tôt ?

    D’où vient l’hydrogène ?

    L’hydrogène n’est pas une source d’énergie disponible à l’état naturel sur Terre, sauf sous forme diffuse et inexploitable .

    Pour des raisons de coûts, ce gaz est aujourd’hui extrait industriellement du pétrole, du charbon, et surtout du gaz naturel (méthane) qu’il est censé remplacer.

    Bien entendu, le gaz hydrogène n’est un vecteur d’énergie formidable que s’il est extrait… de l’eau !

    Pour produire l’hydrogène vert nécessaire chaque année pour succéder, même partiellement, au pétrole et au gaz dans les transports, la seule solution viable actuellement parmi de nombreux procédés, est selon RTE l’électrolyse de l’eau qui nécessite de produire en amont une électricité décarbonée, abondante, et bon marché.

    Mais ce procédé entraîne une perte de 50 % d’énergie pour obtenir de l’hydrogène à 700 fois la pression atmosphérique (700 bars), et jusqu’à 60 % pour obtenir de l’hydrogène liquide (à moins 253°C), à partir de l’électricité initiale.

    Puis une nouvelle perte de 50 % intervient pour transformer l’H2 en électricité dans une PAC.

    Le rendement global de la production d’électricité initiale jusqu’à l’énergie mécanique fournie « aux roues » en y incluant les pertes diverses (transports, stockages,…) est donc inférieur à 25 % (il y a plus de 75 % de pertes).

    Pour 100 kWh d’électricité produite, le « système hydrogène » en restitue moins de 25 kWh.

    Le coût de l’électricité à la sortie d’une PAC est donc au minimum quatre fois plus élevé que le prix de l’électricité à l’entrée. Sans compter l’amortissement du coût important des électrolyseurs et de la PAC qui peut doubler le prix de vente alors que, dans les mêmes conditions, le « système batterie » en restitue 75 kWh.

    Pour remplacer l’importation annuelle des 50 millions de tonnes de pétrole pour la mobilité en France par de l’hydrogène vert obtenu par électrolyse, il sera nécessaire de produire 600 térawattheures (TWh) d’électricité, en plus des 500 TWh produits annuellement aujourd’hui sur le territoire national, dont 400 TWh par le parc nucléaire.

    Il faudrait donc au minimum doubler le parc nucléaire qui est la seule source d’énergie capable de fournir massivement l’électricité nécessaire à cette électrolyse si le pétrole, le gaz et le charbon font défaut.

    Dans les véhicules ?

    L’hydrogène liquide a été abandonné pour les voitures particulières après diverses tentatives car il est difficile à conserver à moins 253°C (fuites importantes par bouillonnement permanent dans un contenant isolant et volumineux).

    Pour parcourir plus de 600 km en véhicule, le meilleur compromis aujourd’hui est le réservoir d’hydrogène comprimé à 700 bars, associé à une PAC et une petite batterie tampon d’une quinzaine de kilowattheures (kWh), comme dans la Nexo de Hyundai par exemple, dont le prix de vente est d’environ 70 000 euros. Un tel réservoir occupe un volume de 35 litres et pèse 18 kg par kg d’hydrogène contenu.

    Pour la mobilité, un kg d’hydrogène équivaut à environ 7,5 litres d’essence en énergie mécanique aux roues.

    En effet, le rendement de l’énergie mécanique fournie aux roues par l’hydrogène, depuis le réservoir via une PAC, est deux fois supérieur (environ 50 %) à celui de l’essence dans un moteur à explosion (environ 25 %).

    Donc, un kg d’hydrogène contenant 33 kWh « chaleur » fournit la même quantité d’énergie mécanique aux roues (17 kWh) pour mouvoir le véhicule via l’électricité produite par la PAC que 7,5 litres d’essence contenant 68 kWh « chaleur » via le moteur à explosion.

    Il en résulte que le réservoir d’une voiture contenant 10 kg d’hydrogène (permettant de parcourir environ 800 km avec une consommation de 1,2 kg d’hydrogène par 100 km ) représente un volume de 350 litres et pèse 180 kg. Il est donc près de six fois plus gros que le réservoir d’essence (350 litres au lieu de 60 litres) et trois fois plus lourd (180 kg au lieu de 60 kg).

    Mais d’autres inconvénients sont plus ennuyeux, voire rédhibitoires.

    L’hydrogène est difficile à utiliser, coûteux et dangereux

    L’usage du gaz hydrogène en tant qu’énergie est quasiment inexistant au niveau mondial (1 % pour les fusées) car il est difficile à manier, conditionner, transporter, stocker…

    Il est aussi coûteux à exploiter et son pouvoir explosif élevé le rend très dangereux .

    L’économie hydrogène vert en tant que vecteur énergétique ne délivre à l’utilisateur final que 10 à 25 % de l’énergie initialement produite. Il faudra vraiment avoir un besoin impératif d’hydrogène décarboné pour gaspiller autant d’énergie et donc d’argent pour se déplacer et se chauffer.

    Dans ces conditions, en dehors d’opérations publicitaires ciblées et de projets expérimentaux parfois bidons subventionnés par les contribuables, l’hydrogène ne succèdera ni au pétrole ni au gaz naturel (méthane) tant que ces derniers seront disponibles, c’est-à-dire pendant encore un siècle au moins.

    La France s’engagera-t-elle dans cette impasse énergétique et cette gabegie financière ?

    En tant qu’énergie pour succéder aux énergies fossiles, et malgré son aspect séduisant, le gaz hydrogène vert issu de l’électricité renouvelable et nucléaire est une folle solution d’avenir qui le restera longtemps si les Français et les Européens ne veulent pas se ruiner.

    • chevron_right

      Éolien : le vent n’est pas et ne sera jamais rentable

      Michel Negynas · ancapism.marevalo.net / Contrepoints · Monday, 18 January, 2021 - 03:30 · 5 minutes

    renouvelables

    Par Michel Negynas.

    Au départ, il y a plus de vingt ans, est née une fausse bonne idée : le vent est gratuit, et l’exploiter est le moyen le plus vertueux de produire de l’énergie.

    Cela fait partie des rêves écologistes, sympathiques au départ, avec un brin de poésie… mais qui tournent au vinaigre en face des réalités. C’est une situation assez courante, et la réponse de l’ écologisme politique est en général de se perdre dans la dissonance cognitive, c’est-à-dire de compenser par une fuite en avant idéologique ce que lui révèlent les données factuelles.

    Les subventions et les avantages initiaux donnés à la filière ne sont pas, en eux-mêmes, choquants. En effet, pour atteindre des coûts et des performances pérennes, toute activité a besoin d’expérience et d’effet d’échelle… Mais jusqu’à un certain point.

    Ainsi, en France, mais c’est vrai pour les autres pays occidentaux, dans un marché qu’on voudrait libéralisé, l’éolien bénéficie encore des avantages suivants :

    L’obligation d’achat

    C’est l’avantage le plus décisif et le plus étranger à un marché qui se voudrait libéral. Quel que soit le besoin, dès que les éoliennes produisent, le réseau doit acheter cette électricité. Cela oblige les autres producteurs à freiner leurs livraisons, et donc augmente leurs coûts au kWh, puisque leurs frais fixes sont moins couverts. Ceci est particulièrement défavorable au nucléaire, dont les frais fixes sont prépondérants par rapport aux coûts variables du combustible.

    Pire, dans certains contrats, si on oblige les opérateurs à arrêter leurs éoliennes (par exemple si, en été, le vent donne plus que les besoins), les opérateurs reçoivent une contrepartie égale à ce qu’ils produiraient à puissance maximale au prix qui leur est garanti. Ces opérateurs gagnent ainsi plus d’argent à ne pas produire qu’à produire.

    Les surcoûts

    Engendrés par l’intermittence et les caractéristiques technologiques ils sont supportés par le réseau. Comme montré dans un précédent article, ces coûts sont énormes. Par exemple, pour l’ offshore , le raccordement peut représenter 25 % de l’investissement total .

    Les prix d’achat

    Ils ont été longtemps fixés indépendamment de toute référence de marché. Ils sont maintenant soumis au marché, mais avec une compensation entre un prix garanti et le prix spot. Cela aurait pu paraître plus raisonnable, sauf que plus les prix spots sont bas, plus cela coûte à la collectivité. Et on verra que les prix spots seront de plus en plus souvent très bas.

    Les régulateurs

    Sous la pression des opérateurs, ils relâchent les règles sanitaires, sociales et environnementales d’autorisation des installations. Il est en théorie plus simple d’ériger cinq éoliennes de 250 m de haut que de construire un hangar de stockage d’électroménager. Seules les actions juridiques des opposants freinent l’hystérie des autorités et les actions marketing des opérateurs, lesquels sont souvent à la limite de l’éthiquement correct.

    La réalité crève les yeux

    Mais une activité qui a encore besoin d’être soutenue artificiellement après plus de vingt ans, et alors que les coûts sont arrivés à maturité, cela pose évidemment des questions embarassantes. D’autant plus que l’Allemagne nous fournit gracieusement une expérience en vraie grandeur de ce que nous prévoyons, nous aussi, de réaliser. Elle a construit 72 GW d’éolien. Voilà ce que cela donne sur la semaine du 11 au 17 janvier. Tout est en ligne sur le site Energy charts de Fraunhofer :

    L’apport du vent a varié en quelques jours de 40 GW à 4 GW ! Et où est le stockage, maintes fois promis, pour compenser l’intermittence ? Il n’existe pas, et ne sera jamais, et de loin, à hauteur des enjeux .

    Alors, qu’est ce que ça donne sur les prix de marchés (en bourse, pas les prix subventionnés). Eh bien le site de Fraunhofer publie une courbe pour l’année 2020 absolument parlante qu’il convient d’analyser.

    Sur cette courbe, on constate plusieurs éléments factuels :

    • Le réseau de points est bien plus dense entre 0 et 20GW, cela reflète bien que même quand elles tournent, les éoliennes sont généralement loin de leur puissance nominale.
    • Des écarts énormes de prix, de plus 200 euros à moins de 75 euros. Même si ces évènements sont rares, ils dénotent quand même un marché qui dysfonctionne.
    • Une remarquable anticorrélation linéaire entre prix de marché et puissance délivrée par l’éolien ; sans vent on est à 40 euros, un prix probablement très influencé par les prix de cession (imposés) du nucléaire. À environ 60 GW de vent, on est à zéro.

    Cette courbe reflète un raisonnement tellement bête que nos gouvernements successifs ne semblent pas l’avoir compris ; l’ENA prépare à de puissantes circonvolutions sémantiques, pas à des constatations factuelles.

    En effet, à partir d’une certaine pénétration de l’éolien dans le mix, soit il n’y a pas de vent, le prix de marché est élevé car la denrée produite est rare. Mais les éoliennes n’ont rien à vendre. Soit il y a pléthore, et la valeur du produit chute drastiquement car tous veulent vendre. Cela est du à une caractéristique essentielle et constamment occultée de l’électricité : à chaque seconde, la production doit égaler la consommation en tous points du réseau. Or, contrairement au discours des opérateurs d’ENR, généralement, la situation venteuse est la même sur une grande partie de l’Europe, y compris en mer. Il y a très souvent pénurie, ou, a contrario , surproduction. Et plus d’interconnexion ne changera rien.

    Conclusion

    Par nature l’éolien ne peut être rentable dans un marché vraiment libéralisé. Il ne le sera jamais. Il ne produit que lorsque les prix sont inférieurs à ses seuils de rentabilité. Et cela ira de pire en pire : actuellement, l’Allemagne a encore la possibilité d’exporter ses surplus sur ses voisins. Qu’en sera-t-il lorsque ceux-ci en seront au même point qu’elle ?

    • chevron_right

      Les éléments du progrès : le tungstène (3)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 17 January, 2021 - 04:25 · 5 minutes

    Par Tony Morley.
    Un article de HumanProgress

    Isolé pour la première fois en tant que métal en 1783, le tungstène a eu un impact considérable sur le progrès humain. À partir de 1904, il a fourni un matériau métallique à l’éclairage à incandescence. L’intérêt de son utilisation dans les ampoules électriques était tel qu’il n’est supplanté que maintenant par des moyens d’éclairage plus efficaces.

    On ne peut guère exagérer la valeur d’un éclairage propre et peu coûteux. En 1900, quatre ans avant l’avènement de l’éclairage au tungstène, le coût d’un million de lumens/heure de lumière artificielle tournait autour des 285 dollars d’aujourd’hui. Au milieu des années 2000, il était tombé à moins de 3 dollars.

    Les propriétés uniques du tungstène en font un métal d’une immense utilité pratique aussi bien en tant qu’outil que comme matériau incorporé.

    Le tungstène (ou wolfram, d’où son symbole chimique W) a un point de fusion étonnamment élevé de 3414°C. Il est aussi extrêmement dense.

    Ces propriétés lui ont permis d’être utilisé dans un large éventail d’applications industrielles et commerciales notamment dans le domaine aérospatial ainsi que dans les équipements de laboratoires et militaires.

    Les inserts renforcés en carbure de tungstène (un composé chimique contenant à parts égales des atomes de tungstène et de carbone) sont essentiels dans le forage et le broyage par rotation et percussion, contribuant ainsi à fournir à la civilisation humaine du pétrole, du gaz, et des métaux et minéraux d’extraction minière.

    Mais c’est probablement dans l’outillage que le tungstène se montre le plus utile.

    L’histoire des produits manufacturés est celle des machines et de la recherche de procédés de fabrication plus précis et efficaces. Depuis longtemps, nous avons des capacités en génie mathématique et théorique avancés. Malheureusement, il nous manque la faculté de donner corps à beaucoup de nos concepts avant-gardistes.

    L’ère de l’usinage de précision a vraiment commencé en 1776 quand l’industriel anglais John Wilkinson a aidé James Watt à développer un cylindre pour machine à vapeur . Wilkinson avait des connaissances sans équivalent en matière de production d’objets en fer, en particulier les canons.

    Avec un outil de coupe en acier trempé, il a pu tirer d’un énorme bloc de fer un cylindre d’une précision suffisante pour retenir la vapeur sur le piston du moteur.

    Ainsi, Watt a pu considérablement augmenter l’efficacité de sa machine, contribuant ainsi à donner naissance à la révolution industrielle.

    À mesure que celle-ci avançait, progressait notre capacité à produire du fer, de l’acier et autres métaux et alliages très solides, de meilleure qualité et résistants à l’usure. Ces avancées ont créé à la fois des opportunités et des défis techniques.

    Des matériaux plus durs et plus abrasifs, ainsi que des procédés de production et des vitesses de coupe plus rapides, exigeaient des machines-outils d’une dureté, d’une résistance et d’une durabilité maximales

    Les premiers composés de carbure de tungstène ont été développés vers la fin du XIXe siècle et on a continué à les perfectionner tout au long des XXe et XXIe siècles. Les outils au carbure de tungstène permettent de couper plus rapidement des matériaux plus durs tout en réduisant leur remplacement, les temps morts et les coûts associés.

    Les inserts au carbure de tungstène des outils et machines sont créés en combinant du carbure de tungstène et, souvent, du cobalt, réduits en poudre fine avec un liant organique exclusif, le tout finalement fritté, un procédé qui consiste à faire durcir cette poudre sous une température élevée pendant un long moment.

    Les outils de coupe modernes sont fabriqués en compactant sous une pression énorme du tungstène, du cobalt et d’autres matériaux à l’état de traces. Les ébauches compactées sont ensuite portées à une température telle que le liant organique est fondu, laissant alors un outil de coupe ultra dur.

    Après une rectification au diamant pour obtenir les cotes appropriées, les outils de coupe finis servent à de l’usinage à grande vitesse et à la fabrication de pièces de fonctionnement dans des usines et des laboratoires du monde entier.

    Combinées à la Commande Numérique par Calculateur (c’est-à-dire la commande automatisée des outils d’usinage tels que les perceuses, les aléseuses et les tours), les plaquettes de coupe en carbure de tungstène constituent la base mécanique de presque toutes les fabrications de précision du monde – des moteurs à combustion interne aux moteurs électriques des véhicules, des trains d’atterrissage des avions aux turbines électriques qui font marcher notre civilisation.

    En fait, aucun autre métal n’a eu un impact aussi important sur les procédés de fabrication en général.

    De nos jours, les outils de coupe au carbure de tungstène sont utilisés dans la production de pointe des métaux dans tous les pays développés du monde. Les systèmes d’usinage CNC les plus élaborés peuvent régulièrement reproduire des pièces avec des tolérances de précision de seulement +/- 2 microns.

    Si le tungstène n’a pas engendré l’ère de la fabrication mécanique de précision, il lui a néanmoins permis d’atteindre son apogée.

    Sur le web – Traduction par Joel Sagnes pour Contrepoints