LE NUCLEAIRE DU FUTUR…C’EST LES PROMESSES DU PASSE !…UN BEAU PETIT SCANDALE NUCLEAIRE A PARIS…JEUDI 22 NOVEMBRE 2012
Un beau petit scandale nucléaire:
Fondation Ecologie d’Avenir
-Institut de France-
Colloque:
« Le nucléaire du futur »
Jeudi 22 novembre 2012
Collège des Bernardins 75005 PARIS
De 15h à 19h (accueil du public à 14h30)
Entrée gratuite sur invitation.
Un bel exemple de désinformation, pour sûr !
Tiens, bizarre, le public n’est pas convié s’il n’est pas invité !…
LE NUCLÉAIRE DU FUTUR…
C’EST LES PROMESSES DU PASSÉ !
(Contre l’Ordre Atomique)
Démarrage du nucléaire civil.
Le 8 décembre 1953, dans un discours devant l’Assemblée Générale des Nations Unies, Eisenhower présenta une initiative appelée “Atoms for Peace”, l’énergie atomique allait permettre de produire de l’énergie en quantité illimitée et quasiment gratuite, c’était l’annonce du bonheur pour l’humanité et ce… sans risques. Des navires atomiques écumeraient bientôt les océans. Les réacteurs atomiques produiraient de nouvelles techniques médicales, la conservation des aliments par l’irradiation, de la vapeur génératrice d’électricité, ils dessaleraient bientôt l’eau des océans à grande échelle transformant les déserts en prairies.
En août 1955 avait lieu à Genève la première Conférence Internationale pour les Usages Pacifiques de l’Energie Atomique.
Homi Bhabha, physicien indien lauréat du prix Nobel et président de la Conférence, y prédit que la fusion thermonucléaire contrôlée (actuellement projet ITER) synonyme d’électricité illimitée à bas prix, et serait maîtrisée dans les vingt ans. Pour les pays en développement, l’énergie atomique deviendrait un formidable raccourci vers une industrialisation généralisée, et des experts envisageaient des automobiles, des locomotives et des avions atomiques…
À l’origine, le choix des réacteurs a été guidé par leur capacité à produire le plus rapidement possible le plutonium de la bombe atomique, la sûreté de ces premières unités militaires n’était pas une priorité.
Les Américains avaient alors opté pour des piles à l’uranium entourées de graphite et refroidies à l’eau (ancêtres des réacteurs soviétiques RBMK de Tchernobyl). Puis au début de la guerre froide, la propulsion nucléaire des sous-marins devint la nouvelle priorité des Etats-Unis. La rivalité avec l’URSS commanda là aussi, d’aller au plus vite. Parmi une dizaine de configurations différentes de réacteurs, l‘amiral Rickover père du 1er sous-marin atomique jetta en 1949 son dévolu sur le fameux « réacteur à eau sous pression » (REP en français et PWR en anglais), dont 58 spécimens trônent aujourd’hui en France.
Pourquoi ? Eh bien, l’engin promet d’être simple, pour ne pas dire rustique donc rapide à mettre en œuvre, et il est aussi très compact. Dès lors, cette configuration est perfectionnée grace au financement massif de la Navy. Conséquence directe, à l’heure de retenir un type de réacteur civil producteur d’électricité, l’Atomic Energy Commission choisit le REP, pour la simple raison qu’il était déjà fin prêt.
Si les projets de réacteurs présentés dans ce colloque sont qualifiés de “nucléaire du futur” c’est parce que les réacteurs actuels, dont le dernier né français EPR qui est présenté paré de tous les atouts de la nouveauté (encore plus fiable que nos réacteurs précédents qui étaient déjà complètement fiables et plus économes en combustible, etc…), ne sont que les derniers rejetons d’une lignée apparue dans les années 50.
Si en France les réacteurs de la 1ère génération, filière uranium naturel-graphite-gaz dite « UNGG » ont été mis à l’arrêt et sont »en cours » de démantèlement, le passage de la 2ème génération (celle de nos 58 réacteurs) à la 3ème avec l’EPR est entièrement fictif. Par exemple, les gaines entourant le combustible sont toujours en zirconium, un matériau connu depuis fort longtemps pour aggraver la situation en cas de perte du refroidissement du cœur, et justement, le coeur de 1600 MW de l’EPR est encore plus gros et plus difficile à refroidir (que celui de nos autres réacteurs de 900 MW, 1300 MW et 1450 MW).
Le seul changement important de l’EPR c’est la présence d’un “cendrier” pour récupérer le cœur fondu en cas… de catastrophe nucléaire suite à un problème de refroidissement.
Les « réacteurs à eau sous pression » PWR/REP comme l’EPR sont donc toujours fondamentalement de gros producteurs de déchets dangereux, ils sont instables, ils peuvent devenir incontrôlable, ils peuvent fondre, subir une explosion d’hydrogène… et ils consomment de l’uranium dont les réserves exploitables sont très limitées.
Au cours des trois dernières décennies, plus de l % des 430 réacteurs en activité dans le monde ont connu un accident majeur. La fusion du réacteur n°2 de Three Mile Island aux USA en 1979, explosion du réacteur n°4 de Tchernobyl en ex-URSS en 1986, et perte des réacteurs à Fukushima.
On est très loin de l’approche probabiliste de la sûreté qui nous a été vendue par les nucléocrates comme le rapport Rasmussen de 1975 qui évaluait à 5.10-5 la probabilité par réacteur et par an pour qu’un accident par perte du réfrigérant se produise (pour 1 000 réacteurs en service, on pourrait ainsi avoir 5 accidents par siècle par perte de refroidissement).
Au Japon il y a eu des explosions multiples sur 4 réacteurs, des incendies sur piscines de refroidissement, des ruptures de cuves et “syndromes chinois” sur 3 réacteurs avec seulement 54 unités en fonctionnements pendant 40 ans.
Au cours du colloque « Nucléaire, Santé, Sécurité » organisé par le Conseil Général du Tarn-et-Garonne à Montauban en janvier 1988, Pierre TANGUY , l‘Inspecteur Général pour la Sûreté et la Sécurité Nucléaire à la Direction Générale d’EDF, dans son intervention sur » La maîtrise des risques nucléaires « ,donnait les limites de la sécurité des centrales : « Nous faisons tout ce que nous pouvons pour prévenir l’accident grave, nous espérons ne pas en avoir, mais nous ne pouvons pas garantir qu’il ne se produira pas. On ne peut exclure que dans les dix ou vingt ans à venir un accident civil grave se produise dans l’une de nos installations ».
Il précisait, au cours de la discussion qui a suivi son intervention, que si un accident grave se produisait ce serait un accident non prévu. Il relativisait ainsi la pertinence de l’approche probabiliste des accidents dans l’incapacité d’assurer la sûreté absolue des réacteurs.
D’après Giovanni Bruna, expert en sûreté nucléaire à L’IRSN: »les leçons tirées de Three Mile Island et de Tchernobyl, où se mêlaient erreurs humaines et défaillances matérielles*, n’ont pas servi à Fukushima qui a été victime d’une combinaison aussi sidérante qu’imprévisible d’aléas naturels. Le prochain accident devrait suivre un scénario que nous n’aurons pas anticipé : il va falloir imaginer l’inimaginable. »
On est très loin des fameuses trois barrières physiques consécutives (le gainage du combustible, le circuit primaire et le bâtiment réacteur) qui devaient assurer en France le confinement absolu des produits radioactifs en cas d’accident (des accidents qui de toute façon ne pouvaient presque pas arriver).
Après Fukushima, l’approche probabiliste de la sûreté qui prévaut en France et dans le monde est définitivement morte et enterrée !
L’industrie nucléaire en déclin au niveau mondial, tout en affirmant la qualité des centrales actuelles, est face à une contestation croissante depuis Fukushima qu’elle tente aujourd’hui de contourner et de récupérer par des promesses technologiques. Le mythe de la 4ème génération a pour fonction essentielle de créer une perspective d’avenir indispensable pour faire oublier la baisse de la part de production d’électricité nucléaire face aux autres sources d’énergie.
Une sorte d’utopie technologique capable de mobiliser l’industrie (mais aussi paradoxalement, de justifier la construction des réacteurs dits de 3ème génération) dont elle se présente comme le prolongement (enfin sortie des contingences militaires de son enfantement) qui en résoudra les problèmes de sécurité et d’approvisionnement.
Les nucléocrates de ce colloque ont plein d’idées pour nous baratiner, mais ce “nucléaire du futur” n’est rien d’autre que l’avatar modernisé de l’utopie fondatrice du nucléaire “Atoms for Peace”, le rêve d’une énergie inépuisable, sûre et pas chère, paradoxalement ressuscitée par le traumatisme (TMI, Tchernobyl, Fukushima) de l’échec du parc nucléaire actuel à tenir ces mêmes promesses.
* N’importe quelle enceinte de confinement occidentale aurait instantanément volé en éclats avec une explosion de « type Tchernobyl » ! Brian Sheron, directeur de la Nuclear Reactor Regulatory Research à la NRC est formel à ce sujet : l’énergie de l’explosion dégagée à Tchernobyl a été l’équivalent de 75 tonnes de TNT, c’est-à-dire 50 fois plus que le maximum qu’une enceinte de REP serait capable de contenir.
Il n’y a là nul vice de fabrication : les enceintes de confinement sont faites pour résister à une montée progressive en pression correspondant à un début de fusion du cœur, et nullement à une onde de choc. Il faut comprendre par ailleurs que la solidité de l’enceinte de confinement n’est pas une panacée : elle peut éventuellement jouer un rôle négatif. À Tchernobyl, elle a peut-être contribué à accroître l’explosion d’hydrogène. Peut-être qu’une enceinte encore plus solide aurait explosé encore plus violemment, pour le plus grand dommage de l’intégrité des enceintes des réacteurs voisins sur le même site. Richard Webb (1986) cite en exemple la centrale française de Gravelines, qui juxtapose six PWR.
(Extrait du livre « Crépuscule des Atomes », Louis Puiseux, 1986.)
15h00 – présentation par Claude Allègre : Claude Allègre
Lors d’une interview publiée le 21 avril 2011 dans Valeurs Actuelles, Claude Allègre affirmait « qu’il n’y a pas eu de catastrophe nucléaire au Japon. »
Ainsi, à la question du journaliste Frédéric Paya « Pensez-vous que le nucléaire sera remis en question à l’échelle mondiale ? »
Claude Allègre répond : « Rendons aux événements leur juste valeur. Les deux événements majeurs qui se sont produits au Japon sont le tremblement de terre et le tsunami, et rien d’autre ! À Fukushima, il y a eu certes un accident mais il n’y a pas eu de catastrophe nucléaire. On dénombrera sans doute plus de 30 000 morts au Japon, mais il n’y aura vraisemblablement aucune victime du nucléaire. »
Le 6 février 2012 l’ancien Ministre de la Recherche Claude Allègre a reçu à Paris le prix 2011 Atoms for Peace décerné par deux organisations internationales pro-nucléaires (l’Institut International pour une Paix Durable (IISP) basé au Japon et le Conseil Mondial des Travailleurs du Nucléaire (Wonuc) basé en France) pour son rôle dans la préservation et le développement de la filière nucléaire française.
Le géophysicien est distingué pour le rôle important qu’il a joué et continue de jouer grâce à ses publications, interventions, conférences pour la préservation et le développement de la filière nucléaire française, que le monde entier prend pour modèle, selon les deux organisations.
“ Je ne fais pas partie du lobby nucléaire, mais aujourd’hui arrêter le nucléaire, pour la France, ce serait suicidaire” a expliqué l’ancien ministre en marge de cette cérémonie.
15h05 – Introduction Marcel Boiteux:
Comment Marcel Boiteux le « père de l’énergie nucléaire
française » envisageait l’avenir.
Marcel Boiteux, le directeur d’EDF dans les années 70 est considéré comme le « père » de notre électronucléarisation. Dans le journal Le Quotidien du 26 novembre 1974 il indiquait comme perspective du parc nucléaire français:
« cinquante centrales de quatre tranches chacune ». En clair 200 réacteurs !
En 1995, EDF avec ses 58 réacteurs était déjà en surcapacité d’au moins 12 réacteurs pour satisfaire les besoins nationaux.
Marcel Boiteux n’excluait pas l’éventualité du “pire” (l’accident), il l’admettait. Pour lui “Jamais la crainte du pire n’a retardé longtemps l’humanité”. C’est ce genre de personnage qui fit la loi nucléaire en France avec l’accord et même le respect des pouvoirs politiques et l’indulgence des médias.
On a souvent dit que les décideurs technocrates n’avaient pas du tout introduit le problème des déchets dans leur décision. C’est faux, Marcel Boiteux en témoigne.
En 1974 le mensuel Science et Vie publiait la controverse entre le nucléocrate français et le physicien Hennes Alfen (Prix Nobel 1970). La controverse porta en particulier sur le problème des déchets nucléaires. Alfen avançait un argument très fort :
« Le réacteur à fission produit à la fois de l’énergie et des déchets radioactifs : et nous voudrions nous servir maintenant de l’énergie et laisser nos enfants et petits-enfants se débrouiller avec les déchets. Mais cela va à l’encontre de l’impératif écologique : « Tu ne lègueras pas un monde pollué et empoisonné aux générations futures » « . Marcel Boiteux dans sa réponse n’avançait pas que les déchets ne posaient aucun problème. Bien au contraire il avait conscience que ces déchets nucléaires qu’il allait produire, on ne saurait pas les gérer d’une façon satisfaisante. Mais son argumentation est intéressante à noter : « N’est-il pas d’ailleurs une évidente et dangereuse illusion que de vouloir extirper de notre héritage toutes difficultés, toutes responsabilités, que de vouloir transmettre à nos descendants un monde sans problèmes ? ».
Ainsi pour ce décideur laisser un bon paquet de merdes radioactives à nos enfants est une bénédiction pour eux. Un gage pour leur santé mentale.
Les visions de Boiteux sur l’avenir nucléaire français.
C’est ce personnage qui a impulsé le programme français avec son cynisme vis-à-vis des générations futures et son délire de puissance.
Il faut pourtant lui reconnaître une certaine lucidité. Ainsi, dans l’Événement du Jeudi du 6/12/1984, au journaliste qui lui pose la question : « Mais pourquoi les autres pays ont-ils réduit la fabrication des centrales nucléaires ? Je pense aux États-Unis, au Japon, à la Grande-Bretagne. Pourquoi pas chez nous ? »
Il répond cyniquement : « Parce que chez nous le nucléaire est bon marché, alors que dans les pays qui n’ont pas pu pour des raisons diverses résister aux attaques de la contestation, le nucléaire est devenu très cher ».
Si le nucléaire a réussi à se développer d’une façon exceptionnelle en France, ce n’est pas grâce à la qualité de notre technologie, mais parce que l’opinion publique a pu être totalement asphyxié et a laissé les mains libres à la technocratie étatique…
15h20 – Carlo Rubbia “Le nucléaire et son Avenir” :
L’amplificateur d’énergie nucléaire ou Rubbiatron, un réacteur capable de rendre actifs le thorium 232 par accélérateur de protons du nom de son gourou italo-français, ou encore projet Bowman outre-Atlantique. Dans une cuve de réacteur de 600 MW remplie de plomb fondu (choisi pour sa faible capacité à réagir aux neutrons), circulent dans des gaines les matières fissiles, dans d’autres des matières fertiles, dans d’autres encore des produits de fission ou d’activation à transmuter, le tout à l’état de sels fondus. Dans la cuve, plonge le canon d’un accélérateur qui bombarde le plomb de protons, les noyaux heurtés éclatent en plusieurs morceaux (spallation) et crache des neutrons (nécessaires à initier les réactions de fission) sur les gaines de produits fissiles-fertiles-produits de fission. Même que la réaction est sous-critique et ne risque pas de s’emballer, garantie dans le texte («Nous n’avons pas ce genre de souci avec l’amplificateur d’énergie, avance Robert Klapisch, physicien nucléaire associé au Prix Nobel dans cette entreprise.
Nous nous situons en dessous du régime critique.» (en clair, ici, le processus nucléaire se révèle incapable de s’auto-entretenir.). L’évacuation de la chaleur est passive, pas de pompe (quand on sait que dans un réacteur français de 1300 MW circulent 25 m3 d’eau par seconde pour évacuer l’énergie). Les produits en sel fondu circulent de l’intérieur de la cuve vers l’extérieur. En ligne sur le circuit, une chaîne de séparation chimique avancée pratiquant une séparation parfaite de tous les éléments (sachant qu’aujourd’hui on arrive difficilement à séparer le plutonium de l’américium). Mieux encore, en ligne sur tout ceci, une chaîne de séparation isotopique avancée, pour ne pas réintroduire d’éléments stables dans le circuit, et réinjecter chaque sel dans les bonnes gaines, oui, oui, une chaîne par élément ! Un super « La Hague » doublée d’un super « Eurodif » par réacteur et le tout miniaturisé. Incroyable !
Il n’est pas précisé si l’installation produirait plus d’énergie qu’elle n’en consomme ou inversement, ni quel pourrait être son prix. Mais on nous affirme que ce procédé nous approvisionnera en électricité pendant « cent mille ans » !!! Absolument incroyable. Les scénaristes d’ »X-files » après une nuit entière à fumer des pétards n’auraient pas pu trouver plus délirant.
Les seuls réacteurs au plomb utilisés jusqu’à présent l’ont été au sein des sous-marins d’attaque soviétiques dont deux au moins ont connu un accident nucléaire grave. Le plomb s’avère extrêmement corrosif pour les structures du réacteur et, en plus, il rend très difficile toute inspection des circuits.
Carlo Rubbia bien que prix Nobel, est considéré par nombre de scientifiques comme prenant ses désirs pour des réalités, du genre à inventer l’avion renifleur si le coup n’avait pas déjà été fait.
16h00 – Jacques Bouchard “Le nucléaire du futur
et la 4ème Génération” :
C’est Jacques Bouchard le Directeur des Applications Militaires du CEA, qui avait laissé filtré au printemps 1995, lors de son voyage aux Etats-Unis, la nouvelle que les essais français allaient reprendre sous la présidence de Jaques Chirac, mais encore mieux…
Journal Le Monde, 22 juillet 1995 “Mururoa à domicile”, par Jacques Isnard :
Le journaliste Jacques Isnard, rédacteur de la rubrique “Défense et Armée” du Monde, s’étonne de l’énormité de “l’aveu” prononcé par Jacques Bouchard devant la Commission de la Défense, mais aussi du manque de réaction de l’opinion publique […] le directeur des applications militaires (DAM) au Commissariat à l’Energie Atomique (CEA) a répondu à Pierre Favre, député UDF de la Gironde, que la France pouvait procéder à des essais de faible puissance sur son propre sol, “y compris en métropole”, et non pas dans les seuls atolls polynésiens.
Le directeur de la DAM parle même, à propos “d’essais de très faible énergie (quelques tonnes de TNT)”, de possibilités de “camouflage”. Sans trop l’avouer publiquement, toutes les grandes puissances nucléaires souhaitent maîtriser cette technique en dehors des accords d’interdiction des essais. Il n’a pas précisé cependant où il proposerait les tirs souterrains “en métropole”, peut-être en Corse dans le désert des Agriates ???
À propos 4ème Génération…
Question: pourquoi n’y a-t-il pas dans les multiples spécialistes intervenants dans ce colloque de spécialiste d’ITER ? Est-ce parce que tout le monde sait qu’ITER ne mènera à rien ???
Il est préconisé d’étudier des réacteurs à haute température (utilisant le couple l’hélium/graphite) qui porterait le rendement des centrales des 33% actuels à 50 %). Des métallurgistes imaginent les alliages susceptibles de résister à des liquides radioactifs circulant à plus de 600°C à environ un mètre par seconde dans des réacteurs à sels fondus (alors que l’on n’est même pas capable de trouver des solutions aux problèmes métallurgiques posés actuellement par les cuves de réacteurs fissurées, les gaines de combustibles qui fuient ou la corrosion de l’alliage Inconel des réacteurs actuels (REP) fonctionnant à une température de 320°C).
Les différentes filières haute température sont :
- réacteur à très haute température.
- réacteur à sels fondus.
- réacteur à eau supercritique (c’est le principe des réacteurs actuels avec de l’eau plus chaude et encore plus de pression, donc les mêmes problèmes que maintenant en pire…)
- réacteur à neutrons rapides à caloporteur sodium, ou gaz, ou plomb.
- réacteur hybrides ou Rubbiatron piloté par accélérateur.
Pour réaliser un Réacteur à Haute Température, il faut d’abord disperser le combustible, afin de faciliter la circulation de la chaleur produite.
La solution ? Remplir le cœur du réacteur de quelques milliards de microbilles contenant des oxydes d’uranium ou de plutonium, noyées dans du graphite sous forme, de billes. Ne reste alors plus qu’à baigner ces assemblages dans un flux d’hélium sous pression, à collecter ce gaz ainsi réchauffé à plus de 800 C dans une turbine ad hoc, et de connecter celle-ci à un alternateur.
Si les grandes options techniques des RHT sont aussi nettement arrêtées, c’est qu’elles bénéficient d’études entamées… dès la fin des années 50, et de 1965 à 1972 plusieurs versions d’un même réacteur nucléaire pour fusée baptisé “kiwi” vont donc être testés à l’air libre sous l’égide de la Commission de l’Energie Atomique Américaine (ancêtre du Department of Energy) dans le désert du Nevada et largement polluer toute la zone de test.
L’hélium (gaz caloporteur) circule dans des structures de graphite, stocké à l’état liquide dans un énorme réservoir maintenu à 180 °C, il passe en sortie de réacteur à plus de 2000 °C à peine deux mètres plus loin ! Enfin de programme, les records s’empilent : une poussée de 90 tonnes, des pièces portées à 2 750 °C, pour une puissance de 4 000 mégawatts concentrée dans un mètre cube.
Malgré cet impressionnant palmarès, aucun réacteur ne tutoie les étoiles à cause de l’interdiction des essais atomiques aériens, et le programme est abandonné en 1973. Qu’importe, preuve est faite des capacités de la filière hélium/graphite.
L’hélium est un candidat idéal, neutre et transparent pour les neutrons. Sa seule faiblesse, la fâcheuse tendance de sa molécule à prendre la fuite. Très légère, elle se faufile à travers les joints d’isolation les mieux conçus. Or, si le caloporteur s’échappe de la cuve du réacteur, c’est au risque de laisser la température du cœur atteindre des limites dangereuses. Mais ce serait oublier les qualités de l’autre moitié du couple : le graphite. Son excellente conductivité thermique combinée avec la grande taille de la cuve (la faible densité de l’hélium impose de grands volumes) garantissent une évacuation passive de la chaleur résiduelle particulièrement efficace, en cas de perte du gaz réfrigérant. Magique on vous dit.
Les microbilles ont montré une “extraordinaire résistance” aux températures les plus élevées (cas d’accident). Lors de tests à 1 600 °C, les bille empilées qui enferment oxydes d’uranium ou de plutonium ne présentent pas, statistiquement tout au moins, de fissures significatives. Statistiquement, car le procédé de fabrication des microbilles comporte inévitablement (sur une série de plusieurs milliards) des défauts aléatoires. Ce projet dépend aussi de l’incapacité ultérieure à retraiter les microbilles de combustible déchargées du réacteur, qui suite à leur haut taux de combustion et à cette “extraordinaire résistance” deviennent un gros inconvénient conduisant au stockage direct du combustible irradié (qui n’est pas pratiqué en France, voir La Hague/cycle du combustible).
Sauf quelques prototypes aux Etats-Unis, en Allemagne, au Japon, l’aventure n’est guère allée plus loin pour l’instant.
Pourquoi ? C’est que, pour arriver à un bon niveau de sécurité, il faudrait construire un réacteur aux dimensions titanesques. « C’est une véritable usine à gaz ; très difficile à exploiter« , regrette Giovanni Bruna, de I’IRSN. De surcroît, personne ne sait non plus comment gérer le graphite irradié.
16h30 – Christophe Béhard “Les réacteurs de la 4ème génération.
La recherche et développement faite en France” :
Le réacteur de 4ème génération c’est le retour des surgénérateurs de type SuperPhénix…
En France la recherche de nouveaux réacteurs s’oriente (projet Astrid qui doit démarrer à Marcoule dès 2017) vers les réacteurs à neutrons rapides refroidis au sodium appelés aussi surgénérateurs dont Super Phénix aujourd’hui arrêté fut le symbole de l’échec cuisant. Le sodium liquide des surgénérateurs explose au contact de l’eau et prend feu au contact de l’air.
Sur les 7 surgénérateurs producteurs d’électricité qui avaient déjà fonctionné fin des années soixante-dix, trois (EBR1 – fusion de 40 à 50 % du coeur, Fermi I, proche de l’explosion nucléaire, voir le livre “On a failli perdre Detroit”), BN 350 – incendie et explosion de sodium) ont eu de graves accidents, proportion jamais vue dans aucune autre filière.
A la différence des centrales nucléaires “conventionnelles” (comme nos REP), et à l’inverse de tout ce qui a été déclaré par la propagande officielle, les surgénérateurs peuvent, par accident, exploser à la façon d’une bombe atomique “artisanales”. En effet, ils peuvent étre le siège d’une réaction en chaîne dite “surcritique prompte en neutrons rapides”, particularité que seule la bombe atomique possède également. Evidemment personne ne parle jamais d’explosion atomique cela ferait trop peur, en langage de nucléocrate on parle “d’excursion nucléaire”.
Les travaux réalisés au CEA dans les années 70 ont démontré que la filière « rapide » ne faisait qu’augmenter au final la quantité de plutonium et d’actinides mineurs.
Rappel : le programme électronucléaire français des années 70 prévoyait sur les 200 réacteurs en l’an 2000 que 30% de ces réacteurs seraient de type SuperPhénix. Valéry Giscard d’Estaing est allé jusqu’à déclarer sur Europe 1, le 25 janvier 1980 que, grâce au surgénérateur, on aurait un gisement énergétique équivalent à celui de l’Arabie Saoudite en territoire français.
SuperPhénix comportait 35 tonnes de combustible nucléaire dont 5 tonnes de plutonium, sachant que 1/1 000000 ème de gr de plutonium inhalé suffit à provoquer un cancer et que 8 kilos sont suffisants pour faire une bombe atomique de type Nagasaki.
17h00 – Daniel Heuer “Thorium et sel fondus” :
Pour la filière Thorium (qui engendre sensiblement la même quantité de produits de fission que le cycle de l’uranium 235), comment trouver des matériaux capables de résister sur le long terme aux effets combinés des radiations, d’une éventuelle corrosion liée aux impuretés du liquide et de la très haute température présente dans le cœur (800 °C contre 320 °C dans un réacteur actuel).
On peut aussi avoir une certaine appréhension à l’idée que la matière fissile va « se balader » dans l’ensemble des circuits, échangeurs de chaleur et autres pompes. La maintenance deviendrait à haut risque pour les intervenants et ceux qui proposent l’utilisation du Thorium n’ont qu’à se proposer pour venir y travailler, ils pourraient ainsi profiter des « nombreux avantages » de cette solution…
Car le premier problème de la filière Thorium c’est la radioprotection. Le thorium 232 est un émetteur alpha très radiotoxique. Il est considéré comme presque 3,3 fois plus radiotoxique que le plutonium [CIPR 90].
Le modèle biocinétique du thorium est décrit dans la Publication 69 de la CIPR (1994). La pénétration du thorium dans l’organisme peut se faire par ingestion ou inhalation de poussières, plus rarement par blessure. Absorbé dans le sang, le thorium a pour principaux sites de dépôt, le foie et le squelette. Il se fixe dans l’os à raison de 60% de la quantité inhalée ou ingérée par l’individu. Chez l’enfant, l’assimilation par l’organisme est 4 à 8 fois supérieures à celle de l’adulte, ce qui se traduit par une plus grande fixation osseuse.
http: //www.irsn.fr/EN/Research/publications-documentation/radionuclides-sheets/Documents/Th232SAN.pdf
Le thorium est également dangereux en raison de sa chaîne de décroissance. Les descendants du thorium 228 qui ont des périodes courtes s’accumulent rapidement. Ils comprennent le radon 220 (thoron), un gaz qui relâche des particules alpha ; puis le bismuth 212 et le thallium 208, qui émettent des rayons gamma de haute énergie. Quarante ans après la séparation du thorium de son minerai porteur, le thorium 232 et ses descendants sont cinq fois plus actifs que le thorium 232 et 228 au moment de leur séparation. http://www.francenuc.org/fr_mat/thorium_f.htm
Son deuxième problème c’est peut-être les militaires.
Un éminent expert du Commissariat à l’Énergie Atomique a trouvé le moyen de se vanter que l’uranium 233 obtenu par fertilisation du thorium 232, « c’était nettement mieux que le plutonium pour faire des bombes ». On savait déjà que la recherche sur les réacteurs à thorium 232 uranium 233 avaient été abandonnés pour cause d’instabilité due à une activité neutronique trop élevée.
Mais ce qui est un défaut pour un réacteur civil peut être une qualité pour une bombe (à neutrons renforcés ?). Ça pète mieux, il y a donc moins de matière fissile, ce qui permet de produire des engins de plus petite puissance (cela permettrait les prétendues frappes décapitantes, que mentionne le Livre Blanc sur la Défense) ; il n’y a ni plutonium ni autres transuraniens, radioéléments des plus toxiques ; cela laisse une pollution moindre, les militaires diraient une « bombe propre ».
17h30 – Bernard Bonin “Les microréacteurs” :
Pour des raisons économiques, l’industrie a conçu des unités toujours plus grosses, tel l’EPR et ses 1600 MW. Or, un petit cœur de réacteur, moins puissant est plus facile à refroidir, il offre une plus vaste surface d’échange thermique au regard de son volume. À tel point que les concepteurs de mini réacteurs (moins de 300 MW) assurent pouvoir se passer de l’injection d’eau froide !
Ils pouraient servir sur un “marché de niche” fondé sur la co-génération, électricité- chauffage urbain dans les régions du Nord ou électricité-dessalement d’eau dans les régions du Sud. Des investisseurs comme Bill Gates ou Toshiba sont attirés.
Comme va probablement l’expliquer Bernard Bonin
voir:http://www.visiatome.fr/Local/visiatome/files/399/Bernard.Bonin.Les.petits.reacteurs.modulaires.pdf)
Les Russes construisent déjà des microréacteurs dérivés de la propulsion navale comme ces 4 réacteurs graphite-eau bouillante de 11 MWé chacun qui fonctionnent depuis 1976 à la centrale de co-génération de Bilibino (Sibérie) et produisent à la fois de l’électricité et de l’eau chaude pour le chauffage urbain, pour un coût inférieur à l’alternative “combustibles fossiles”.
C’est très rassurant eu égard à l’intérêt que l’ex-Union Soviétique a toujours attachée à la sécurité de ces centrales et à la santé de ses habitants… mais comme Bernard Bonin ajoute plus loin dans son exposé que: “En cas de fusion du coeur, la quantité de corium produite serait faible → facile à refroidir, peu de dégâts → peut-être pas besoin de récupérateur de corium”. On est donc tout à fait rassuré et convaincu !
Pour autant, des unités de petite taille rendraient-elles le nucléaire plus sûr ? Comme le fait remarquer Giovanni Bruna (IRSN), »une grande série de miniréacteurs serait vulnérable à la même inondation par exemple regardez Fukushima. Est-on sûr que cela ne produira pas des problèmes nouveaux, et peut-être graves, par simple effet de proximité. De plus multiplier les sites nucléaires demanderait à l’opérateur des moyens de surveillance décuplés, sans parler des risques de prolifération…”.
Ensuite, les réacteurs nomades de petite puissance n’ont absoluement rien de neuf ! Ils ont été développés depuis longtemps pour la propulsion navale (atomes pour la guerre), porte-avions, sous-marins, brise-glaces atomiques ou navire de commerce. C’est environ 240 réacteurs nucléaires de plusieurs pays (URSS,USA, France,Chine, Inde…) qui naviguent sur les océans (à comparer aux 440 réacteurs nucléaires civils qui produisent de l’électricité sur la terre ferme). Ces réacteurs “marins” ont largement fait leurs preuves au niveau des fuites, des accidents graves, et même… de l’explosion nucléaire (le K- 314 soviétique le 10 août 1985).
Au final, les bénéfices réels sont loins d’être évidents, mais c’est vrai que par souci démocratique tout le monde devrait avoir droit à son petit Tchernobyl, même si l’on vit loin de tout dans une région très isolée du monde.
Suggèrons aux organisateurs de ce colloque de relancer un autre projet du passé “Thermos” un “microréacteur”
100% français de 100 mégawatts thermiques qui pouvait faire de la cogénération (électricité + chauffage urbain), décentralisé en fonction des lieux de consommation (grandes villes) et implanté au plus près des consommateurs (peu de perte en ligne). Une vraie merveille…
Voir http: //www.dissident-media.org/infonucleaire/thermos_sv.html
18h00 – Bernard Salha “Enjeux technologiques de la durée de
fonctionnement des réacteurs nucléaires et perspectives pour
les nouveaux développements” :
Quant à Bernard Salha, on voit qu’il a une vision très réaliste des choses du nucléaire, pour l’EPR il déclarait dans
Le Figaro, 3/12/2007:
“ La construction de l’EPR est prévue sur cinquante-quatre mois, un planning ambitieux mais que nous considérons comme réaliste et soutenable ”, expose Bernard Salha, directeur de la division ingénierie nucléaire d’EDF.
« L’EPR de Flamanville, doté d’une puissance de 1 650 MW, est prévu pour être opérationnel en 2012, après une année complète d’essais. Le montant total de l’investissement est évalué à 3,3 milliards d’Euros. Il n’y a pas ou peu de risque de dépassement budgétaire car tous les grands contrats ont déjà été finalisés ”, souligne Bernard Salha. »
En fait le projet a pris 4 ans de retard, et son coût a quasi doublé!
http://www.usinenouvelle.com/article/epr-le-chantier-de-flamanville-partiellement-interrompu.N169921
Prolonger la vie des centrales nucléaires
La propagande d’EDF a longtemps utilisé l’image des matriochkas, ces poupées russes qui s’emboîtent, pour décrire les trois barrières consécutives qui devaient assurer le confinement absolu des produits radioactifs en cas d’accident majeur. Ces trois barrières sont : le gainage du combustible, le circuit primaire et le bâtiment réacteur. Cette notion de troisième barrière a vécu (même à EDF), aussi un palliatif a été imaginé (en France on a des idées) pour faire chuter la pression dans le bâtiment réacteur (et éviter en situation accidentelle une brèche ou même la destruction de l’enceinte) en laissant partir les gaz radioactifs du coeur surchauffé à travers un filtre à sable destiné à piéger une partie des iodes…
Les défauts répertoriés dans la technologie nucléaire
- Les matériaux des installations nucléaires sont soumis à des conditions très dures : contraintes de pression, températures élevées, cyclages thermiques, flux intenses de neutrons. Les qualités métallurgiques des aciers et alliages résistent mal à ces contraintes et se détériorent notablement au cours du vieillissement des installations. De plus, les grandes dimensions des équipements ne permettent pas de garantir les mêmes qualités que celles qu’on peut obtenir en laboratoire sur des échantillons de petites dimensions.
Les études de tenue des matériaux aux conditions de fonctionnement très dures des réacteurs nucléaires ont été trop superficielles notamment en ce qui concerne la durée de vie des réacteurs pour pouvoir garantir une fiabilité suffisante.
Des études correctes auraient mis en évidence l’impossibilité de réaliser une telle fiabilité. Par exemple ce n’est qu’en fin de vie d’une cuve de réacteur que l’on peut analyser comment les défauts métallurgiques inhérents à la fabrication de la cuve se sont comportés sous irradiation et les comparer aux échantillons de petites dimensions qui servent de contrôle. Mais les résultats obtenus sur une cuve particulière ne peuvent être étendus à une autre cuve dont les conditions de fabrication auront été différentes. Ces études ne peuvent fournir que des indications, jamais de certitude. Encore faut-il que cette « fin de vie » ne soit pas une catastrophe !
La volonté de lancer rapidement et d’une façon irréversible le programme d’électronucléarisation massive de la France, a favorisé les techniciens ultra-optimistes se satisfaisant d’études partielles et rudimentaires, les techniciens plus rigoureux étant destinés à la « mise au placard ».
Monsieur Pierre Tanguy découvre en 1991 cet aspect de la sûreté nucléaire dans son « Rapport de l’Inspection Générale pour la Sûreté Nucléaire (EDF) ». A la page 9 on peut lire : » Certains problèmes que nous avons rencontrés ces dernières années peuvent se relier à un manque de curiosité des équipes qui doivent apporter un soutien technique à l’exploitation, un excès de confiance chez nos experts, et une détermination insuffisante dans les études et réalisations « . Il s’agit là d’un manque manifeste de ce que P. Tanguy appelle la « culture de la sûreté ».
- Des erreurs de conception.
Depuis quelques années il apparaît que de nombreuses erreurs de conception ont été commises pour la construction des réacteurs. Ce n’est pas forcément la compétence technique qui dans ce cas est en cause. Il s’agit là, pour certains techniciens, de leur incapacité à envisager que les problèmes pourraient être plus complexes que ce qu’ils croient et que dans certaines situations il n’y a peut-être pas de solution qui satisfasse de façon rigoureuse les critères de sûreté absolue qu’il est nécessaire de remplir compte tenu de l’ampleur des dégâts que peuvent causer les accidents nucléaires graves.
- La nécessité de réduire les coûts de production a conduit à adopter des procédures de fabrication insuffisamment testées. Les remèdes technologiques se sont à plusieurs reprises révélés pires que les défauts que l’on voulait corriger.
L’industrie nucléaire a été présentée à l’opinion publique comme parfaite, la technologie nucléaire étant synonyme de référence de perfection. C’était ignorer les contraintes industrielles sur les coûts et les délais qui réagissent directement sur l’orientation des recherches technologiques et le comportement des techniciens. C’était ignorer l’ampleur et la complexité des problèmes à résoudre notamment en métallurgie.
- Absence de maîtrise des problèmes métallurgiques.
Études insuffisantes, mauvais choix de matériaux et des procédés de fabrication illustrent la précipitation dans le démarrage du programme électronucléaire français. Depuis quelques années le manque de maîtrise des problèmes métallurgiques a été mis en évidence. Donnons pour exemple les phénomènes de corrosion sous contrainte de l’alliage « Inconel 600″ responsables des fissurations observées sur certains éléments du circuit primaire essentiels du point de vue de la sûreté.
Citons à nouveau Pierre Tanguy dans son rapport de 1991 : » Le deuxième exemple est celui de l’Inconel 600 dont on peut se demander si la confiance imperturbable qu’ont contribué à lui attribuer les experts, tant à EDF qu’à Framatome d’ailleurs, malgré tous les déboires qu’il a entraînés, reflète bien cette attitude interrogative que l’on attend des individus, et si ce n’est pas plutôt un refus de se remettre en cause et d’admettre qu’on a pu se tromper (…) ou n’y a-t-il pas là une lacune dans la culture de sûreté de nos experts » (page 71).
- Des fissurations importantes ont été trouvées sur des parties critiques du réacteur: les lignes de vapeur principales du circuit secondaire, les tubes de générateur de vapeur, les adaptateurs des couvercles de cuve. En décembre 1996, il a été fait état au Conseil Supérieur de la Sûreté et de l’Information Nucléaire (CSSIN) de fissurations sur les protections thermiques des pompes primaires. C’est un point faible sur nos réacteurs, très préoccupant du point de vue de la sûreté car il peut conduire à une perte de réfrigérant du circuit primaire.
- Des anomalies sur les grappes de commande.
Elles doivent être citées comme faisant partie des avatars récents et très sérieux. Ce sont en effet les barres de contrôle, qui, en chutant rapidement dans le coeur du réacteur sont censées calmer la réaction en chaine en cas d’accident. Or des blocages de grappes ont été constatés et pour certains incidents l’origine des anomalies est inconnue.
- L’acier des cuves de réacteur.
L’acier des cuves est caractérisé par une température de transition : au dessus de cette température l’acier est ductile (non fragile) et en dessous de cette température, il devient cassant. Il faut toujours maintenir la cuve en zone ductile. Au départ cette température de transition fragile-ductile est très basse, -20°C. Quelles que soient les conditions de fonctionnement l’acier est donc toujours au dessus de – 20°C dans la bonne zone (non fragile).
Sous irradiation neutronique l’acier des cuves vieillit mal car il se fragilise : au cours des ans (et donc de la quantité de neutrons qui ont frappé la cuve) les qualités de l’acier évoluent à cause des défauts créés par irradiation et la température de transition s’élève. Lorsqu’elle atteint 90°C la cuve devrait, d’après les estimations des experts officiels, être en fin de vie car elle résisterait mal à des chocs thermiques.
Cela veut dire que si la température de la cuve descend rapidement en dessous de 90°C [comme ce serait le cas en situation d'urgence lors d'un abaissement brutal de température par aspersion d'eau] des fissurations peuvent se propager rapidement dans l’acier devenu fragile et aboutir à la fracturation de la cuve. Or pour certains réacteurs (Fessenheim-1 et Bugey-5) la température de transition ductile-fragile serait voisine de 90°C après 20 ans seulement de fonctionnement.
- Des barres d’ancrage antisismiques qui sont desserrées, des bétons qui fluent, la qualité nucléaire fait défaut dans de nombreux endroits. Il n’est pas possible de faire rapidement un inventaire exhaustif de tous les problèmes qui sont apparus sur les réacteurs, signe d’un vieillissement prématuré alors qu’EDF a en projet de faire durer ses réacteurs pendant 40 ans (lire “Quand EDF prend ses désirs pour des réalités”), certains envisagent même d’aller jusqu’à 60 ans…
- La situation psychologique dans les centrales nucléaires est
très préoccupante.
Les contraintes économiques imposées par le management du nucléaires conduisent de plus en plus à l’utilisation de sous-traitances à plusieurs niveaux et de ce fait difficilement contrôlables, à des comportements négligents vis-à-vis de la sécurité pour améliorer la rentabilité, à un dialogue de plus en plus difficile entre les directions et les employés EDF ce qui peut conduire à des actes de malveillance (sabotage) ressentis comme seule alternative à une situation conflictuelle.
18h30 – Luc Oursel “Conclusion” :
Luc OURSEL qui a été nommé, par Nicolas Sarkozy, Président d’AREVA a également été nommé Président de la SFEN (dont il était Vice-Président).
La SFEN (Société Française d’Énergie Nucléaire) est un “club” de fanatique du nucléaire, Francis Sorin (alors directeur de son pôle information) déclarait dans l’Yonne Républicaine (4/12/2004) à propos de Tchernobyl :
Quelles sont, selon vous, les conséquences de l’accident
nucléaire sur les populations ?
« De très nombreuses études et enquêtes de terrain sont menées depuis bientôt vingt ans dans de très vastes régions autour de Tchernobyl, auprès des populations affectées par l’accident ainsi que des liquidateurs. Nous ne pouvons en exposer les résultats et nous nous bornerons à en rapporter les principales conclusions : outre les 39 décès enregistrés parmi les personnes présentes les premiers jours sur le site même du réacteur, et 95 cas de forte irradiation, la conséquence la plus marquante de l’accident a été une nette augmentation des cancers de la thyroïde chez les enfants qui avaient moins de 15 ans au moment de l’accident. 2 000 cas ont été recensés. Heureusement, le taux de guérison de ces types de cancers est important. Il est évalué entre 70 et 95 % des cas, selon l’apparition de complications éventuelles.
La très légère augmentation des leucémies enregistrée auprès des liquidateurs et des populations riveraines était déjà constatée dans la région depuis le début des années 1980, soit six ans avant l’accident, et ne saurait donc être tenu pour une conséquence directe de celui-ci. S’il existe un effet – qu’il ne faut pas écarter a priori – il reste faible en tout état de cause.
On peut en dire autant des cancers solides, dont les études indiquent qu’aucun excès n’a été clairement constaté, ainsi que des malformations congénitales. Celles-ci existent de façon “naturelle”, comme partout ailleurs, avec des taux variant de 2 à 6 % selon les régions. Les attribuer à Tchernobyl, comme certains le font sans vergogne à travers des documents photographiques ou des reportages filmés prétendument “révélateurs”, est une tromperie.
Pourquoi, alors, faire courir une telle rumeur ?
N’existe-t-il pas quand même des risques ?
Si l’accident a été un drame pour les populations résidentes (avec l’apparition incontestable de pathologies notamment psychosomatiques avec troubles cardiaques, maladies digestives, anxiété), il reste que les hécatombes annoncées par les marchands de peur peu scrupuleux n’ont pas eu lieu et que les allégations de Wladimir Tchertkoff ne reposent sur aucune base crédible.
En fait, si les opposants au nucléaire – tout au moins certains d’entre eux – se complaisent à faire “ courir la rumeur ” à propos de Tchernobyl, c’est parce que l’excellent niveau de sûreté des centrales nucléaires, en France et dans les pays de technologie occidentale, les prive d’arguments percutants.
Dans notre pays, depuis quarante ans qu’on les utilise, les centrales nucléaires ont fait zéro victime (hormis quelques accidents de chantier intervenus pendant les phases de construction). Par rapport aux grandes sources d’énergie traditionnelles (charbon, pétrole, gaz, hydraulique), le nucléaire s’affirme clairement, et de loin, comme celle dont les risques sont le mieux maîtrisés. Les militants antinucléaires se servent de Tchernobyl comme d’une arme pour brouiller ce constat, Wladimir Tchertkoff comme les autres. »
C’est la SFEN de Luc Oursel qui essaye de faire croire qu’il y a
une rumeur !
En janvier 2010, l’Académie des Sciences de New York (NYAS) a publié le recueil (sous la direction d’Alexei Yablokov) le plus complet de données scientifiques concernant la nature et l’étendue des dommages infligés aux êtres humains et à l’environnement à la suite de l’accident de Tchernobyl «Chernobyl: Consequences of the catastrophe for people and the environment».
Cet ouvrage (dont on peut lire une version réduite et traduite par Wladimir Tchertkoff en Word (.doc), ou en PDF,) met à la disposition du lecteur une grande quantité d’études collectées dans les pays les plus touchés : la Biélorussie, la Russie et l’Ukraine.
Les auteurs estiment que les émissions radioactives du réacteur en feu ont atteint dix milliards de curies, soit deux cents fois les retombées des bombes atomiques lancées sur Hiroshima et Nagasaki, que sur les 830 000 «liquidateurs» intervenus sur le site après les faits, 112 000 à 125 000 sont morts, et que le nombre de décès à travers le monde attribuables aux retombées de l’accident, entre 1986 et 2004, est de 985 000, un chiffre qui a encore augmenté depuis cette date.
Luc Oursel avec sa double casquette AREVA/SFEN est donc le parfait propagandiste du nucléaire pour nous vanter une technologie mortellement dangereuse depuis ses origines en oubliant l’impact majeur de celle-ci sur l’homme et son environnement.
C’est l’homme qu’il fallait pour clore en “beauté” un tel colloque!
Vous pouvez laisser une réponse.
Laisser un commentaire
Vous devez être connecté pour rédiger un commentaire.