Perspective du nucléaire et minimisation des risques
Intervention prononcée lors du colloque du 24 janvier 2006 Le nucléaire et le principe de précaution
Nous devrons, dans les cinquante années qui viennent, doubler la production d’énergie pour permettre, aux grands pays émergents d’abord, puis aux pays actuellement en cours de développement, d’atteindre un niveau de développement décent.
En même temps, les contraintes climatiques nous imposeront de diviser par deux les émissions de gaz à effet de serre, surtout de CO2.
Or aujourd’hui, 80% de l’énergie que nous utilisons provient de la combustion du pétrole, du charbon et du gaz, combustion qui relâche du CO2 dans l’atmosphère.
Un vrai défi qui nécessitera qu’on mette en œuvre tout ce qu’on sait faire, en commençant par le contrôle de la demande, l’efficacité énergétique et le changement des comportements, qui n’est pas si facile à décréter. Il faudra aussi, à l’intérieur de l’offre, augmenter la part de celles des énergies qui n’émettent pas ou peu de gaz à effet de serre : le nucléaire, l’hydraulique et les autre énergies renouvelables.
Ceci ne suffira sans doute pas. Il faudra aussi, c’est presque certain, mettre en œuvre le piégeage et la séquestration du gaz carbonique, au moins à l’aval des installations qui en produisent de grosses quantités concentrées, c’est-à-dire les centrales à charbon, les raffineries, les cimenteries, et les aciéries par exemple.
Cette prise de conscience généralisée entraîne un certain retour en grâce du nucléaire qui n’est plus envisagé comme un problème mais comme une des nombreuses solutions qui seront nécessaires. Devant l’ampleur du problème il serait irresponsable de se priver de cette solution.
En outre, ce problème évolue rapidement. L’an 2000 n’est pas si loin… en l’an 2000 nous étions 6 milliards et nous avons consommé l’équivalent de 10 milliards de tonnes de pétrole. En 2006, nous sommes 6,5 milliards (la population mondiale s’accroît d’une Allemagne par an) et cette année, nous consommerons 12 milliards de tonnes de pétrole. Il faudra bien sûr contrôler ce rythme mais ça ne se fera pas en refusant aux pays émergents et en voie de développement le droit d’atteindre un niveau de vie décent. Il faudra donc doubler la production d’énergie.
Que représente le nucléaire aujourd’hui ?
L’unité utilisée dans le tableau ci-dessus est le milliard de kilowatts/heure. 2 619 milliards de Kilowatts équivalent à la quantité d’électricité produite par tous les barrages existants. Si on supprimait tous les réacteurs nucléaires, il faudrait, pour produire la même quantité d’électricité, produire chaque année 650 millions de tonnes de pétrole en plus, c’est-à-dire plus que la production de l’Arabie saoudite.
C’est pourquoi, comme vous le voyez ci-dessous, les estimations de production nucléaire jusqu’en 2030, faites par l’Agence internationale de l’énergie atomique, sont en croissance quelle que soit l’hypothèse en Amérique du Nord, dans l’Europe de l’est, y compris la Russie, et en croissance extrêmement rapide dans toute l’Asie.
Seule exception, l’Europe, qui, selon l’hypothèse haute connaîtra une croissance forte, tandis que l’hypothèse basse prévoit une décroissance forte. L’Europe est encore un peu la « bouteille à l’encre » dans ce domaine.
A l’échelle de la planète, le nucléaire est en développement rapide. Même en Europe, la plupart des signaux sont quand même au clignotant vert. Au Royaume Uni, en particulier, le gouvernement modifie assez considérablement le livre blanc paru il y a deux ans. En effet, l’Angleterre a découvert qu’elle était importatrice de gaz et non plus exportatrice et comme elle a basculé l’essentiel de sa production d’électricité du charbon vers le gaz, elle souffre assez considérablement des augmentations récentes.
Venons-en aux perspectives techniques du nucléaire.
On décrit l’histoire du nucléaire par générations.
La première génération en France désigne les réacteurs graphite-gaz, aujourd’hui tous arrêtés et en cours de démantèlement. Dans le monde, elle s’est caractérisée par un bouillonnement créateur qui a produit énormément de réacteurs différents, très peu standardisés et une escalade très rapide des tailles : on était déjà en train de dessiner les « 1200 MWe » pendant qu’on construisait les « 600 » et qu’on venait à peine de mettre en service les « 300 ».
On est passé à la génération II où les choses se sont stabilisées. Une technologie s’est imposée : celle qu’EDF met en œuvre dans ses cinquante-huit réacteurs, ou des technologies assez proches fondées sur l’utilisation d’eau ordinaire à la fois pour refroidir le coeur, c’est-à-dire utiliser les calories pour faire de l’électricité et en même temps pour modérer les neutrons, c’est-à-dire pour que le réacteur fonctionne. L’avantage étant que si on perd l’eau (ce qui n’est pas recommandé !) le réacteur s’arrête tout seul. C’est justement l’absence de cette caractéristique très particulière et intrinsèque à cette technologie qui a rendu possible l’accident de Tchernobyl.
Cette deuxième génération produit aujourd’hui environ 16% de l’électricité mondiale (75% en France).
On est en train de construire la troisième génération. Pour l’Europe, c’est l’EPR mais il a des concurrents. La compagnie General Electric est en train de construire à Taiwan des réacteurs de troisième génération alors qu’on commence tout juste à construire le premier réacteur EPR en Finlande.
Comment caractériser cette troisième génération par rapport à la seconde ?
D’abord par une grande continuité. Le choix fondamental, celui d’utiliser l’eau ordinaire pour refroidir et modérer à la fois a été maintenu : la troisième génération, ce sont presque exclusivement des réacteurs à eau.
La différence c’est qu’entre temps, il y a eu Tchernobyl qui nous a amenés spontanément – mais aussi sous l’amicale pression des autorités de sûreté – à repenser la philosophie de conception des réacteurs.
Avant Tchernobyl, il fallait démontrer que chaque nouveau réacteur était un peu plus sûr que le précédent, qu’il présentait encore moins de risques d’arriver à un accident grave, c’est-à-dire à la fusion du cœur.
Après Tchernobyl, ça ne suffit plus. On nous demande, bien sûr, de continuer à réduire ce risque résiduel mais il faut maintenant démontrer de façon convaincante que si l’accident se produit quand même – et cette fois, on n’essaie plus de chiffrer le risque – c’est un accident grave à l’intérieur de la centrale mais pas à l’extérieur. En clair, si le coeur fond et si le cœur fondu sort du circuit primaire (l’enveloppe en acier, deuxième barrière décrite par Christian Bataille tout à l’heure), il reste dans l’enceinte où on est capable de le refroidir et de l’immobiliser sans relâchement massif de radioactivité dans l’environnement.
C’est vraiment un changement de philosophie. La troisième génération se définit par l’amélioration progressive de la deuxième génération et par ce saut important en termes de sûreté : il ne suffit pas de prévenir autant qu’on peut les accidents graves, il faut garantir que leurs conséquences sont tolérables. C’est ce qu’on appelle la mitigation.
EPR signifie: Evolutionary Power Reactor. Pourquoi un nom anglais ? Parce que c’est un réacteur franco-allemand ! Au début, on l’avait appelé European Pressurized water Reactor, parce que, à l’époque où chaque pays avait le sien, être européen apparaissait comme un progrès. Maintenant qu’on essaie de le vendre en Chine et aux Etats-Unis, ça fait un peu provincial… On a donc gardé EPR, mais en changeant l’adjectif…
Ce réacteur est évolutionnaire.
C’est très important. On essaye de s’appuyer le plus possible sur le retour d’expérience des générations passées, c’est-à-dire, en France, de tous nos programmes mais plus particulièrement des plus récents : les quatre réacteurs N4, à Chooz et à Civaux et, en Allemagne, les trois réacteurs KONVOI, qui sont le fleuron de l’industrie allemande d’avant la fusion intervenue entre Framatome et Siemens.
En 1995, les autorités de sûreté française et allemande ont édicté leurs règles de principe sur la façon dont elles allaient juger le nouveau projet. Elles ont indiqué sans ambiguïté qu’elles accordaient beaucoup de points au retour d’expérience, plus qu’à l’innovation.
L’EPR peut se targuer d’être dans une très grande continuité technologique avec, en plus, ce saut dans le domaine de la protection contre les incidents internes et contre les agressions externes.
L’EPR est réellement un réacteur plus sûr.
Il est plus sûr au niveau de la prévention des accidents en particulier parce que les systèmes de sûreté et de sauvegarde dont le rôle, en cas de début d’accident, est de ramener le réacteur à l’état sûr, ont une redondance de facteur 4 : il y a quatre systèmes totalement indépendants dont un seul est suffisant pour ramener le réacteur à l’état sûr. Ils sont fonctionnellement mais aussi physiquement indépendants, placés géographiquement dans des bâtiments différents, de manière à ce qu’aucune agression externe crédible ne mette simultanément hors service deux systèmes censés se porter secours.
Si le cœur fond et si cette lave appelée le corium réussit à sortir de la cuve, on est capable de l’étaler dans un réceptacle spécial à l’intérieur de l’enceinte et de la refroidir passivement in situ. Quand elle sera solidifiée, elle n’en bougera plus.
L’enceinte, dont on voit le rôle extrêmement important en cas d’accident ultime, est protégée contre les agressions de l’accident lui-même : on est capable de la refroidir ; on est capable de garantir qu’à aucun moment on ne risque une explosion hydrogène qui l’endommagerait.
Par ailleurs, il est aussi très protégé contre les agressions externes.
Outre les deux enceintes autour du bâtiment réacteur, il a l’équivalent de la deuxième enceinte autour de deux des bâtiments de sauvegarde, autour du bâtiment combustible et autour de la salle de contrôle.
Je ne vous cacherai pas qu’au début, nous pensions que les Allemands, qui voulaient mettre du béton partout, étaient un peu « parano ». Après le 11 septembre 2001, il nous est apparu qu’ils avaient peut-être raison.
Quelles sont les conséquences en termes économiques de ces systèmes de protection ajoutés ?
En terme d’investissement, l’EPR est effectivement plus cher mais, sur sa durée de vie, il produira un kilowattheure moins cher parce qu’il est spécifié dès le départ pour une durée de vie technique de soixante ans (contre quarante ans pour ses prédécesseurs) et parce qu’on tire parti de la redondance des systèmes de sécurité pour augmenter la disponibilité : dans l’année, il pourra produire de l’électricité sur une durée supérieure de 10% à celle des réacteurs actuels. L’ensemble fait que, bien qu’il soit plus compliqué, plus protégé, plus lourd, il produira un kilowattheure moins cher.
Le schéma ci-dessous le compare à ce qui était son concurrent il y a très peu de temps : les turbines à gaz à cycle combiné.
Au moment où les Finlandais ont fait l’appel d’offre, le gaz se trouvait sur le marché à environ 2,5 $ par million de Btu. A ce prix, un EPR était compétitif mais sans trop de marge. Aujourd’hui, le prix du gaz est plutôt aux environs de 8$. Par conséquent, même le premier EPR (le plus cher parce que celui sur lequel on affecte la plupart des coûts de développement) est très largement compétitif : il correspond à du gaz à 4 $.
Le gaz ne restera sans doute pas à 8 $, mais plus personne n’ose croire qu’il restera durablement en dessous de 5 $.
Au-delà de la troisième génération, compte tenu des délais très importants pour développer des outils nucléaires, on commence à réfléchir, sur le plan international, à ce qu’on espère de la génération d’après, celle qui serait commercialisable en 2040, objectif cité par Christian Bataille tout à l’heure.
Cette réflexion se situe dans une hypothèse où on croit que le renouveau du nucléaire auquel on assiste aujourd’hui va se prolonger.
Si le nucléaire se répand, nous serons confrontés, dans ces échéances, à des problèmes d’alimentation en uranium. Une meilleure utilisation de la matière première est donc attendue de cette génération IV.
Les réacteurs actuels n’utilisent que 1% de l’énergie contenue dans l’uranium, c’est la mauvaise nouvelle.
La bonne nouvelle, c’est qu’on connaît les technologies qui permettront d’utiliser les 99% restants : il s’agit des surgénérateurs, dont Super Phénix (arrivé probablement un peu prématurément) était un premier exemple.
L’enjeu est considérable parce que de la même quantité de matière extraite on peut tirer cent fois plus d’énergie, une augmentation de rendement – qui n’existe que dans le domaine du nucléaire – très spécifique à la fission, un phénomène un peu compliqué : les noyaux ne réagissent pas de la même façon selon que les neutrons qui viennent les chatouiller sont très rapides ou pas.
On attend aussi de ces réacteurs la réduction de la proportion des déchets radioactifs de très longue durée de vie. Quoi qu’on fasse, chaque fission casse un noyau d’uranium, de plutonium ou de thorium en deux morceaux radioactifs : c’est l’essentiel de la radioactivité des déchets, et l’on n’y peut rien. Ce sont les neutrons capturés sans fission qui donnent la petite partie de déchets à plus longue durée de vie. Leur proportion dépend de la technologie mise en œuvre : on en fait moins quand les neutrons sont rapides que quand ils sont lents.
Enfin, on attend aussi de cette quatrième génération d’ouvrir l’éventail des applications de la fission. Aujourd’hui, si on excepte la propulsion des sous-marins nucléaires, les réacteurs nucléaires ne font que de l’électricité.
En termes d’énergie finale pour le monde :
• la moitié de l’énergie est utilisée sous forme de chaleur, soit de chaleur basse température pour chauffer des locaux, soit de chaleur haute température dans l’industrie (verre…).
• Un tiers de l’énergie sert aux transports.
• Ce n’est qu’un sixième de l’énergie qui produit de l’électricité.
Si on pense que le nucléaire peut participer à résoudre le dilemme plus d’énergie/moins d’effet de serre, il doit être capable de pénétrer progressivement d’autres secteurs d’application, au-delà de la production d’électricité, notamment les transports via la production d’hydrogène. C’est aussi l’ambition des systèmes de la génération IV que d’être capables de produire de la chaleur de haute température pour certaines applications comme la production d’hydrogène et, derrière l’hydrogène, les carburants de synthèse. Je suis personnellement un peu sceptique quant à l’utilisation directe de l’hydrogène sur les véhicules individuels car en terme d’autonomie, rien ne vaut un carburant liquide. C’est ce qui a permis au moteur à explosion d’évincer tous ses concurrents (la première voiture à franchir la barrière des 100 km/h était électrique). L’hydrogène, en mariage avec le charbon ou avec des biocarburants, servira plutôt à produire d’excellents carburants de synthèse.
Six concepts ont été définis au plan international comme méritant de lancer la Recherche et Développement qui permettra de rendre opérationnels au moins un certain nombre d’entre eux en 2040.
Ce ne sont pas des réacteurs existants mais des réacteurs sur lesquels on débute le développement en espérant les commercialiser en 2040.
Il y a donc un véritable créneau pour la génération III. Il faudra remplacer le parc français bien avant 2040. D’autres pays comme la Chine ou les Etats-Unis doivent augmenter rapidement leur parc existant. Je vois donc le créneau de l’EPR entre aujourd’hui et 2040.
Dernier point : je vous emmène dans un futur un peu lointain, celui de la fusion.
Nous nous sommes tous félicités, l’été dernier, du choix du site de Cadarache pour implanter ITER, grosse installation, unique au monde, indispensable pour franchir un nouveau pas sur la longue route qui mènera un jour à la production d’énergie par la fusion.
Pourquoi la longue route ?
La difficulté est grande : la fusion consiste à faire se rapprocher des noyaux chargés qui, spontanément se repoussent. Dans les étoiles, la gravité est telle que les noyaux sont écrasés au centre et finissent par fusionner. Mais il faut que l’étoile soit suffisamment grosse. Jupiter est une étoile ratée, elle n’est pas assez grosse pour démarrer de la fusion. Sur terre, la seule méthode est de communiquer une vitesse considérable aux ions pour qu’ils ne réussissent pas à s’éviter et puissent fusionner.
Vitesse considérable signifie température considérable, de l’ordre de 100 millions de degrés (la surface externe visible du soleil est à 5800 degrés). Cela signifie qu’on ne peut pas confiner un plasma par des matériaux physiques qui, fondant immédiatement, pollueraient le plasma qui s’arrêterait. Il faut concevoir d’autre méthodes de confinement combinant des champs électriques et des champs magnétiques.
En dépit du R, ITER n’est pas un « réacteur » au sens habituel du mot. C’est une grosse installation expérimentale. Quand il fonctionnera, dans cinq ou six ans, ce ne sera pas encore tout à fait l’équivalent de ce qu’a été, pour la fission, la première expérience de Fermi, le 2 décembre 1942. 1942-2012 : soixante-dix ans. Il ne faut pas sous-estimer le décalage entre fission et fusion. Il ne faut pas non plus oublier les avantages importants de la fusion, le jour où elle aura atteint sa maturité industrielle.
La fusion sera alors d’autant plus importante qu’à mon sens, elle ne remplacera pas la fission.
A ce moment-là, il n’y aura plus beaucoup de pétrole et on l’utilisera parcimonieusement là où il sera difficilement remplaçable : la pétrochimie, les carburants pour le transport aérien. Le gaz, lui aussi, à cette échéance, sera passé par son pic. Nous serons donc très contents d’avoir non pas un mais deux nucléaires !
S'inscire à notre lettre d'informations
Recevez nos invitations aux colloques et nos publications.