Introduction
Le 11 mars 2011 à 5h46 TU, un séisme de magnitude 9 est enregistré à 130 km à l’est de Sendai au Japon. Les 4 centrales nucléaires situées sur la côte nord orientale sont arrêtées automatiquement ; les lignes d’alimentation électrique des réacteurs sont détruites et relayées par les groupes électrogènes pour faire fonctionner les systèmes de refroidissement des réacteurs. A 6h37 TU, le tsunami engendré par le séisme ravage la côté orientale du Japon. Une hauteur de vague de 15 m est enregistrée au niveau de la centrale de Fukushima Daiichi. L’installation est entièrement inondée, ce qui provoque la perte de la source froide et des diesels de secours des réacteurs 1 à 4. La perte de tous les systèmes de refroidissement conduit à l’émission de rejets radioactifs non maîtrisés dans l’atmosphère et l’océan Pacifique. La catastrophe de Fukushima est considérée comme l’accident nucléaire le plus important après celui de Tchernobyl. Il est à l’origine de la contamination à long terme d’une partie de l’île de Honshu, comme l’illustrent les mesures aéroportées de Césium 137 déposé au sol, comme on le verra plus loin.
Dans la gestion d’une crise nucléaire, il y a trois phases principales : la phase de menace avant le rejet, la phase de rejet et la phase post-accidentelle après le rejet. La modélisation joue un rôle essentiel dans chacune de ces phases. Pendant la phase de menace, l’état des réacteurs est analysé pour anticiper les conséquences de rejets radioactifs. Seule la modélisation permet de prédire les conséquences des éventuels rejets. Généralement, à ce stade, les calculs prédictifs sont adaptés à un objectif de protection de la population voisine et suivent des hypothèses raisonnablement pénalisantes. Les mesures de protection des populations sont préconisées sur la base de ces estimations majorantes. À partir du début de la phase de rejet et en post-accident, l’enjeu est de valider et d’améliorer le scénario de rejet pour estimer avec réalisme les conséquences. Les grandeurs qu’il est important d’estimer avec précision sont l’activité volumique (concentration de radionucléides dans l’air) et l’activité surfacique (due aux radionucléides déposés au sol). L’activité volumique permet d’évaluer l’exposition des populations au panache puisque l’inhalation est la voie d’atteinte prépondérante pendant la phase de rejet. L’activité surfacique est la donnée d’entrée pour l’estimation des risques liés à la contamination de la chaîne alimentaire et à la vie dans les territoires impactés, risques principaux d’exposition après la phase de rejet. Pour estimer avec précision les conséquences de l’accident, l’idéal serait d’exploiter les observations, mais celles-ci ne renseignent que partiellement l’impact du rejet dans l’environnement. Elles sont soit bien résolues en espace et cartographient l’activité surfacique à un instant donné (exemple des mesures aéroportées, figure 8) soit bien résolues en temps et mesurent, en un point, l’évolution temporelle de l’activité volumique et de l’activité surfacique (exemple des observations de réseaux de mesures, figure 9). Les techniques de mesure actuelles ne donnent pas accès aux deux informations simultanément, et l’usage de la modélisation reste nécessaire. Les simulations servent donc à reproduire le déroulement de l’accident de la façon la plus réaliste possible.
Deux ans après l’accident de Fukushima, de nombreuses incertitudes demeurent et limitent encore la connaissance de l’événement. L’article présente l’approche adoptée dès le début des rejets pour comprendre le déroulement de l’accident. Le rejet estimé est décrit ainsi que son impact sur l’environnement.
Dans un deuxième temps, une nouvelle méthode a été développée pour faire progresser l’estimation des rejets dans l’atmosphère. Elle couple l’exploitation des mesures dans l’environnement et la modélisation de la dispersion atmosphérique grâce aux techniques de modélisation inverse. Cette nouvelle méthode et les résultats très prometteurs obtenus sont présentés. Le réalisme des deux scénarios de rejets est ensuite estimé en comparant les simulations de dispersion atmosphérique qui en découlent, avec les observations.
Modèles de dispersion atmosphérique, observations et données météorologiques
Observations dans l’environnement
Les mesures utilisées dans cette étude sont les mesures de débit de dose, d’activité volumique et d’activité surfacique. Les plus nombreuses mesurent le débit de dose émis par tous les émetteurs gamma présents dans l’air et sur le sol. En dehors du site de Daiichi, la très grande majorité des relevés disponibles est réalisée par les balises automatiques du réseau SPEEDI (System for Prediction of Environmental Emergency Dose Information, http://www.bousai.ne.jp/eng/) et par le MEXT (Ministry of Education, Culture, Sports, Science & Technology, http://radioactivity.mext.go.jp/en/). Le débit de dose ambiant est le résultat de la contribution directe du panache (irradiation panache) et de la contribution du rayonnement gamma émis par les radionucléides qui ont été rabattus au sol (irradiation dépôts) par les processus de dépôt sec et humide. Ces mesures sont nombreuses et réparties sur une grande partie du territoire japonais. Elles servent à l’évaluation des rejets et à la validation des simulations de dispersion. Il s’agit de mesures intégrées puisqu’elles ne permettent ni de distinguer la contribution des différents radionucléides, ni d’identifier la composante de l’irradiation panache par rapport à l’irradiation dépôt. Juste après le tsunami, de nombreuses stations autour de la centrale étaient hors service et il y a peu d’observations les premiers jours. Une station de mesure à Chiba se distingue des autres balises de débit de dose puisqu’elle est la seule station du Japon qui mesure la composition isotopique de la contamination.
L’activité volumique mesure l’activité dans l’air de chaque radionucléide. La mesure des aérosols (iode aérosol) est plus précise que celle des gaz (iode sous forme I2). Les gaz incondensables (gaz rares) ne sont mesurés qu’à Takasaki, mais la station a été saturée dès les premiers rejets détectés. Les mesures sont intégrées dans le temps sur des périodes variables selon les stations, entre 1 heure et 24 heures. Il y a très peu de points, tous situés au sud sud-ouest de la centrale de Fukushima, où l’évolution temporelle de l’activité volumique peut être exploitée ; ils n’observent que quelques pics de rejet. La donnée est pourtant intéressante puisqu’il s’agit du seul paramètre observé qui renseigne sur la composition isotopique du panache.
En quelques rares points, comme à Tokyo, l’activité surfacique a été mesurée à intervalle régulier pendant la période de rejet. La plupart des autres mesures disponibles a été faite en phase post-accidentelle pour cartographier l’activité surfacique. Elles résultent de l’intégration dans le temps des différents épisodes de contamination et ne permettent pas d’en reconstituer la cinétique. Il s’agit des mesures de prélèvements effectués pour le compte de MEXT par des universitaires (Yoshida et Takahashi, 2012) et des mesures aéroportées réalisées pour le compte du MEXT (http://radioactivity.mext.go.jp/ja/1940/2011/08/1940_0831.pdf) et celles effectuées par la NNSA (National Nuclear Security Administration, US) (https://nnsa.energy.gov/mediaroom/pressreleases/japandata) (figure 8). Ces mesures sont très utiles pour conforter l’activité surfacique totale simulée avec les modèles de dispersion atmosphérique. Elles permettent donc de valider indirectement le terme source, et en particulier la composition isotopique des rejets. Toutefois, elles donnent une estimation basée uniquement sur les dépôts, et en particulier sur les radionucléides à vie longue. Cela ne donne donc pas d’information supplémentaire concernant les gaz rares ou l’iode, par exemple, qui sont essentiels pour estimer les conséquences sur les populations.
L’ensemble des observations disponibles ne suffisent donc pas pour évaluer les doses dues à l’exposition au panache pendant l’accident et au dépôt pendant et après le passage du panache sur l’ensemble du territoire impacté. La modélisation est un moyen essentiel pour reconstituer les conséquences dans le temps et en tout point de l’île d’Honshu, mais les mesures sont complémentaires et servent à l’estimation du terme source et à la validation des simulations. Elles permettent aussi de réaliser la cartographie de l’activité surfacique et d'assurer son suivi dans le temps. La modélisation permet également de mieux estimer la contribution des dépôts atmosphériques sur la contamination marine (Bailly du Bois et al., 2012).
Modèles de dispersion atmosphérique
Les modèles de dispersion atmosphérique (pX et ldX) et le modèle de calcul de dose (consX) utilisés dans cette étude sont ceux de la plate-forme opérationnelle C3X (Isnard, 2006) du Centre Technique de Crise de l’IRSN. Le modèle eulérien de dispersion atmosphérique à longue distance, ldX (Quélo et al., 2007) permet de simuler la dispersion atmosphérique à l’échelle du Japon. La résolution spatiale des simulations ldX est imposée par les données météorologiques utilisées, soit 0.125°X 0.125°. Comme les modèles eulériens ont des difficultés à résoudre les gradients importants près de la source de rejet, le modèle à bouffées gaussiennes, pX (Soulhac et Didier 2008 ; Korsakissok et al., 2013), est utilisé pour simuler la dispersion atmosphérique dans un rayon de 80 km autour de la source.
Les deux modèles tiennent compte de l’hétérogénéité spatiale du vent. La paramétrisation de la diffusivité verticale dans ldX suit Troen et Mahrt (1986) pour les cas instables et Louis (1979) pour les cas stables. Les simulations faites avec pX sont basées sur les écarts types de Pasquill (Pasquill, 1961). Les deux modèles prennent en compte les mécanismes de filiation et de décroissance radioactive. La modélisation du dépôt repose sur le concept de vitesse apparente de dépôt pour le dépôt sec et sur un coefficient de lessivage donné par Λs = ap0 pour le dépôt humide (p0 est l’intensité de la pluie en mm/h et a, la constante de lessivage). Pour les aérosols, la vitesse de dépôt sec est vdep = 2 10-3 m/s et a = 5 10-5 h/mm/s sauf pour l’iode organique pour lequel vdep = 5 10-5 m/s et a = 1 10-6 h/mm/s. Pour l’iode moléculaire, les simulations pX considèrent vdep = 7 10-3 m/s. Les valeurs des constantes sont établies selon Brandt et al. (2002) et Baklanov et Sørensen (2001). Mathieu et al. (2012) et Korsakissok et al. (2013) donnent plus de précisions sur la configuration des modèles.
Données météorologiques
La centrale nucléaire de Fukushima Daiichi est située en bord de mer, et des effets de côte se combinent avec les effets locaux dus à l’orographie complexe de la région (vallées, montagnes). La direction du vent est très hétérogène et parfois difficile à prédire, et les vents sont souvent faibles et mal établis. Les prévisions utilisées pour les simulations de dispersion sont issues du European Center for Medium-Range Weather Forecasts (ECMWF) et ont une résolution de 0,125° et un pas de 3 heures. À cette résolution, l’orographie complexe du Japon n’est pas résolue, et la comparaison des champs prévus avec les observations météorologiques réparties autour de la centrale met en évidence les difficultés du modèle à prévoir la direction du vent en basse couche au cours de plusieurs événements. C’est le cas le 15 mars, date où se font les dépôts principaux sur l’île d’Honshu (Korsakissok et al., 2013). De même, dans les situations où le vent soufflait vers le sud en longeant la côte comme les 16 et 21 mars, les vents prévus sur la région d’Ibaraki transportent la contamination trop à l’est vers l’océan Pacifique.
Les simulations pX et ldX sont forcées avec les champs ECMWF, mais pour limiter l’impact des mauvaises prévisions météorologiques le 15 mars, les simulations pX utilisent le vent observé à Daiichi entre 18h et 24h sur la totalité du domaine. Pour les simulations ldX, le domaine spatial des simulations est trop étendu, et seules les données ECMWF sont utilisées.
La qualité des données de pluie est primordiale pour reconstruire les événements de dépôt humide, et la résolution temporelle et spatiale des prévisions est parfois trop faible pour calculer précisément le dépôt humide. Le modèle pX bénéficie d’une représentation fine de la pluie puisque les observations des radars pluie autour de la centrale de Fukushima sont utilisées. Le domaine de calcul de ldX est couvert uniquement par les prévisions de pluie ECMWF.
Les rejets de l’accident de Fukushima
L’accident de Fukushima est caractérisé par une succession d’événements sur les différents réacteurs endommagés (éventages, explosions, arrosage, fumées…) dont certains ont conduit à des pics de rejets. La simulation des épisodes de contamination de l’environnement (air et sol) et des conséquences associées nécessite de disposer des quantités émises de chaque radionucléide en fonction du temps. Étant donné la variabilité spatiale et temporelle des phénomènes météorologiques régissant la dispersion du panache et son dépôt au sol, la précision dans la description des rejets (quantités et cinétique) est critique. De plus, la connaissance de la composition du rejet est essentielle pour évaluer son impact sur les populations. L’estimation du terme source reste une des sources principales d’incertitudes dans la compréhension de la catastrophe de Fukushima même si plusieurs évaluations sont publiées (Chino et al., 2011 ; Katata et al., 2012 ; Stohl et al., 2012 ; Winiarek et al., 2012 ; Mathieu et al., 2012 ; Corbin et Denis, 2012 ; Saunier et al., 2012). Des études approfondies sont en cours pour estimer le terme source à partir d’une modélisation détaillée des réacteurs, y compris de la dégradation avancée des cœurs (Corbin et Denis, 2012), mais la plupart des évaluations disponibles à ce jour sont basées au moins partiellement sur l’exploitation des mesures dans l’environnement.
Première estimation du terme source
Terme source
Le terme source estimé dans un premier temps résulte d’abord des informations sur l’état de l’installation fournies par la Tokyo Electric Power Company (TEPCO). Il s’agit, d’une part, de la chronologie des événements (explosions ; éventages, c'est-à-dire événement de rejets volontaires et maîtrisés ; fumées…) ; d’autre part, des paramètres des réacteurs (pression, niveau cuve…). La composition isotopique du terme source découle de l’estimation de l’inventaire des cœurs. La méthodologie suivie est décrite par Herviou et Calmtrop (2004). Les mesures de débit de dose en clôture du site ont également permis d’identifier certains rejets. Enfin, l’exploitation croisée des mesures de radioactivité réalisées sur le site et sur le territoire japonais avec des simulations de la dispersion atmosphérique a servi à affiner l’estimation du terme source. La méthode mise en œuvre est décrite dans Corbin et Denis (2012), Korsakissok et al. (2012).
Le terme source contient 73 espèces de radionucléides. Il est composé au total de 7.2 1018 Bq dont 5.9 1018 Bq de xénon 133, 1.9 1017 Bq d’iode 131 et 2.0 1016 Bq de césium 137. Cette estimation est conforme à celle proposée par NISA (2011) et NSC (2011), sauf pour les gaz rares pour lesquels elle est inférieure d’un facteur 2.
La figure 1 représente la cinétique du terme source entre le 12 et le 26 mars. Avant le 17 mars, les pics de rejet sont liés à des événements précis dont le calage temporel est connu (éventages, explosions, dépressurisations…). Entre le 17 et le 26 mars, les rejets sont détectés grâce à la surveillance de l’activité dans l’environnement, mais il est difficile de les corréler à des événements identifiés sur les installations. L’estimation des quantités rejetées est donc beaucoup plus délicate et est uniquement basée sur les observations. L’analyse du terme source indique que certains pics sont très probablement surestimés, comme ceux du 16 mars. Les différents rejets transportés vers l’océan Pacifique, sans être détectés sur l’île d’Honshu, sont reconstruits en étudiant uniquement l’état de l’installation sans être validés par la mesure. Bailly du Bois et al. (2012) en propose une validation indirecte grâce à des comparaisons aux mesures dans l’eau. Il montre que les rejets sont probablement sous-estimés aux moments où le vent souffle vers l’océan.
De manière générale, la composition isotopique des rejets est très incertaine, et les mesures ne sont pas suffisantes pour la valider. En effet, les mesures d’activité volumique sont trop peu nombreuses, les mesures de dépôt sont trop intégrées, et les gaz rares qui ne se déposent pas ne sont pour ainsi dire pas mesurés sur le Japon.
La hauteur des rejets est également un paramètre incertain. Les simulations ldX diluent le rejet sur les deux premiers niveaux du modèle, soit sur 160 m. Pour les simulations pX, une étude de sensibilité a été conduite par Korsakissok et al. (2013), Terada et al. (2012) et Korsakissok et al. (2013) qui montrent que la hauteur probable du rejet varie selon les épisodes.
Figure 1. Débit de rejet pour l'ensemble des radio-isotopes émis par l'unité 1 en rouge, par l'unité 2 en bleu et par l'unité 3 en vert.
Rate of released activities per reactor in Bq/s, including the contribution of 73 radionuclides. Red colour is used for unit 1, blue for unit 2 and green for unit 3.
Analyse des phases de rejet
Une lecture simplifiée des rejets émis par la centrale entre le 12 et le 26 mars permet d’identifier les phases principales de rejet. La contamination induite est décrite ci-dessous.
Rejets du réacteur 1 (du 12 mars 10h au 13 mars 8h JST)
Le réacteur 1 a subi une dégradation très importante du cœur. Une succession d’événements (éventages, fuites par le couvercle de l’enceinte, injection d’eau et explosion hydrogène du réacteur) a conduit à des rejets dans l’environnement pendant la journée du 12 mars. Les balises de site détectent une partie des événements. En dehors du site, seule la station de Minami Soma située à 25 km au nord de l’installation détecte le panache. Les simulations montrent que celui-ci s’est d’abord orienté vers le nord puis vers l’océan. Les figures ci-dessous présentent les résultats des simulations des débits de dose ambiants résultant de cet événement.
|
|
|
Figure 2. Débit de dose ambiant dû aux dépôts consécutifs à l’explosion du réacteur 1. Simulation pX à gauche et simulation ldX au centre.
Map of the ambient dose rate due to ground shine after the unit 1 explosion. Simulations are done with pX (left) and ldX (right).
Rejets du réacteur 3 (du 13 mars à 8h et 14 mars à 12h JST)
Des rejets sont produits du fait d’éventages successifs les 13 et 14 mars entre 11h et 11h55 jusqu’à la violente explosion au niveau du réacteur 3 le 14 mars. Les rejets sont transportés directement vers l’océan Pacifique (figure 3). L’événement est cependant observé dans la région de Tokyo le 16 où il est probablement rabattu après avoir tourné au-dessus de l’océan Pacifique. L’enjeu principal de cet événement consiste à estimer l’ordre de grandeur des dépôts sur la mer qui participent à la contamination marine (Bailly du Bois et al., 2012).
|
|
|
Figure 3. Débit de dose ambiant dû aux dépôts consécutifs à l’explosion du réacteur 3. Simulations pX à gauche et ldX à droite.
Map of the ambient dose rate due to ground shine after the explosion of the Unit 3. Simulations are done with pX (left) and ldX (right).
Rejets du réacteur 2 (14 mars à 21h au 15 mars à 18h JST)
Les rejets détectés par de nombreuses balises de débit de dose le 15 mars sont issus de deux séquences d’événements sur le réacteur 2. La première séquence se situe dans la nuit du 14 au 15 mars où des fuites au niveau du couvercle de l’enceinte de confinement ont probablement engendré des rejets dans l’atmosphère. Le panache produit se dirige vers le sud. Durant cet épisode, il n’y a pas de pluie.
La deuxième séquence démarre le matin du 15 mars. Très probablement, une brèche au niveau de la chambre de suppression ou le succès des opérations d’éventages conduit à des émissions atmosphériques importantes. Durant cette journée, le vent souffle vers le sud puis tourne progressivement vers le nord-ouest ; le panache balaye ainsi une large zone. Peu après 20h, les premières pluies significatives sont mesurées. Le lessivage du panache se fait principalement entre 21h et minuit et génère un dépôt humide considérable dans la région au nord-ouest de la centrale. Cette séquence est responsable de la contamination principale de l’île d’Honshu.
À partir du 16 mars à 00h, le vent souffle de nouveau vers le sud. Les simulations illustrent l’évolution du panache au cours de cet épisode (figure 4 avec ldX et figure 5 avec pX).
|
|
|
Figure 4. Débit de dose dû au panache (ldX) le 15 mars à 5h JST (à gauche) à 18h (à droite). Les points représentent les stations de mesures (composante panache extraite).
Map of the ambient dose rate (cloud shine only) on March 15 at 5h JST (left) and at 18h (right). Simulations are done with ldX. Dose rate stations are ploted with dots.
|
|
|
Figure 5. Cartes de débit de dose ambiant simulé par pX durant la journée du 15 mars (à gauche, le 15 mars à 15h, à droite, le 16 mars à 00h).
Map of the ambient dose rate (cloud shine only) on March 15 at 15h JST (left) and March 16 at 00h (right). Simulations are done with pX.
Rejets du 16 au 26 mars
Le terme source utilisé indique des rejets importants entre le 15 et le 16 mars. L’amplitude des rejets est estimée à partir des balises sites mais est probablement surestimée. Les panaches qui en découlent ont pris une direction sud.
Au cours de la journée du 19 mars, les rejets ont une direction d’abord nord nord-ouest puis ouest en fin de journée, transportant le panache vers le Pacifique.
Dans la nuit du 19 au 20, le flux général s’inverse et une partie du panache sur la mer retourne vers la côte japonaise.
Le 21 au matin, un nouveau panache est mesuré au niveau d’Ibaraki (figure 6) et impacte la région de Tokyo quelques heures plus tard.
|
|
|
Figure 6. Débit de dose ambiant (composante panache) simulé par ldX dans la journée du 21 mars (à gauche à 6h, à droite à 11h) et comparé aux mesures.
Map of the ambient dose rate (cloud shine only) on March 21 at 6h JST (left) and at 11h (right). ldX simulations are compared to measurements (dots).
Deuxième estimation du terme source
La gestion de la crise de Fukushima a montré qu’il pouvait être, dans certains cas, difficile d’estimer un terme source réaliste dans un délai court. La première estimation a été initiée pendant la phase de rejet, et le travail s’est poursuivi jusqu’à permettre de comprendre les événements marquants de l’accident. L’avantage de la démarche mise en place est de corréler les rejets aux événements sur les installations et de s’assurer que le spectre et les quantités rejetées sont réalistes par rapport à l’inventaire des cœurs endommagés. Cependant, ce terme source reste incertain et n’a pas été établi à l’aide d’un outil automatique, ce qui est pénalisant pour une gestion de crise efficace.
Pour progresser dans la reconstitution de l’accident, une approche basée sur les techniques de modélisation inverse a été développée. Elle permet d’estimer le terme source à partir des mesures faites dans l’environnement. L’objectif des travaux menés était, d’une part, d’améliorer l’estimation du terme source de Fukushima et, d’autre part, de développer un outil qui puisse être utilisé dans la gestion de crise de n’importe quel accident nucléaire.
Depuis l’accident de Tchernobyl, la modélisation inverse est employée pour estimer le terme source d’un rejet accidentel (Gudiksen et al., 1989). Stohl et al. (2012) et Winiarek et al. (2012) appliquent l’approche à l’accident de Fukushima. Toutes les méthodes développées exploitent les mesures d’activité volumique ou de dépôt mais ces mesures sont peu nombreuses. Pour pallier leur faible nombre, Stohl et al. (2012) suppose la connaissance a priori du rejet. Il utilise la modélisation inverse pour améliorer son estimation initiale. Winiarek et al. (2012) estime deux termes sources selon qu’il suppose une connaissance a priori des émissions ou pas. Dans le cas où il choisit de ne pas partir d’une ébauche du terme source, il parvient à reconstruire les événements détectés par les mesures d’activité volumique, mais son terme source est incomplet. Par exemple, il ne parvient pas à reconstruire l’événement du 15 mars, responsable de l’impact le plus important sur l’île d’Honshu. Son approche est pourtant intéressante puisqu’elle est adaptée à une utilisation opérationnelle de la modélisation inverse sans connaissance a priori du rejet.
Une nouvelle méthode a donc été développée pour reconstruire le terme source à partir des mesures de débit de dose (Saunier et al., 2012). L’enjeu est de taille puisque les mesures de débit de dose sont les plus nombreuses et bien réparties sur l’ensemble de l’île d’Honshu. En revanche, l’exploitation du débit de dose est complexe. La grandeur intègre la contribution de tous les isotopes présents sur le sol et dans l’air, et n’est pas un paramètre résolu par le modèle.
Appliquée au cas de Fukushima, la méthode doit donc permettre l’estimation du débit de rejet par pas de temps de 1 heure entre le 11 mars 00h00 et le 26 mars 21h00 (soit 381 pas de temps) de tous les isotopes susceptibles de contribuer notablement à la dose. Une analyse des mesures permet de réduire le nombre d’isotopes à 8 (Cs-134, Cs-136, Cs-137, Ba-137m, I-131, I-132, Te-132, Xe-133), ce qui revient à résoudre 3048 inconnues.
À l’échelle du Japon, 31 stations de débit de dose sont exploitées. Le signal mesuré permet d’identifier les périodes où le panache passe au-dessus de la station puisqu’une augmentation brutale du signal est détectée. Entre deux pics, seul le dépôt est responsable du débit de dose mesuré, et le signal évolue plus lentement sous l’effet de la désintégration des éléments déposés. Les demi-vies des isotopes retenus sont suffisamment différentes pour envisager que la méthode parvienne à distinguer leurs contributions respectives. Ainsi, il est plus facile de reconstruire la composition isotopique des rejets lorsque des émissions successives rendent possible l’exploitation du signal de débit de dose dépôt.
L’approche développée est constituée de deux étapes principales. La première utilise les techniques de modélisation inverse pour identifier les périodes de rejets potentielles. La deuxième étape est consacrée à l’estimation par modélisation inverse des débits de rejets pour chaque isotope pendant les périodes potentielles d’émissions. Pour que la méthode soit adaptée à une problématique de gestion de crise, aucune connaissance a priori sur le terme source n’est supposée. Cela nécessite donc d’apporter de l’information supplémentaire au problème inverse. Pour cela, des contraintes très souples sur les rapports isotopiques des quantités émises des différentes espèces, évaluées par les experts du fonctionnement des réacteurs, sont prises en compte dans la résolution du problème.
La méthode est appliquée en utilisant le modèle de dispersion atmosphérique ldX et le modèle de calcul de conséquences ConsX. Le terme source reconstruit est présenté figure 7 pour le césium 137 et est comparé à l’estimation « initiale » de Corbin et Denis (2012) utilisée par Mathieu et al. (2012). Le terme source « inverse » reconstitue bien les rejets détectés sur l’île d’Honshu. La cinétique des deux rejets est à peu près semblable si ce n’est qu’à partir du 20 mars, le terme source « inverse » parvient à reconstruire davantage d’événements.
Les quantités sont en revanche sensiblement différentes entre les deux évaluations. Du 12 au 14 mars, les deux estimations du terme source sont incertaines du fait du peu d’observations disponibles. Elles diffèrent d’un facteur 2 et il est difficile de définir laquelle est la plus réaliste. Le rejet du 14 mars transporté directement vers l’océan Pacifique est clairement sous-estimé par la méthode inverse puisqu’il n’y a pas de mesures proches qui renseignent sur cet événement. Le 16 mars, les rejets du terme source inverse sont nettement plus faibles ce qui permet de ne plus surestimer les dépôts au sud comme la comparaison avec les observations l’illustre (figure 8).
Figure 7. Débit de rejet estimé pour le Césium 137 entre le 11 et le 26 mars.
Cesium 137 release rate assessed between March 11 and March 26.
Comparaisons modèle-mesures
Les simulations ldX faites avec les deux termes sources sont comparées aux mesures d’activité surfacique aéroportées (figure 8). Quel que soit le terme source utilisé, les comparaisons aux mesures aéroportées montrent que les modèles parviennent à retrouver les zones contaminées mais les décalent parfois légèrement. La différence la plus marquée concerne la zone au sud de la centrale. L’activité surfacique y est fortement surestimée avec le terme source « initial ». Ce défaut est corrigé avec le terme source « inverse ». Les rejets émis le 16 mars sont en effet trop forts dans l’estimation « initiale ». La comparaison aux stations de débit de dose confirme ce diagnostic. Une autre différence concerne la zone la plus contaminée située au nord-ouest et créée le 15 mars. Elle est placée trop à l’ouest par le modèle, et l’activité surfacique y est sous-estimée par ldX forcé avec le terme source « initial » mais est mieux simulée avec le terme source « inverse ». Ailleurs, l’ordre de grandeur des activités surfaciques simulées est cohérent avec les observations.
Les simulations pX et ldX faites avec les deux termes sources sont comparées aux mesures de débit de dose (figure 9 pour pX et figure 10 pour ldX). L’accord obtenu est bien meilleur quand les simulations ldX sont faites avec le terme source « inverse ». Le terme source « inverse » semble donc plus fiable pour reproduire l’ensemble des séquences de l’accident qui ont été observées sur l’île d’Honshu. Ce résultat est confirmé avec les simulations pX (figure 10). L’apport du terme source est significatif que ce soit pour reproduire les épisodes observés au nord de la centrale (Minami Soma), au sud (Chibacity, Kuji Hitachi, Takahagi, Daini, Iwaki), à l’ouest (Aizwakatmasu, Koriyama) et au nord-ouest (Fukushima Health Office). Le fait que le terme source « inverse » ait un impact positif sur les simulations pX est important car il illustre la robustesse de la méthode d’inversion puisque pX n’a pas été utilisé dans la méthode d’inversion. De plus, le domaine d’intérêt de pX (premiers 80 km autour de l’installation) est différent de celui de ldX, et les stations de mesures auxquelles les simulations pX sont comparées n’ont généralement pas servi pour l’estimation du rejet.
En résumé, l’approche basée sur les techniques de modélisation inverse et en cours de développement est très pertinente puisqu’elle permet sans connaissance a priori de l’état de l’installation de retrouver les différentes phases de rejets corrélées avec les événements sur la centrale. Étant donné l’excellent accord entre les simulations basées sur le terme source « inverse » et les observations, les quantités rejetées semblent réalistes et même plus fiables que celles du terme source « initial ». La composition isotopique des rejets est en revanche difficile à valider étant donné le peu d’observations disponibles, et elle reste incertaine. Il faut sans doute améliorer ce point pour fiabiliser le terme source « inverse », et la prise en compte dans la méthode d’inversion des mesures d’activités surfacique et volumique en plus des données de débit de dose devrait y aider. Par ailleurs, l’approche en développement s’accorde parfaitement avec un usage opérationnel de l’outil. Elle ne nécessite aucune connaissance a priori du terme source et peut être appliquée dès lors que des mesures sont disponibles.
|
|
|
|
Figure 8. Dépôt de Césium 137 sur l'île d'Honshu. En haut à gauche, mesures aéroportées par MEXT et DOE ; au centre, la simulation ldX avec le terme source utilisé dans Mathieu et al. (2012), et à droite la simulation ldX avec le terme source inverse.
Airborne observations of 137Cs deposit from MEXT and DOE (left), ldX simulation of total 137Cs deposit using the Mathieu et al., 2012 source term (center) and the inverted source term (right).
|
|
|
|
|
|
|
|
Figure 9. Exemple de comparaisons entre les mesures de débit de dose aux stations (tracé en noir) et les simulations ldX faites avec le terme source initial (en bleu) et le terme source inverse (en rouge).
Comparisons between the simulated dose rate with the inverted source term (red), the simulated dose rate with the initial source term (blue), and the observations (black). Simulations are carried out with ldX.
|
|
|
|
|
|
Figure 10. Exemple de comparaisons entre les mesures de débit de dose aux stations (tracé en noir) et les simulations pX faites avec le terme source initial (en bleu) et le terme source inverse (en rouge).
Comparisons between the simulated dose rate with the inverted source term (red), the simulated dose rate with the initial source term (blue), and the observations (black). Simulations are carried out with ldX.
Conclusions et perspectives
Cet article présente la démarche mise en œuvre pour reconstituer le déroulement de l’accident de Fukushima. La compréhension des processus de formation des zones contaminées n’est pas possible sans l’emploi de la modélisation. Un premier scénario de rejet a été établi à partir de l’analyse des événements sur les installations et de l’exploitation croisée des mesures de radioactivité réalisées sur le site et sur le territoire japonais avec des simulations de la dispersion atmosphérique.
Le déroulement de la catastrophe, telle qu’elle est aujourd’hui comprise grâce au scénario établi, fait état de quatre phases principales de rejets. Trois d'entre elles ont engendré des conséquences sur le territoire japonais. Il semble toutefois que la part la plus importante des rejets ait été dispersée directement vers l’océan. C’est autour du 15 mars que le rejet conduisant au dépôt le plus important a eu lieu. La zone de dépôt humide créé au cours de cet épisode est située au nord-ouest de l’installation.
Le terme source estimé permet de reconstituer ces différentes phases de rejet, mais des incertitudes demeurent sur les quantités rejetées au cours du temps et sur la composition isotopique. Par ailleurs, les résultats ont été longs à obtenir et ce d’autant plus que l’accident a eu lieu au Japon et qu’il était parfois difficile d’avoir des informations précises sur l’état de l’installation.
Pour réduire les incertitudes sur le terme source, les techniques de modélisation inverse ont été utilisées (Winiarek et al., 2012 ; Saunier et al., 2012). L’originalité de l’approche proposée par Saunier et al. (2012) est qu’elle permet d’exploiter les mesures de débit de dose, observations les plus répandues lors d’un accident nucléaire mais aussi les plus délicates à interpréter. Le terme source estimé à partir de cette méthode permet non seulement de retrouver les différentes phases de rejet mais aussi d’identifier de nouveaux événements.
Pour valider les termes sources estimés par les deux méthodes, la dispersion atmosphérique de ces émissions est simulée, et les résultats sont comparés aux observations. Les modèles de dispersion dédiés à la courte distance pour pX et à la longue distance pour ldX permettent d’estimer l’évolution de l’activité surfacique et de l’activité volumique au cours du temps. Le débit de dose résultant de la contribution de tous les isotopes émetteur gamma présents au sol et dans l’air est estimé grâce au modèle consX. La comparaison avec les observations montre que les deux termes sources sont réalistes. L’accord modèle-mesure est tout à fait satisfaisant. Les comparaisons montrent également que le terme source « inverse » permet d’améliorer très sensiblement les résultats par rapport à l’accord obtenu avec le terme source « initial ». Cependant, la composition isotopique du rejet « inverse » reste incertaine, et il est difficile de la valider. Il faut encore probablement l’améliorer. La prise en compte dans le processus d’inversion des mesures d’activités volumique et surfacique devrait aider à y parvenir.
La méthode basée sur la modélisation inverse apparaît donc très prometteuse. Elle est aussi parfaitement adaptée à une utilisation opérationnelle en situation de crise puisqu’elle permet sans connaissance a priori de l’état de l’installation de retrouver les différentes phases de rejets corrélées avec les événements sur l’installation accidentée. Elle devrait donc contribuer efficacement à améliorer la réponse opérationnelle des équipes en charge de l’estimation des conséquences d’un accident nucléaire.

























