Page 1

NR 4/1  LUTY  ‐  MARZEC   2012   MARZEC   2012 

MAGAZYN POPULARNONAUKOWY 

MORSKI WIATR KONTRA ATOM  DOZYMETRIA BIOLOGICZNA  POWIEW FUKUSHIMY...  RADON  


2

Reklama

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Redakcja ul. Świętokrzyska 14 00‐050 Warszawa  tel.22 336 14 19 fax. 22 336 14 25  www.ekoatom.com.pl   E‐mail: redakcja@ekoatom.com.pl  SKŁAD REDAKCJI   Redaktor Naczelny  dr inż. Krzysztof Rzymkowski,   dr inż. Marek Rabiński,   dr inż. Andrzej Mikulski,  dr inż. Piotr Czerski (PGE),   Sekretarz  Redakcji 

Jerzy Szczurowski (SEP COSIW )  Redaktor Techniczny  

Jarosław Cyrynger (SEP COSIW )   RADA PROGRAMOWA:  Przewodniczący   prof. dr hab. Maciej Sadowski,  Członkowie  prof. dr hab. Janusz Lewandowski (PW),  prof. dr hab. Łukasz Turski (UW)  prof. dr hab. Zdzisław Celiński,  prof. dr Andrzej Strupczewski,  prof. dr hab. Natalia Golnik (PW)   prof. dr hab. inż. Roman Domański 

NASZ SPONSOR 

DOŁĄCZ I  ZOBACZ RELACJE FOTOGRAFICZNE 

Redakcja zastrzega sobie prawo dokonywania skrótów, korekty, edycji nadesłanych materiałów, oraz nie zwraca materiałów niezamówionych. Redakcja zastrzega sobie prawo do publikacji materiałów w dogodnym dla redakcji czasie i kolejności oraz niepublikowania materiału bez podania przyczyny. Redakcja nie odpowiada za treść zamieszczonych reklam ogłoszeń i innych płatnych.

3

EKOATOM Nr 4. Luty ‐ Marzec 2012 

Szanowni Państwo Prezentujemy już czwarty numer kwartalnika EKOATOM, jedno‐ cześnie dziękując za zainteresowanie poprzednimi. Dotychczas  stronę EKOATOM odwiedziło łącznie około 64 000 osób.  Będzie‐ my dokładać starań, by atrakcyjność naszego pisma wzrastała.     Pragnąc bardziej przybliżyć problemy związane z  ochroną środo‐ wiska, w bieżącym numerze przedstawiamy rozległy i szeroko  udokumentowany materiał polemiczny, w którym A. Strupczewski omawia aspekty  ekonomiczne wytwarzania energii elektrycznej przez elektrownie wiatrowe.      Mało znany  i rzadko poruszany temat, bardzo interesująco przedstawiony  przez  S. Sommera, to zagadnienia związane z dozymetrią biologiczną. Dozymetria  biologiczna pozwala określić dawkę promieniowania jonizującego na podstawie zmian  spowodowanych w naszym organizmie. Obserwując zmiany w materiale genetycznym  limfocytów krwi obwodowej, krążących przecież po całym ciele, możliwe jest odczyta‐ nie dawki, nawet kiedy promieniowanie objęło niewielki fragment ciała. Jest to najlep‐ szy „dozymetr”, który każdy zawsze nosi ze sobą.     We wstępie do tematyki dotyczącej promieniowania jonizującego M. Rabiń‐ ski przedstawił krótką historię znaku ostrzegającego przed promieniowaniem.   Po raz kolejny, w artykule K. Fornalskiego i L. Dobrzyńskiego omawiany jest  ważny problem niskich dawek promieniowania i ich oddziaływanie na organizm. Kwe‐ s a małych dawek  jest elementem trwającej dyskusji na temat ich nieszkodliwości.    W bardzo interesującej pracy zbiorowej pracowników  Centralnego Laborato‐ rium Ochrony Radiologicznej (K. Isajenko, B. Piotrowska, M. Fujal) omówiono wyniki  pomiarów  izotopów promieniotwórczych, które pojawiły się nad Polską po awarii  elektrowni Fukushima Dai‐ichi .  Zagadnienia związane z ochroną radiologiczną  i no‐ wymi inicjatywami w tej dziedzinie przedstawiła N. Golnik  w artykule  „Kultura ochro‐ ny radiologicznej”. Kultura ochrony radiologicznej to sposób, w jaki ochrona radiolo‐ giczna jest regulowana, zarządzana, wykonywana, kultywowana i postrzegana w miej‐ scach pracy, medycynie i życiu codziennym i odzwierciedla nastawienie, zrozumienie,  cele i wartości wspólne, uznawane przez pracowników, lekarzy, inspektorów i ogół  społeczeństwa, w odniesieniu do ochrony radiologicznej.  Uzupełnieniem rozważań dotyczących ochrony przed promieniowaniem  jest  opis technologii wspomagających rozwój bezpieczeństwa energetyki jądrowej przygo‐ towany przez S. Sommera.      W ostatnim artykule omawiam prowadzone w Japonii działania związane z  usuwaniem skutków katastrofy ekologicznej  po awarii elektrowni Fukushima Dai‐ichi  wywołanej falą tsunami.  Wszystkich chętnych, a przede wszystkim specjalistów, serdecznie zapraszamy do  współpracy i publikowania na naszych łamach.    Dalszy losy naszego czasopisma uzależnione są od wsparcia sponsorów –  Zespół Redakcyjny prosi o kontakt zainteresowanych kontynuacją istnienia naszego  kwartalnika 

EKOATOM JEST PRAWNIE  ZASTRZEŻONYM   ZNAKIEM TOWAROWYM  Centralny Ośrodek Szkolenia i Wydawnictw  Ul. Świętokrzyska 14  00‐050 Warszawa 

tel.22 336 14 19 fax. 22 336 14 25  www.cosiw.pl  e‐mail: handlowy@cosiw.pl   

Redaktor Naczelny Dr inż. Krzysztof Rzymkowski

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


W numerze

4 Wiadomości 

6 RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH   6 RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH    7 RUSZYŁ KONKURS NA PREZESA PGE EJ 7 RUSZYŁ KONKURS NA PREZESA PGE EJ  7 ATOMOWE PLANY PGE NA ROK 2012 7 ATOMOWE PLANY PGE NA ROK 2012   7 PROF. STRUPCZEWSKI: PROGRAM JĄDROWY  REALIZOWANY PRAWIDŁOWO 7 PROF. STRUPCZEWSKI: PROGRAM JĄDROWY  REALIZOWANY PRAWIDŁOWO  8 WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM 8 WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM    

Edukacja Andrzej Strupczewski 

10 ODPOWIEDŹ NA OPRACOWANIE,  MORSKI WIA 10 ODPOWIEDŹ NA OPRACOWANIE,  MORSKI WIATR KONTRA ATOM TR KONTRA ATOM  Wszystkie  źródła  energii  są  Polsce  potrzebne  i  w  planach  polskich  jest  miejsce  zarówno  dla  energii  jądrowej  jak  i  dla  farm wiatrowych, w tym dla morskich farm wiatrowych (MFW). Opracowanie „Morski wiatr kontra atom” niepotrzeb‐ nie podchodzi do spraw rozwoju tych dwóch źródeł energii jakby były one sobie nawzajem wrogie, jakby się wykluczały. 

 Sylwester Sommer 

32 DOZYMETRIA BIOLOGICZNA  Dozymetria  biologiczna  pozwala  określić  dawkę  promieniowania  jonizującego  na  podstawie  zmian  spowodowanych  przez nią w naszym organizmie. Najczęściej posługujemy się zmianami w materiale genetycznym limfocytów krwi ob‐ wodowej  

Promieniowanie jonizujące  Marek Rabiński 

48 HISTORIA ZNAKU OSTRZEGAJĄCEGO PRZED PROMIENIOWANIEM 48 HISTORIA ZNAKU OSTRZEGAJĄCEGO PRZED PROMIENIOWANIEM  Międzynarodowy  znak  ostrzegający  przed  promieniowaniem,  powszechnie  nazywany  'trójlistną  koniczynką',  powstał  około  1946  roku  w  środowisku  pracowników  amerykańskiego  laboratorium  Uniwersytetu  Kalifornijskiego  w  Berkeley.  Sugerowano stworzenie grafiki, symbolizującej promieniowanie emitowane przez atom. 

Krzysztof Wojciech Fornalski, Ludwik Dobrzyński 

54 ROBLEM NISKICH DAWEK PROMIENIOWANIA  A SPRAWA RADONU 54 ROBLEM NISKICH DAWEK PROMIENIOWANIA  A SPRAWA RADONU  Problem niskich dawek promieniowania od lat stanowi przedmiot wielu wnikliwych badań i sporów uczonych co do in‐ terpretacji otrzymywanych wyników. Z jednej strony występują zwolennicy hipotezy o liniowym bez progowym wzroście  ryzyka wraz z dawką, a z drugiej strony zwolennicy koncepcji hormezy radiacyjnej. Czy możliwe jest znalezienie złotego  środka?   Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


W numerze

5

Promieniowanie jonizujące  Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK 

62 „POWIEW FUKUSHIMY” NAD POLSKĄ   Nad naszym krajem około  23 marca 2011  (12 dni po awarii) zarejestrowano pierwsze warstwy mas powietrza znad  elektrowni Fukushima, zawierające niewielkie ilości radionuklidów pochodzenia sztucznego: cezu 137Cs, cezu 134Cs oraz  jodu 131I. Zarejestrowano także śladowe ilości innych izotopów. Ze względu na bardzo dużą odległość uszkodzonej elek‐ trowni od granic naszego kraju, radionuklidy znajdujące się w warstwach powietrza przemieszczających się nad naszym  krajem, uległy  znacznemu "rozcieńczeniu". 

Natalia Golnik 

70 KULTURA OCHRONY RADIOLOGICZNEJ*)1 70 KULTURA OCHRONY RADIOLOGICZNEJ*)1  Ochrona radiologiczna towarzyszy technologii nuklearnej od samego początku jej istnienia, czyli od pierwszych, militar‐ nych zastosowań. W tamtym okresie zadaniami ochrony radiologicznej było ograniczenie narażenia personelu pracują‐ cego z promieniowaniem przed znanymi już zagrożeniami. Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK 

 

Sylwester Sommer 

74 TECHNOLOGIE WSPOMAGAJĄCE ROZWÓJ BEZPIECZEŃSTWA   ENERGETYKI JĄDROWEJ  Dziewiątego grudnia 2011 odbyło się w Krakowie, w siedzibie Instytutu Fizyki Jądrowej PAN im. Henryka Niewodniczań‐ skiego Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i  przyszłych potrzeb energetyki jądrowej”. 

Elektrownie Jądrowe  Krzysztof Rzymkowski 

82  USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ WYWOŁANEJ FALĄ TSUNAMI USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ WYWOŁANEJ FALĄ TSUNAMI  Zbliża się pierwsza rocznica potężnego trzęsienia ziemi (11 marca 2011) , które wywołało ogromną falę tsunami powo‐ dującą tragiczną w skutkach katastrofę.  

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Wiadomości

6

C h c e s z W s p ó ł t w o r z y ć E K O AT O M ? M a s z c i ek aw y

artykuł ...?

napisz na adres redakcja@ekoatom.com.pl RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH       INFORMACJA PRASOWA  Ministerstwo Gospodarki (h p://www.mg.gov.pl)    

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Wiadomości RUSZYŁ KONKURS NA PREZESA PGE EJ RUSZYŁ KONKURS NA PREZESA PGE EJ  Rada nadzorcza PGE Energia Jądrowa ogłosiła konkurs na stanowisko prezesa zarządu  spółki. Zainteresowani tą posadą mają trzy tygodnie na złożenie ofert.  Rada nadzorcza PGE Energia Jądrowa, czyli spółki odpowiadającej w grupie PGE za strate‐ giczne decyzji w obszarze energetyki jądrowej, ogłosiła dzisiaj rozpoczęcie postępowania kwalifikacyjnego  na stanowisko prezesa zarządu spółki.   Preferowani będą kandydaci, którzy poza spełnieniem kryteriów wymienionych w ogłoszeniu, dodatkowo  posiadają doświadczenie zawodowe lub wykształcenie w dziedzinie energetyki jądrowej, wiedzę w zakresie  technologii elektrowni cieplnych, studia podyplomowe lub MBA.  Termin składania ofert w konkursie na stanowisko prezesa PGE Energia Jądrowa upłynie 24 lutego bieżące‐ go roku. Fotel prezesa PGE Energia Jądrowa zwolnił się po złożeniu rezygnacji przez Tomasza Zadrogę, który  był też prezesem zarządu PGE i odszedł z tego stanowiska wskutek rezygnacji z 14 grudnia 2011 roku.   

ATOMOWE PLANY PGE NA ROK 2012   W roku 2012 r. planujemy rozpoczęcie postępowania  przetargowego na dostawcę technologii dla elektrowni  jądrowej. Nastąpi również zakończenie postępowania  przetargowego na inżyniera kontraktu oraz na wykonawcę badań lokali‐ zacyjno‐środowiskowych ‐ mówi Marcin Ciepliński, dyrektor ds. strategii i  rozwoju w PGE Energia Jądrowa.Na rok 2012 zaplanowano ponadto roz‐ poczęcie badań lokalizacyjno‐środowiskowych.   Jak  podkreśla  Marcin  Ciepliński,  w  br.  kontynuowane  będą  prace  nad    projektem, w szczególności w zakresie  Jak podkreśla Marcin Ciepliński, w br. kontynuowane będą prace nad  budowy  i  realizacji  modelu  projektem, w szczególności w zakresie budowy i realizacji modelu finan‐ finansowania  inwestycji  i  rozbudowy  sowania inwestycji, rozbudowy zespołu projektowego i rozwoju własnych  zespołu projektowego Fot. (mat. pras.)   kompetencji. Kontynuowana będzie współpraca z podmiotami zaangażo‐ wanymi w projekt, zintensyfikowane zostaną działania komunikacyjne, zwłaszcza w regionach potencjalnych  lokalizacji elektrowni jądrowej.   wnp.pl (Dariusz Ciepiela)    całość pod adresem h p://energetyka.wnp.pl/atomowe‐plany‐pge‐na‐rok‐ 2012,161208_1_0_0.html  

PROF. STRUPCZEWSKI: PROGRAM JĄDROWY  PROF. STRUPCZEWSKI: PROGRAM JĄDROWY   REALIZOWANY PRAWIDŁOWO  Normalną rzeczą jest, że rozpoczęcie budowy elektrowni jądrowej poprzedza dość długi  okres przygotowawczy. Najważniejszą kwes ą, którą do tej pory zrealizowano, było przyję‐ cie ustawy Prawo atomowe i przygotowanie rozporządzeń wykonawczych Rady Ministrów, które określają  konkretne cechy elektrowni jądrowej i jej właściwości z punktu widzenia bezpieczeństwa. W dyskusjach nad  prawem atomowym, prowadzonych w roku 2010, przeciwnicy energetyki jądrowej twierdzili, że w żaden  sposób nie uda się prawa atomowego przygotować do końca 2011 r. Udało się, prawo obowiązuje od lipca  2011 r. Brakuje jeszcze ok. 7 rozporządzeń Rady Ministrów, ich projekty już są przygotowane, znajdują się  uzgodnieniach międzyresortowych, w ciągu kilku najbliższych miesięcy będą miały moc prawną.    wnp.pl (Dariusz Ciepiela)    całość pod adresem h p://energetyka.wnp.pl/energetyka_atomowa/prof‐strupczewski‐ program‐jadrowy‐realizowany‐prawidlowo,161579_1_0_0.html  

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

7


Wiadomości

8  

WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM   W dniu 12 listopada 2011 roku, odszedł od nas wieloletni pracownik  i    Przewodniczący    Rady  Naukowej  Centralnego  Laboratorium  Ochrony Radiologicznej, oraz jeden z najwybitniejszych autorytetów  w  dziedzinie  higieny  radiacyjnej.  Jego  dorobek  naukowy  zajmuje   poczesne miejsce w historii polskiej nauki, a zwłaszcza w badaniach  zjawisk zachodzących w środowisku i wpływu promieniowania joni‐ zującego  na  organizmy  żyw.  Jego  opracowania  i  publikacje  są  po‐ wszechnie  znane  i  cenione  zarówno  w  Polsce,  jak  i  za  granicą.  Był  nie  tylko  człowiekiem  nadzwyczaj  aktywnym  i  pełnym  inwencji,  o  wszechstronnych  zainteresowaniach,  obdarzo‐ nym wielką erudycją i mistrzowsko władającym słowem i piórem, lecz również człowiekiem o wielkim sercu i inte‐ lekcie, obdarzony wrażliwością  na wszystkie sprawy ludzkie,  oddanym bez reszty nauce i popularyzacji wiedzy     Profesor Jaworowski był autorem ponad 200 prac naukowych, czterech książek i współautorem  lub współ‐ redaktorem naukowych raportów organizacji międzynarodowych : Naukowego Komitetu ds. Skutków Promienio‐ wania Atomowego przy ONZ (UNSCEAR), Międzynarodowej Agencji Energii Atomowej czy Programu Środowisko‐ wego Organizacji Narodów Zjednoczonych, w skrócie UNEP (ang. United Na ons Environmental Programme).  Był członkiem wielu stowarzyszeń i organizacji naukowych w kraju i zagranicą: m.in. Komitetu Ochrony Radiolo‐ gicznej Państwa, Polskiego Towarzystwa Badań Polarnych, Norwegian Physical Society. Był też uczestnikiem bądź  przewodniczącym blisko 20 Grup Doradczych Międzynarodowej Agencji Energii Atomowej (IAEA) i Programu Środo‐ wiskowego ONZ (UNEP).    Był współzałożycielem, a w 2008 roku,  Pierwszym Prezesem Stowarzyszenia Ekologów na Rzecz Energii Nukle‐ arnej SEREN – POLSKA.  Źródło:  z tekstu Dr Pawła Krajewskiego DYREKTORA CENTRALNEGO LABORATORIUM OCHRONY RADIOLOGICZNEJ

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Wiadomości

Obecnie budowane energetyczne bloki jądrowe wykorzystują technologie znane od kilku dekad, podlegające  stopniowemu, ewolucyjnemu udoskonalaniu. Jednym z głównych kierunków rozwoju jest tutaj zwiększanie  sprawności  układu  konwersji  energii  uzyskiwane  na  drodze  podnoszenia  parametrów  termodynamicznych  czynników roboczych – a zatem także parametrów pracy samego reaktora jądrowego. Stanowi to duże wy‐ zwanie  z  materiałowego  punktu  widzenia,  jako  że  zbiorniki  ciśnieniowe  reaktorów  są  konstrukcjami,  które  muszą spełniać niezwykle wyśrubowane normy. Podniesienie wytrzymałości tych zbiorników jest jednocze‐ śnie niezbędne dla umożliwienia pracy reaktora jądrowego w warunkach wyższej temperatury i ciśnienia.  Jeszcze większe wyzwania niesie ze sobą program w rozwoju reaktorów nowej genera‐ cji. Ogólne dążenie do podnoszenia temperatury pracy reaktorów wymusza opracowa‐ nie nowych materiałów nie tylko dla wytworzenia głównych elementów obiegu tech‐ nologicznego,  takich  jak  np.  zbiornik  reaktora,  ale  także  dla  nowych  rodzajów  paliwa  jądrowego zdolnego do pracy w podwyższonej temperaturze. Istotna jest tu np. kon‐ strukcja  koszulek  elementów  paliwowych,  które  muszą  spełniać  wiele  różnorodnych  wymogów, wśród których można wymienić:   odporność na wysokie temperatury i ciśnienia pracy,   odporność na szkodliwe oddziaływanie chłodziwa (np. korozję),   odporność na skutki działania silnego promieniowania,   minimalny wpływ na gospodarkę neutronową rdzenia,   dobrą przewodność cieplną,   łatwość obróbki, pozwalającą na precyzyjne wykonanie odpowiednich elementów.  Warto  podkreślić,  że  to  właśnie  ograniczenia  natury  materiałowej  w  głównej  mierze  ograniczają parametry pracy reaktorów jądrowych – a co za tym idzie sprawność jądro‐ wych bloków energetycznych. Rozwój w tej dziedzinie ma zatem pierwszorzędne zna‐ czenie dla poprawy efektywności wykorzystania dostępnych zasobów paliwa jądrowe‐ go. 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

9


Edukacja

10

Odpowiedź na opracowanie 

MORSKI WIATR KONTRA ATOM   

Andrzej Strupczewski  Wiceprezes Stowarzyszenia Ekologów Na Rzecz Energii Nuklearnej 

STRESZCZENIE Wszystkie źródła energii są Polsce potrzebne i w planach polskich jest miejsce zarówno dla energii jądrowej jak i dla farm wiatrowych, w tym dla morskich farm wiatrowych (MFW). Opracowanie „Morski wiatr kontra atom1” niepotrzebnie podchodzi do spraw rozwoju tych dwóch źródeł energii jakby były one sobie nawzajem wrogie, jakby się wykluczały. Wcale tak nie jest, o czym świadczy zarówno postawa PGE Polskiej Grupy Energetycznej prowadzącej prace nad rozwojem wiatraków, jak i oświadczenie Macieja Stryjeckiego, prezesa Fundacji na rzecz Energetyki Zrównoważonej, niezależnego think-tanku, który prowadził własne analizy porównawcze uwarunkowań ekonomicznych, gospodarczych, społecznych i środowiskowych rozwoju morskiej energetyki wiatrowej i energetyki jądrowej w Polsce2. Stawianie sprawy w kategoriach konfliktu jest wyrazem postawy organizacji Greenpeace, która stawia sobie jako cel polityczny zwalczanie energii jądrowej w każdym kontekście. W dążeniu do uzyskania potrzebnych jej politycznie efektów Greenpeace stosuje szereg chwytów propagandowych i niezgodnych z rzeczywistością twierdzeń, które prowadzą do błędnego wniosku sformułowanego przez autorów broszury, jakoby energia wiatrowa i jądrowa nawzajem się wykluczały. Błędy zawarte w tej broszurze propagandowej są poważne i obejmują całą gamę zagadnień. Nakłady inwestycyjne na obie rozważane technologie są przedstawione tendencyjnie i z grubymi błędami, co daje wyniki sprzeczne z rzeczywistym stanem rzeczy. Perspektywy redukcji kosztów w następnych latach są tendencyjnie wypaczone, niezgodne z rozsądkiem i z publikowanymi danymi. Wnioski odnośnie ceny energii z obu technologii są błędne. Frazesy o tworzeniu wielu miejsc pracy przez rozwój odnawialnych źródeł energii (OZE) są niezgodne z doświadczeniami innych krajów, np. Hiszpanii, i nie uwzględniają rosnącej roli importu spoza krajów Unii Europejskiej. Twierdzenia o negatywnym wpływie energetyki jądrowej na miejsca pracy w Polsce są niezgodne z prawdą. Całość broszury ma służyć do uzasadnienia żądań wyeliminowania energetyki jądrowej. Tymczasem ceny energii z wiatraków są ponad dwukrotnie wyższe od cen energii z elektrowni systemowych, podczas gdy energetyka jądrowa nie wymaga dotacji ani subwencji i oferuje energię po cenie niższej od średniej ceny energii elektrycznej z konwencjonalnych elektrowni systemowych. Odnawialne źródła energii, w tym i morskie farmy wiatrowe, można budować i będziemy budować, ponosząc odpowiednie dodatkowe koszty. Nieuczciwie jest jednak wyłudzanie tych kosztów od społeczeństwa przemilczając rzeczywisty wpływ OZE na wzrost kosztu energii elektrycznej. Nawoływanie do rezygnacji z energetyki jądrowej jest działaniem na szkodę społeczeństwa. W tekście poniżej przedstawimy fakty i informacje ilustrujące rzeczywiste koszty, osiągnięcia i trudności w rozwoju obu tych technologii.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

11

POPARCIE ENERGETYKI ODNAWIALNEJ PRZEZ RZĄD I PARLAMENT W POLSCE Rząd polski i polskie środowiska techniczne doceniają znaczenie odnawialnych źródeł energii (OZE), Premier oświadcza, „dobrze wiemy, że wspieranie odnawialnych źródeł energii, całego sektora zielonej energii jest rzeczą bardzo ważną" 3 , a ustalone przez polski parlament wysokie dopłaty dla deweloperów wiatraków i innych źródeł energii odnawialnej świadczą jednoznacznie o woli ponoszenia dużych kosztów, byle tylko zyski dla deweloperów OZE były wystarczające i by chcieli oni inwestować w Polsce. Trzeba przypomnieć, że o ile za energię elektryczną dostarczoną do sieci elektrownia systemowa dostaje w Polsce około 200 zł/MWh, to producent energii pochodzącej z wiatraków dostaje te same 220 zł PLUS 270 zł dopłaty za „zielony certyfikat” – a więc razem dostaje 470 zł, ponad dwa razy więcej niż energetyka systemowa. Producenci energii odnawialnej mają też dodatkowe korzyści – nie są odpowiedzialni za brak prądu, gdy wiatr nie wieje – o to muszą się martwić elektrownie zawodowe. W miarę wzrostu udziału energii elektrycznej z wiatraków w sieci część elektrowni będzie musiała pracować na poziomie minimum technicznego, aby zapewnić rezerwę dla elektrowni wiatrowych na czas, gdy nie ma wiatru. Producenci energii wiatrowej nie mają też kłopotu, gdy wiatr jest silny - sieć energetyczna ma obowiązek przyjąć energię z wiatraków w każdej chwili i bez uprzedzenia, nawet gdyby miało to oznaczać konieczność wyłączenia z ruchu elektrowni systemowych. Ponadto w fazie budowy deweloperzy wiatraków starają się o dotacje dodatkowe – i otrzymują je4. Ale dla Greenpeace’u to wszystko za mało. Korzystając z tragedii Japonii, w której wskutek trzęsienia ziemi i tsunami zginęło 25 000 mieszkańców, Greenpeace podjął w Polsce kampanię antynuklearną. I chociaż wskutek uwolnienia materiałów promieniotwórczych w Japonii nikt nie stracił życia, w przeciwieństwie do ludzi zabitych przez trzęsienie ziemi i utopionych przez tsunami, Greenpeace straszy nasze społeczeństwo starając się wmówić ludziom, że to elektrownia jądrowa jest przyczyną nieszczęścia Japonii, a nie podwójna klęska żywiołowa, jaka na nią spadła. Chociaż w Polsce i na całym świecie jest dość miejsca i dla drogich, pracujących z przerwami wiatraków i dla stale dostarczającej energię elektryczną taniej energii nuklearnej, Greenpeace wydał niedawno pięknie ilustrowaną broszurę „Morski wiatr kontra atom”, nie szczędząc pieniędzy by wmówić Polakom, że powinni zrezygnować z energii jądrowej i budować wiatraki na morzu. W broszurze twierdzi się, że wiatraki na morzu to rozwiązanie tańsze, co jest twierdzeniem sprzecznym z doświadczeniami innych krajów, w tym krajów dysponujących znaczne lepszymi warunkami wiatrowymi niż Polska, np. Wielkiej Brytanii. Warto przypomnieć, że właśnie w tym roku z budowy wiatraków na morzu na dużą skalę ostatecznie zrezygnowała Holandia5 – bo okazały się zbyt drogie. A Holendrzy mają chyba trochę doświadczenia w wiatrakach – zapewne o kilkaset lat więcej niż aktywiści Greenpeace’u. Ale Greenpeace wspierany przez walczących o polityczną władzę niemieckich zielonych twierdzi, że wiatraki dla Polski to najtańsze źródła czystej energii! Czy nie przydałoby się autorom nieco skromności i przyznania chociaż czasami, że fakty przeczą ich szumnym twierdzeniom? W kilka dni po ukazaniu się wspomnianej broszury Maciej Stryjecki, prezes Fundacji na rzecz Energetyki Zrównoważonej, oświadczył, że nie trzeba przeciwstawiać wiatraków energii jądrowej, bo w gospodarce polskiej jest dość miejsca dla obu tych źródeł energii7. Tego samego zdania jest Stowarzyszenie Ekologów na Rzecz Energii Nuklearnej SEREN. Również PGE Polska Grupa Energetyczna uważa, że trzeba rozwijać i energetykę jądrową i wiatrową i ma zespół fachowców zajmujących się budową i eksploatacją wiatraków bardziej liczny niż zespół do spraw energetyki jądrowej. Nie tylko premier Tusk, ale i wicepremier, minister gospodarki Waldemar Pawlak podkreślają znaczenie odnawialnych źródeł energii, a w kwietniu 2011 r. Rada Ministrów przyjęła opracowany przez Ministerstwo Gospodarki raport określający cele w zakresie udziału energii elektrycznej wytwarzanej w odnawialnych źródłach energii 8 a przy ministrze rolnictwa powołano Zespół ds. Odna-

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


12

Edukacja

wialnych Źródeł Energii9. Ale Greenpeace’owi normalne, spokojne popieranie wiatraków nie wystarcza. Greenpeace szuka rozgłosu, chce sensacyjnych twierdzeń i akcji, które by opisywała prasa, przynosząc zyski polityczne niemieckim i innym zielonym. Dobro gospodarki jest w takiej sytuacji znacznie mniej ważne niż możliwe zyski polityczne. Wobec tego, że autorzy broszury Greenpeace’owej wiodą Czytelnika do rejonów odległych od naszych dotychczasowych doświadczeń i wmawiają mu przy tym, że są bezstronni i że dobrze życzą polskiemu społeczeństwu, przyjrzyjmy się ich argumentom i skonfrontujmy je z rzeczywistością.

OCENA AKTUALNYCH KOSZTÓW INWESTYCYJNYCH ELEKTROWNI JĄDROWEJ Autorzy opracowania Greenpeace’u twierdzą, że ich ocena kosztów dla elektrowni jądrowej jest obiektywna, bo opiera się na uznanej powszechnie metodyce stosowanej przez Massachusetts Institute of Technology (MIT). Gdyby tak rzeczywiście było, nie byłoby powodu do dyskusji, bo z opracowania MIT wyraźnie widać znaczną przewagę ekonomiczną elektrowni jądrowych nad innymi elektrowniami, w tym także wiatrowymi. Jednakże autorzy przyjęli tylko niektóre elementy metodyki MIT i jak sami napisali, zaktualizowali wysokość nakładów inwestycyjnych. Do analiz przyjęto, że nakłady inwestycyjne dla Polski zostaną zwiększone o 80% w stosunku do kosztów budowy elektrowni, określanych jako koszty EPC (engineering, procurement, construction) w studium MIT, a koszty dodatkowe inwestora z 20% do 30%. Razem – wzrost 1,8 x 1,3/1,2 = 1,95 razy! Tymczasem nakłady inwestycyjne są najważniejszą częścią wyceny ekonomicznej, i to zarówno dla elektrowni jądrowych - gdzie są one wysokie - jak i dla wiatraków, dla których są one jeszcze wyższe, i to dużo wyższe. Wobec dominującego znaczenia nakładów inwestycyjnych, zmiany ich wielkości oznaczają brutalną interwencję w rachunek ekonomiczny i bezpośrednie oddziaływanie na wynik porównań kosztowych. Za nierzetelne należy uznać wprowadzenie zdecydowanie innych danych niż w studium MIT i wmawianie potem Czytelnikowi, że zastosowało się „metodykę MIT”! Które nakłady są prawdziwe, czy te podawane przez Greenpeace, czy te przyjmowane przez MIT? Greenpeace nie może pogodzić się z rzeczywistymi wielkościami tych nakładów. Chociaż studium MIT podaje, że nakłady jednostkowe wynoszą 4000 USD/kW (w USD z 2009 roku), co równa się 3000 euro/kW, to raport „poprawiony” podaje, że wyniosą one 5460 euro/kW mocy zainstalowanej 10. Po przeliczeniu na rok bazowy 2011 autorzy otrzymali nakłady w wysokości 6145 euro/kW! Tak więc wartość podana przez Greenpeace jest prawie dwukrotnie większa, niż w oryginalnym raporcie MIT. Rozbieżność jest zbyt duża, by uznać ją za przypadek. Autorzy raportu podają, że opierali się na ocenach agencji ratingowej Moody’s i na opracowaniach znanego przeciwnika energii jądrowej, pana Coopera. Ale ani wyceny agencji, ani polemiczne artykuły działaczy antynuklearnych nie są związane z rzeczywistymi faktami finansowania inwestycji. Można byłoby na te wyceny odpowiedzieć innymi wycenami, wykonanymi przez kompetentnych ekspertów OECD. Przytoczymy je poniżej, choć i te wyceny nie są faktami. Natomiast takimi faktami są ceny w rzeczywiście zawartych kontraktach, i to kontraktach dużych, na sumy rzędu 20 miliardów dolarów każdy. Te fakty chcemy przypomnieć Czytelnikom – i dlatego dokonamy przeglądu kosztów w kontraktach zawartych rzeczywiście w ciągu ostatnich 20 miesięcy. W grudniu 2009 r. Zjednoczone Emiraty Arabskie kupiły od Republiki Korei 4 bloki po 1400 MW za cenę 20 miliardów USD, a więc za około 15 mld euro, co daje cenę jednostkową 2,7 mln euro za MW. Jest to cena za komplet dostaw i budowę wraz z wsadem paliwowym i uruchomieniem – pod klucz, czyli są to nakłady inwestycyjne bezpośrednie (overnight w terminologii angielskiej) obejmujące prace inżynieryjne, dostawy materiałów i urządzeń (engineering, procurement and construction – EPC). Do tego trzeba dołożyć koszty własne inwestora, zagospodarowania działki, koszt doprowadzenia sieci energetycznej do elektrowni i płacenie odsetek od zaciągniętej pożyczki. Te koszty musi jednak ponieść inwestor w każdym przypadku, dla elektrowni wiatrowej budowanej na morzu będą one jeszcze większe niż dla elektrowni Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

13

jądrowej na lądzie. Nie zależą one od typu elektrowni, a raczej od stosunków inwestora z bankami - dlatego zwykle przy omawianiu kontraktów wymienia się sumy płacone przez inwestora dla dostawcy technologii, a nie koszty inwestora. Turcja kupiła od Rosji 4 bloki z reaktorami WWER 1000 o mocy 1200 MW każdy. Koszt całości projektu oceniono na 18-20 mld dolarów USA11, a więc w przeliczeniu na jednostkę mocy przy przyjęciu górnej granicy ceny i po konwersji na euro otrzymujemy 3,1 mln euro/MW. Kontrakt ten ratyfikował parlament Turcji w lipcu 2010 roku – a więc jest to transakcja jak najbardziej aktualna. Podobną cenę za reaktory AP1000 dla EJ Temelin, a mianowicie 3 mln euro/MW wymienił dyrektor firmy Westinghouse, podając że za dwa bloki o mocy 1150 MW każdy Amerykanie chcą otrzymać 6,59 mld euro12. Jest to wiadomość z lipca 2010 – a więc również w pełni aktualna. Koszty budowy reaktora EPR są inne dla bloków prototypowych i inne dla następnych. W prototypowej budowie bloku w Olkiluoto trudności było dużo i opóźnienia oraz koszty były znaczne. W elektrowni Flamanville 3 budowa idzie lepiej, ale i tam są opóźnienia, a koszty doszły do 6 miliardów euro za 1650 MW 13, co oznacza ‘koszty jednostkowe 3.6 mln euro/MW. W następnych blokach budowanych w Tianshan w Chinach prace są wykonywane sprawnie i zgodnie z harmonogramem. Ma to odzwierciadlenie w kosztach budowy, które w Chinach są znacznie mniejsze. To pozytywne doświadczenie pozwoliło Francuzom na zmniejszenie marginesów bezpieczeństwa w ich ofercie finansowej i oferowanie budowy reaktora EPR w Indiach po cenie naprawdę konkurencyjnej. W grudniu 2010 r. prezydent Sarkozy i prezes Nuclear Power Corporation of India Limited (NPCIL) podpisali umowę o budowie 2 reaktorów EPR w Jaitapur i o dostawie paliwa przez 25 lat. Cena, jaką zapłacą Indie, wynosi 9,3 miliarda USD, co oznacza 2.9 mln USD/MW, a pozostały wkład wniosą Indie poprzez swój udział w budowie14. Jest to dobra wiadomość dla Polski – bo jeśli wybierzemy reaktor EPR, to będzie on budowany u nas nie jako prototyp, lecz jako kolejny ósmy czy dziesiąty w serii, co pozwoli nam korzystać ze wszystkich doświadczeń zebranych przedtem w Finlandii, Francji, Chinach, Indiach, Wielkiej Brytanii i w USA. W innych kontraktach powtarzają się ceny płacone dostawcom reaktora na poziomie 3 – 3,3 mln euro/MW. W Bułgarii elektrownia jądrowa Belene z dwoma blokami WWER o mocy 1068 MW każdy15, ma wg dostawcy kosztować 6.3 mld euro16 , co oznacza cenę 2,95 mln euro/MW. Bułgaria targuje się by uzyskać niższą cenę. Na Białorusi mają powstać dwa reaktory o łącznej mocy 2400 MW17 za 9 miliardów USD, co oznacza koszt jednostkowy 2810 euro/ MW. Te dane o kontraktach zgadzają się z ocenami uśrednionych kosztów energii elektrycznej z różnych źródeł, których dokonali eksperci OECD w końcu 2010 roku. Zestawienie wyników Rys. 2.1 Uśrednione koszty energii elektrycznej z różnych źródeł energii elektrycznej w  opublikowanych w 2010 Ameryce, Europie i Azji wg OECD 2010 18  

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


14

Edukacja

Rys. 2.2 Uśrednione koszty energii elektrycznej z różnych źródeł energii elektrycznej w  Ameryce, Europie i Azji wg OECD 2010.18 

                                             

PRZEWIDYWANY WZROST KOSZTÓW BUDOWY ELEKTROWNI JĄDROWYCH PO AWARII W EJ FUKUSHIMA Autorzy raportu twierdzą, że po awarii w Fukushimie ceny reaktorów znacznie wzrosną. Na poparcie swego twierdzenia przytaczają opinię pana Coopera, znanego przeciwnika energetyki jądrowej. Nie jest to dowód, że mają rację – pan Cooper od dawna przepowiada, że energetyka jądrowa musi być nieopłacalna i fakt, że jest ona najtańszym czystym źródłem energii, wcale nie przeszkadza mu w powtarzaniu jego opinii. Jeszcze dalej idzie prof. Mielczarski, który dla energetyki jądrowej podaje fantastyczne koszty wytwarzania energii elektrycznej rzędu 600 zł/MWh. Na uzasadnienie swych twierdzeń pan Cooper podaje, że poprzednio po awarii w Three Mile Island (TMI) koszty budowy elektrowni jądrowych znacznie wzrosły. Rzeczywiście taki wzrost wystąpił, ale awaria w Fukushimie nie spowoduje takich skutków jak awaria w TMI. Awaria w TMI była spowodowana przez błędy konstrukcyjne w elektrowni, błędy we wskazaniach układów pomiarowo-kontrolnych i błędy ludzkie. Dozór jądrowy w USA dokonał analizy bezpieczeństwa wszystkich pracujących i budowanych wówczas elektrowni jądrowych w USA i nakazał wprowadzić szereg dodatkowych zabezpieczeń i zmian, co zmusiło inwestorów do zatrzymania budowy realizowanych wówczas elektrowni, zaprojektowania i zrealizowania zmian, co opóźniało budowę obiektów i powodowało wzrost kosztów. Natomiast awaria w Fukushimie była skutkiem zdarzeń zewnętrznych, w szczególności tsunami, którego wielkość przekroczyła oczekiwania, ustalane zresztą nie przez inżynierów jądrowych, ale przez sejsmologów i hydrologów. Urządzenia elektrowni wytrzymały trzęsienie ziemi, natomiast nie były odporne na zalanie wodą. Oczywiste jest, że w ogromnej większości lokalizacji elektrowni jądrowych zagrożenie tsunami nie występuje. W chwili obecnej prowadzona jest akcja weryfikacji odporności istniejących elektrowni jądrowych na zagrożenia zewnętrzne, tzw. akcja stress-testów. Ma ona być zakończona do końca roku i może wykazać, że niektóre pracujące obecnie elektrownie wymagają modyfikacji i wzmocnienia ich odporności na zagrożenia zewnętrzne. Są to jednak elektrownie obecnie pracującej II generacji. Reaktory III generacji były projektowane już po atakach terrorystycznych z 11 września 2001 roku i konstrukcje ich są odpowiednio wzmocnione, tak, że wytrzymują ataki terrorystyczne i zagrożenia zewnętrzne. Na przykład elektrownia jądrowa z reaktorem EPR jest budowana tak, że każdy z czterech systemów bezpieczeństwa znajduje się w oddzielnym Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

15

budynku, budynki są rozmieszczone na czterech rogach elektrowni, a wystarcza działanie jednego systemu by elektrownia pozostawała bezpieczna. Również awaryjne generatory diesla są rozdzielone, a dodatkowo budynki ważne dla bezpieczeństwa są chronione powłokami odpornymi na uderzenia samolotów i na zjawiska zewnętrzne. W reaktorze EPR jest specjalna podwójna obudowa reaktora, o bardzo grubych ścianach - 130 i 180 cm betonu, specjalnie zbrojonego19. Zabezpieczenia chroniące nowe elektrownie jądrowe przed zniszczeniem w razie uderzenia samolotu wymagane są także w USA i elektrownie jądrowe z reaktorami AP1000 i ESBWR zaprojektowane zostały zgodnie z tymi wymaganiami już na wiele lat przed awarią w Fukushimie. Dlatego zdarzenia zewnętrzne takie jak wstrząsy sejsmiczne, huragany, powodzie, a także działania człowieka nie stanowią w przypadku reaktorów III generacji nowości wymagającej dodatkowych modyfikacji i kosztów. W Japonii największe w historii trzęsienie ziemi spowodowało przyspieszenia na poziomie gruntu rzędu 0,3 g. Reaktory EPR projektowane są jako odporne na trzęsienie ziemi od 0.1 g w Finlandii do 0.3 g w USA. Standardowe projekty EPR, AP1000 i ESBWR są obliczone na wartość max poziomego przyśpieszenia gruntu 0,3g – natomiast według przepisów energetyki Rys. 3.1 Dodatkowa powłoka chroniąca obudowę  europejskiej EUR wymagane jest 0,25g. W warunkach polbezpieczeństwa reaktora EPR i jego układy  skich, które są podobne do fińskich, nie będzie żadnych probezpieczeństwa przed uderzeniem samolotu20.  blemów z odpornością sejsmiczną reaktora EPR. Nie należy też oczekiwać żadnych podwyżek kosztów powodowanych przez względy sejsmiczne – zostały już one

Rys. 3.2 Wymagania odporności na wstrząsy sejsmiczne stawiane reaktorowi EPR  w różnych krajach21. 

uwzględnione w projekcie EPR na długo przed Fukushimą. Analizy bezpieczeństwa sejsmicznego wykonane przez firmę AREVA dla urzędów dozoru jądrowego w USA i w Wielkiej Brytanii wykazały, że nawet szczytowe przyspieszenie na poziomie gruntu równe 0.6g nie spowodowałoby znaczącego obniżenia zdolności układów bezpieczeństwa EPR do wykonywania ich funkcji. Podchodząc do wniosków z awarii w Fukushimie w sposób bardziej ogólny energetyka jądrowa stawia postulat wzmocnienia zasilania elektrycznego, tak by elektrownia mogła wytrzymać długotrwały brak zasilania ze źródeł zewnętrznych i awarie własnych awaryjnych agregatów prądotwórczych. Również i ten postulat jest spełniony w przypadku reaktorów III generacji. Firma Westinghouse opracowała analizy, które wykazały, że reaktor AP1000 może bezpiecznie wytrzymać całkowitą utratę zasilania elektrycznego ze wszystkich źródeł prądu zmiennego przez 72 godziny 22, a w późniejszym okresie wystarcza uruchomienie

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

16

jednej tylko pompy by zapewnić długotrwałe chodzenie reaktora zasobami wody znajdującymi się w elektrowni. Westinghouse wykazał także, że basen przechowywania paliwa jest dobrze zabezpieczony i nie grozi mu awaria nawet w razie długotrwałego braku zasilania elektrycznego pądem przemiennym23. Również reaktor EPR jest odporny na brak zasilania prądem przemiennym z zewnątrz. Ma on 4 gene-

Rys. 3.3 Zasoby wody w reaktorze EPR 24 

ratory diesla o mocy 7 MW każdy, umieszczone w osobnych budynkach odpornych na zagrożenia zewnętrzne i dwa małe generatory diesla, każdy o mocy 1 MW, na wypadek całkowitej utraty zasilania z zewnątrz i z generatorów awaryjnych w elektrowni. Układy te są różnorodne (różne moce i napięcia - 10 kV i 690 V), osiągają pełną moc w ciągu 15 sekund po sygnale rozruchu i mogą pracować na pełnym obciążeniu przez 72 godziny. Czas ten jest wystarczający, by dowieźć i uruchomić ciężki sprzęt awaryjny zapewniający długotrwałe zasilanie elektryczne. Ponadto w projekcie reaktora EPR uwzględniono, że sieć zewnętrzna może być uszkodzona w wyniku trzęsienia ziemi, co spowoduje brak zasilania zewnętrznego przez 15 dni. Wobec tego, że w toku awarii EJ Fukushima wystąpił problem braku wody, firma AREVA przeanalizowała zasoby wody istniejące w elektrowni z reaktorem EPR i stwierdziła, że są one wystarczające. W razie utraty głównego ujścia ciepła (np. odprowadzenia ciepła do oceanu), reaktor EPR dysponuje dodatkowym osobnym układem odprowadzania ciepła oraz dużymi rezerwami wody w 4 zbiornikach systemu awaryjnego układu wody zasilającej wytwornice pary, dużym basenem wody do gaszenia pożarów i dużym zbiornikiem wody wewnątrz budynku reaktora. Dzięki silnemu i odpornemu na zagrożenia systemowi chłodzenia reaktora, w razie awarii utraty zasilania elektrycznego w reaktorze EPR zgromadzi się mniej zakumulowanej energii cieplnej. Umożliwia to usuwanie grzania powyłączeniowego nawet wtedy, gdy możliwości działania ograniczają się do środków zewnętrznych. Analizy wykazały, że dzięki spadkowi generacji ciepła po wyłączeniu Rys. 3.4 Chłodzenie po upływie 1 dnia od awarii może zapewnić dostarczanie  reaktora, w przypadku reaktora EPR po 25 wody z 1 wozu strażackiego   

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

17

upływie 1 dnia od awarii wystarcza dostarczanie wody z jednego wozu strażackiego by zapewnić wystarczające chłodzenie rdzenia reaktora. Tak więc reaktory III generacji były już od dawna zaprojektowane jako odporne na takie zagrożenia, jakie wystąpiły po trzęsieniu ziemi w Japonii. Urzędy dozoru jądrowego prowadzą analizy wniosków z Fukushimy, które będą uwzględnione w licencjonowaniu nowych elektrowni jądrowych. Jednakże nie oczekuje się istotnych zmian. W Wielkiej Brytanii regulator ONR (Office for National Regulation) opublikował w dniu 18 maja 2011 raport, w którym stwierdził, że nie widzi podstaw do przerywania pracy istniejących bloków jądrowych i sformułował zalecenia mające zwiększyć ich odporność na zagrożenia zewnętrzne. Szef dozoru brytyjskiego Mike Weighmann przygotowuje raport na temat Fukushimy, który będzie opublikowany w końcu września 2011, po czym brytyjski dozór jądrowy zamierza wydać ostateczne świadectwa bezpieczeństwa projektom elektrowni z reaktorami EPR i AP1000. Według oświadczenia dyrektora firmy AREVA w Polsce, jeśli będzie potrzeba, to do reaktora EPR zostaną wprowadzone odpowiednie modyfikacje, ale z dotychczasowych analiz wynika, że w obecnej koncepcji reaktor EPR nie potrzebuje poważniejszych zmian. Zaburzenia sejsmiczne w Polsce są minimalne, porównywalne do tych, jakie występują w Finlandii, a więc wielokrotnie mniejsze niż były w Japonii. Prawdopodobieństwo wysokiej fali w Polsce jest znikome, a analizy powodziowe wykonuje się jako normalną część każdego projektu elektrowni jądrowej. Jakie by nie były zagrożenia, to można tak skonfigurować elektrownię, że będzie można się przed nimi zabezpieczyć. Zmiany mogą wpłynąć na koszty istniejących elektrowni jądrowych, w których będą wprowadzane modyfikacje. Np. niemiecki dozór jądrowy wydał raport, w którym stwierdza się, że niemieckie elektrownie jądrowe są bezpieczne, ale 4 bloki nie mają ochrony fizycznej na wypadek uderzenia samolotu. Możliwe jest, że w wyniku takich ocen elektrownie te będą musiały wprowadzić wzmocnienie konstrukcji lub zostaną zamknięte. W Rosji Rostechnadzor opublikował w kwietniu 2011 raport, w którym stwierdził, że rosyjskie elektrownie jądrowe nie mają luk w zakresie odporności na zagrożenia zewnętrzne. Urzędy dozoru jądrowego w innych krajach również prowadzą analizy, i tak np. w USA dozór jądrowy (NRC) wydał już tymczasowy raport 27 z zaleceniami, które zasadniczo nie wiążą się z dodatkowymi wydatkami na modyfikacje elektrowni, a ukierunkowane są głównie na ulepszenie pracy dozoru jądrowego.

NAKŁADY INWESTYCYJNE NA MORSKIE FARMY WIATROWE Jak wspomnieliśmy powyżej, jednostkowe nakłady inwestycyjne na budowę wiatraków są znacznie wyższe niż nakłady na elektrownie jądrowe. Jest to skutkiem bardzo małej gęstości mocy wiatru – setki razy mniejszej niż w przypadku wody i pary, wykorzystywanych w turbinach elektrowni jądrowych – a także niewielkich współczynników wykorzystania mocy na skutek częstych spadków siły wiatru. Dlatego do wyprodukowana tej samej ilości energii potrzeba wiatraków o mocy 4-5 razy większej od mocy elektrowni jądrowych. A chociaż pojedyncze wiatraki wydają się smukłe, w rzeczywistości ilości materiałów potrzebnych na ich budowę są dużo większe niż ilości materiałów potrzebnych na elektrownie jądrowe. Do budowy elektrowni jądrowej z reaktorem PWR o mocy 1000 MW pracującym przez 90% godzin w roku pełną mocą potrzeba 60 000 ton stali i 372 tys. ton betonu 28 Dla reaktora EPR o mocy 1650 MW wskaźniki są podobne – potrzeba dlań 630 tys. ton betonu 29. Dla reaktorów PWR wg oceny IAEA potrzeba 900 tys. ton betonu i 50 000 ton stali 30- jest to najwyższa z ocen dla reaktorów energetycznych. Razem więc, na 1000 MW potrzeba w przypadku EJ około od 430 tys. ton do miliona ton żelaza i betonu. A dla farmy wiatrowej – ile? Wiatrak o mocy szczytowej 2 MW pracujący na lądzie potrzebuje podstawy betonowej o wadze około 800 ton i elementów stalowych o wadze około 300 ton, Tymczasem jego moc przy przeciętnych współczynnikach obciążenia jest dużo niższa. W 2010 r. w Niemczech współczynnik obciążenia wyniósł tylko 0,197, w Wielkiej Brytanii 0,20 i tylko w krajach o szczególnie silnych wiatrach jak Dania i Irlandia wartość tego współczynnika sięgała odpowiednio 0,27 i 0,24 31. Przyjmując wyższy od zanotowanego w ostatnim roku współczynnik obciążenia 0,22 widzimy, że wiatrak o mocy nominalnej 2 MW pracuje średnio z mocą 440 kW.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


18

Edukacja

Potrzeba więc razem 1100 ton żelaza i betonu na wiatrak o mocy średniej 440 kW i o trwałości 20 lat. Dla elektrowni jądrowej współczynnik obciążenia można przyjąć równy 0,9 (średnia dla wszystkich 104 bloków jądrowych w USA to 0,91 lub wyżej) co oznacza, że na farmy wiatrowe na lądzie dające tyle energii, co EJ 1000 MW przez 60 lat potrzeba (800+300)/2x1000x0,9/0,22x60/20 = 6,75 miliona ton żelaza i betonu. Jest to liczba szokująca – od 7 do 15 razy więcej niż dla elektrowni jądrowej. Nic dziwnego, że i nakłady inwestycyjne są większe. A ile one wynoszą? Wg broszury dla uzyskania mocy średniej takiej jak z elektrowni jądrowej o mocy 3000 MW potrzeba klastra MFW o mocy 5460 MW. Koszty tych farm wynoszą obecnie 3500 euro/kW 32. Autorzy broszury twierdzą, że koszty te gwałtownie spadną. Zobaczmy, czy doświadczenie potwierdza te obietnice.

DŁUGOTERMINOWE PERSPEKTYWY ZMIAN NAKŁADÓW INWESTYCYJNYCH NA ELEKTROWNIE JĄDROWE I WIATROWE Autorzy broszury przyjmują zupełnie inne założenia dla każdej z rzekomo obiektywnie porównywanych technologii. Dla energetyki jądrowej przewidują oni ciągły wzrost kosztów, zaprzeczając spadkowi kosztów w miarę uczenia się, chociaż doświadczenia energetyki jądrowej są jednoznacznie pozytywne. Jak widać z rys. 5.1, przy budowie serii reaktorów danego typu występowało wyraźne skrócenie czasu budowy w miarę zdobywania doświadczenia, a wraz z nim malały koszty budowy.

Rys. 5.1 Skracanie czasu budowy bloków EJ w miarę zdobywania doświadczenia  

Szczegółowych danych o redukcji czasu budowy kluczowych elementów też nie brakuje. Na rys. 5.2 widzimy, że przy budowie bloków nr 1 i 2 z reaktorami EPR w elektrowni Taishan w Chinach (TSN1 i 2) wystarczał czterokrotnie mniejszy nakład pracy dla osiągnięcie tego samego zaawansowania budowy, co przy budowie prototypowych bloków w Olkiluoto w Finlandii (OL3) i Flamanville we Francji (FA3). Znaczne obniżenie kosztów elektrowni jądrowych przewidują także analizy wykonywane dla warunków brytyjskich, jak widać w tabeli 5.1, gdzie podano przewidywane nakłady inwestycyjne przy przyjęciu scenariusza zrównoważonego rozwoju i scenariusza najmniejszych kosztów.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

19

Rok

2015

2020

2025

2030

2035

2040

Scenariusz zrównoważo‐ nego rozwoju

Mln £/MW

2759

2608

2516

2426

2341

2259

Mln Euro/kW

3310

3216

3019

2911

2809

2710

2609

2307

2167

2036

1914

1800

3130

2768

2600

2443

2230

2160

Scenariusz najmniejszych  £/kW kosztów

Euro/kW

Tabela 5.1 Jednostkowe nakłady inwestycyjne na elektrownie jądrowe w Wielkiej Brytanii 34 

Jak widać, dla roku 2015, gdy będą zamawiane bloki dla elektrowni jądrowej w Polsce, nakłady inwestycyjne w Wielkiej Brytanii będą w przedziale od 3130 do 3310 euro/kW, a w następnych latach będą malały. Jest to ocena zasadniczo odmienna od zawyżonych ocen podawanych przez przeciwników energetyki jądrowej.

Rys. 5.2 Zaawansowanie budowy w funkcji pracochłonności w blokach prototypowych LO3 i FA3 i w  blokach następnych w TSN 1 i 2. 35 

Przeciwnicy energetyki jądrowej powołują się na długotrwałe opóźnienia w budowie amerykańskich elektrowni jądrowych w XX wieku, twierdząc, że są one regułą dla przemysłu jądrowego. Ale opóźnienia w budowie elektrowni jądrowych w USA są „sukcesem” organizacji antynuklearnych. To wskutek ich protestów procesy sądowe trwały przez wiele lat, niekiedy doprowadzały do ruiny firmy inwestujące w energetykę jądrową, zawsze zaś powodowały wzrost kosztów. Słowo „sukces” zasługuje na cudzysłów, bo koszty odsetek narastających podczas tych procesów musiało w ostatecznym rozrachunku pokryć społeczeństwo, a nie organizacje typu Greenpeace. A gdy elektrownie dostawały wreszcie zezwolenie na pracę, to pracowały znakomicie. A straty czasu i pieniędzy - bo odsetki od zamrożonego kapitału trzeba było płacić przez cały czas każdego procesu – były niepotrzebne. Opóźnianie rozruchu elektrowni jądrowych było w interesie organizacji antynuklearnych, walczących o rozgłos i wpływy, ale na pewno nie w interesie społeczeństwa. W Polsce nie można powtarzać błędów amerykańskich, jesteśmy zbyt ubodzy, by bez sensu płacić odsetki za czas tracony na spory. Wszelkie dyskusje trzeba przeprowadzić PRZED rozpoczęciem budowy elektrowni jądrowej (EJ), a nie później. Opóźnienie rozpoczęcia budowy nie jest bardzo kosztowne, po prostu społeczeństwo polskie za każdy rok opóźnienia programu musi zapłacić zużyciem droższej energii z innych źródeł. Natomiast gdy w budowę już włożono miliardy euro i elektrownia czeka na zezwolenie na rozruch – wtedy opóźnienia są bardzo kosztowne, bo odsetki od kapitału trzeba płacić! Oczywiście autorzy broszury wiedzą, że wraz ze zdobywaniem doświadczenia koszty maleją. Ale takie pozytywne stwierdzenia zachowują tylko dla technologii wiatrowej. Autorzy podają że „Najnowsze, budowane obecnie na Bałtyku, niewielkie jeszcze MFW mają koszty jednostkowe rzędu 3 500 EUR/kW.” Jakież więc koszty przyjmują na okres około 2020 roku? Odpowiedź jest bardzo optymistyczna. Nakłady inwestycyjne na rok 2020 mają wynosić tylko – 2 510 EUR/kW (EUR z 2007 r). Do tego autorzy dodają znikomo małe koszty przyłączenia farmy do sieci

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


20

Edukacja

elektroenergetycznej na lądzie. Koszty te mają pokryć rozbudowę głównego punktu zasilającego (tzw. GPZ), budowę stacji Lubiatowo i rozbudowę stacji Słupsk. Łącznie przewidziano na ten cel 25 mln zł co stanowi zaledwie dodatkowo 1,1 EUR/kW; Biorąc pod uwagę, że farmy wiatrowe będą budowane w odległości około 40 km od brzegu, kwota 1,1 euro/kW wydaje się zaniżona. Ale pozostańmy przy ocenie zmian kosztów w funkcji czasu i procesu uczenia się. Oto na 2040 rok autorzy broszury podają nakłady inwestycyjne w wysokości 1 802 EUR/kW (EUR z 2010 r.), chociaż według ocen firmy Mott-MacDonald są one wyższe. Tak więc autorzy założyli, że koszty inwestycyjne MFW zmaleją dwukrotnie w okresie od 2011 do 2040 roku. Twierdzą oni – podobnie jak wszyscy zwolennicy OZE – że koszty OZE stale maleją. Tymczasem nie jest to zgodne z prawdą. Koszty inwestycyjne na elektrownie wiatrowe w USA po dwóch dekadach obniżek zaczęły w XXI wieku rosnąć i od 2004 roku wzrosły bardzo wyraźnie. W 2004 roku nakłady inwestycyjne na turbiny wiatrowe na lądzie były najniższe, około 1100 USD/ kW. Już w 2006 roku koszty te wzrosły i wynosiły średnio 1485 USD/kW, z zakresem kosztów sięgającym od 1300 USD/kW do ponad 1700 USD/kW. Analitycy w Lawrence Berkeley National Laboratory sądzą, że podwyżki wynikają z kilku powodów, wśród których najważniejszym był wzrost cen surowców i energii: Koszty surowców stosowanych do budowy wiatraków i urządzeń pomocniczych takich jak cement, miedź, stal i inne wzrosły. Cena miedzi wzrosła z $0,72/lb w lipcu 2002 do $2,32/lb w marcu 2006. Ceny stali zbrojeniowej wzrosły w tym samym okresie o 45%. Ceny betonu budowlanego wzrosły o 50%. Podobnie wzrósł koszt energii potrzebnej do produkcji, transportu i montażu turbin wiatrowych i generatorów. Cena detaliczna oleju napędowego do silników diesla w USA wzrosła z $0,85/galon w lipcu 2002 do $2,07/galon w marcu 2006. Wobec ogromnej materiałochłonności i energochłonności budowy wiatraków musiało to odbić się na cenach wiatraków. Inne przyczyny wzrostu kosztów to koszty utrzymania ruchu turbin wiatrowych, które okazały się wyższe od oczekiwanych, w szczególności dla turbin wiatrowych firmy VESTAS z Danii. Ponadto dostawcy turbin powiększali swoje zyski (w warunkach amerykańskich dominującym dostawcą jest firma General Electric, która podniosła ceny wobec tego, że ceny dostaw z Europy wzrosły na rynku amerykańskim wskutek niskiego kursu dolara wobec euro). Czynniki te były częściowo kompensowane przez wzrost mocy farm wiatrowych co spowodowało redukcję kosztów dostaw wyposażenia, kosztów budowy i eksploatacji. Średnia moc farmy wiatrowej na północnozachodnim wybrzeżu USA wzrosła z około 20 MW w latach 1997-2000 do ponad 175 MW dla farm budowanych obecnie. Całkowita moc farm wiatrowych nadal rośnie i ostatnio zapowiadano dojście do mocy 750 MW. Inne elementy kosztów utrzymują się na mniej więcej stałym poziomie. W sumie jednak nakłady inwestycyjne wzrosły. Przykład tej tendencji wzrostowej podano w analizie organizacji The Northwest Power and Conservation Council (NPCC). W swoim planie sformułowanym w 2002 roku i przyjętym w 2004 roku NPCC 36 przyjmowała nakłady inwestycyjne w wysokości $1010 USD z 2000 r. co odpowiada 1160 USD/kW w USD z 2006 roku. Do roku 2004 wydawało się, że te założenia są rozsądne, pisze NPCC. Ale koszty nowych farm wiatrowych wzrosły znacznie w ciągu następnych lat. Przewidywane ceny energii z elektrowni wiatrowych oddawanych do eksploatacji w 2007 roku doszły do ponad 100 USD/MWh. Głównym elementem powodującym taki wzrost był wzrost nakładów inwestycyjnych o około 50% w stosunku do założeń z 2004 roku. Jednostkowe nakłady inwestycyjne w roku 2006 oceniano jako równe średnio 1500 USD/kW. Podwyżki te zostały częściowo zrównoważone przez udoskonalenia w procesie konwersji energii, dające oszczędności w wysokości około 7%. W sumie jednak zyski z budowy wiatraków znacznie zmalały. Inny wskaźnik wzrostu kosztów morskich farm wiatrowych otrzymamy porównując oceny opracowywane dla nich dawniej i obecnie. W 2002 roku oceniano, że koszty morskich farm wiatrowych są około 30-40% wyższe od kosztów farm lądowych. Wynosiły więc one wtedy około 1500-1800 USD/kW. Tymczasem obecnie autorzy broszury podają koszty w wysokości 3500 euro/kW – a więc ponad dwukrotnie więk-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

21

sze. A więc koszty farm wiatrowych rosną! W marcu 2011 r. nakłady inwestycyjne na wiatraki w USA wahały się w szerokim zakresie, od 4,16 mln USD/MW w farmie wiatrowej na Hawajach do 2.45 mln USD /MW na wiatraki na lądzie w stanie Maine37. Ale nawet porównując niższą z tych wartości z cenami z poprzednich lat widać, że o spadku kosztów inwestycyjnych nie ma mowy – od 2003 roku do 2011 r. jednostkowe nakłady inwestycyjne na farmy wiatrowe na lądzie wzrosły z 1.1 do 2.45 mln USD/MW, a więc około 2,7 razy. Efektem tego był gwałtowny spadek tempa inwestowania w wiatraki w USA – w 2010 roku przyrost mocy zainstalowanych wiatraków był dwukrotnie niższy niż w 2009 roku 38. W Europie wielką farmę wiatrową na morzu będzie budować Francja - moc szczytowa farmy wyniesie 3000 MW, koszt 10 miliardów euro 39, a więc 3,3 mln euro/MW, podobnie jak w amerykańskiej farmie na Hawajach. W Holandii w maju 2010 roku rząd przydzielił niemieckiej firmie deweloperskiej Bard Engineering ogromne subsydium w wysokości 4.5 miliarda euro na budowę dwóch farm wiatrowych o mocy 300 MW każda na Morzu Północnym. Oznacza to nakłady inwestycyjne w wysokości 7,5 mln euro/MW. Najnowsza informacja o farmie wiatrowej na morzu budowanej dla Niemiec podaje, że nakłady inwestycyjne na tę farmę o mocy 288 MW wyniosą 1,2 miliarda USD40. Przy współczynniku wykorzystania mocy zainstalowanej równym 0,45 jak podają autorzy broszury41 oznacza to 9,2 mln USD/MW. Nic dziwnego, że za energię z farmy wiatrowej na morzu Niemcy muszą płacić deweloperom 190 euro/MWh 42. Powyższe dane wskazują, że założenia autorów broszury o gwałtownym spadku kosztów inwestycyjnych na wiatraki są nieuzasadnione. Jeśli nawet założymy, że trend wzrostu kosztów obserwowany od 2004 roku do chwili obecnej nie utrzyma się i ceny wiatraków nie będą rosły, to przyjmowanie jako założenia do analiz, że:  koszty EJ wzrosną ponad dwukrotnie ponad obecne ceny  koszty wiatraków spadną ponad dwukrotnie w stosunku do obecnych cen jest nieuprawnione i w oczywisty sposób fałszuje rzeczywistość.

ŁĄCZNE NAKŁADY INWESTYCYJNE DO PONIESIENIA W PRZY WYBORZE JEDNEJ Z ROZWAŻANYCH TECHNOLOGII Autorzy broszury podali, że dla wytworzenia w farmach wiatrowych na morzu takiej samej energii jak w pierwszej polskiej elektrowni jądrowej o mocy 3000 MW potrzeba klastra MFW o mocy 5460 MW. Widzieliśmy powyżej, że nie ma uzasadnienia dla przyjmowania na przyszłość – do roku 2020 – jednostkowych nakładów inwestycyjnych na farmy morskie innych niż obecne. Przy nakładach wynoszących jak podaje broszura 3500 euro/kW, koszty inwestycyjne programu budowy wiatraków morskich wyniosą 5460MW x 3500 000 euro/MW = 20 miliardów euro. Jest to równowartość 80 miliardów PLN 43. W przypadku pierwszej elektrowni jądrowej, przyjmując zgodnie z analizą MIT, na którą powołują się autorzy broszury, (ale bez nieuprawnionych modyfikacji!) bezpośrednie koszty inwestycyjne (EPC) w wysokości 3300 euro/kW powiększone o koszty inwestora w wysokości 20% otrzymujemy łączne nakłady 4000 euro/kW, co oznacza koszt pierwszej EJ w wysokości 12 miliardów euro = 48 miliardów PLN. Autorzy broszury podają 50 mld PLN- można przyjąć tę wielkość jako wyjściową do dalszej oceny. Jest to dużo – ale znacznie mniej, niż koszt programu rozwoju morskich farm wiatrowych. I to nie licząc okresu pracy użytecznej – który dla elektrowni jądrowej wynosi 60 lat, a dla wiatraków 20 lat, a więc koszty inwestycyjne na wiatraki trzeba będzie w czasie trwania elektrowni jądrowej ponieść trzykrotnie! Można popierać rozwój wiatraków – ale nie można twierdzić, że 80 miliardów potrzebne na wiatraki to mniej niż 48 miliardów na elektrownię jądrową. Greenpeace pisze, że rząd polski i parlament muszą zmienić swe plany i zrezygnować z budowy elektrowni jądrowej a budować wiatraki na morzu. Ale nawet Greenpeace nie może pisać, że budowa wiatraków jest tańsza!

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


22

Edukacja

WSPÓŁCZYNNIK WYKORZYSTANIA MOCY ZAINSTALOWANEJ DLA EJ I DLA MFW Aby uzyskać zamówione przez Greenpeace wyniki, autorzy broszury nie tylko stosują tak grube zmiany, jak niemal dwukrotnie podwyższenie nakładów inwestycyjnych. Wprowadzają oni także istotne zmiany w założeniach odnośnie współczynnika wykorzystania mocy zainstalowanej dla elektrowni jądrowych, przyjmując go zbyt nisko, a dla elektrowni wiatrowych- zbyt wysoko w stosunku do rzeczywistości. Rzeczywistość zaś jest taka, że średnia wartość współczynnika wykorzystania mocy zainstalowanej we wszystkich 104 rektorach energetycznych w USA stopniowo rosła, przed kilku laty osiągnęła wartość powyżej 91% i utrzymuje się na tym poziomie rok po roku.

Rys. 7.1 Współczynnik obciążenia dla wszystkich 104 reaktorów energetycznych w USA44 

Warto dodać, że są to reaktory z trzema równoległymi systemami bezpieczeństwa, przy czym jeden wystarcza do zapewnienia bezpieczeństwa, a dwa stanowią rezerwę na wypadek awarii i uszkodzeń. Oznacza to, że dla dłuższych napraw trzeba te reaktory zatrzymywać – a więc obniżać ich współczynnik wykorzystania mocy. Natomiast nowe reaktory III generacji mają po cztery układy bezpieczeństwa, co oznacza, że w razie potrzeby można jeden z nich naprawiać, gdy reaktor pracuje na pełnej mocy, a i tak trzy układy pozostają gotowe do interwencji w razie awarii. Tak więc potrzebne czasy przestoju reaktora na naprawy będą w III generacji krótsze, niż w obecnej II generacji. Wydaje się więc, że można spokojnie przyjąć dla reaktorów III generacji przynajmniej taki sam współczynnik wykorzystania mocy zainstalowanej jak w obecnie pracujących reaktorach amerykańskich, czyli 91%. Ale autorzy raportu wolą ten współczynnik zaniżyć. Powołują się przy tym na raport MIT, który jednak nie dotyczył reaktorów III generacji i nie uwzględniał postępu w zakresie zwielokrotniania układów bezpieczeństwa. Czy jest to słuszne? Uważam, że nie, bo za te zwielokrotnione układy płacimy, ponosząc odpowiednio większe nakłady inwestycyjne. Nie można przyjmować nakładów inwestycyjnych jak dla reaktorów ulepszonych, a jednocześnie ignorować, że te zwiększone nakłady przynoszą owoce w postaci wzrostu dyspozycyjności reaktora. Przyjęte przez autorów założenie 85% odpowiada zmniejszeniu ilości energii elektrycznej produkowanej przez reaktor o (91-85)/85 = 7%, co oznacza wzrost kosztów energii elektrycznej prawie o 7%. Natomiast dla wiatraków na morzu autorzy przyjmują bez wahania współczynnik obciążenia 45%, z

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

23

dalszym wzrostem tego współczynnika do 50% począwszy od 2046 roku. Wartości te trzeba skonfrontować ze współczynnikami średniego wykorzystania mocy wiatraków na morzu w Wielkiej Brytanii i Zachodniej Danii, gdzie silne wiatry znad Atlantyku zapewniają wspaniałe warunki wiatrowe, nieosiągalne na Bałtyku 45. W Wielkiej Brytanii na najbardziej eksponowanym na wiatr obszarze morskim współczynnik wykorzystania mocy zainstalowanej wynosi około 35%, a w Danii, np. na farmie morskiej Horns Rev 46 gdzie szybkość wiatru wynosi przeciętnie 9,7 m/s, współczynnik wykorzystania mocy zainstalowanej wynosi około 42%. Ale jak widać z rysunku 7.2, wiatry na Bałtyku są słabsze niż u wybrzeży Danii. Z mapy wiatrów wokoło Danii widzimy, że prędkości wiatru w granicach od 15 do 20 m/s występują u północno-zachodnich wybrzeży Danii, w cieśninie między Danią a Norwegią, natomiast na wschód od Danii, nad morzem Bałtyckim, prędkości są znacznie mniejsze, w granicach od 10 do 15 m/s. Bałtyk jest więc znacznie mniej atrakcyjny niż morze przy zachodnich wybrzeżach Danii i współczynnik wykorzystania mocy zainstalowanej winien być niższy, poniżej typowego współczynnika w Wielkiej Brytanii. Przyjęcie go jako 35% byłoby już i tak znacznym zawyżeniem. Przyjmując 45%, a w dalszej przyszłości 50%, raport Greenpeace’u przyrzeka produkcję energii z wiatraków zawyżoną o 10 i 15 punktów procentowych w stosunku do stanu obecnego. Jak widać, przy ocenie współczynników wykorzystania mocy autorzy potraktowali energię jądrową i wiatrową krańcowo różnie, przyjmując te współczynniki zaniżone dla energii jądrowej i znacznie zawyżone dla energii wiatrowej.

KOSZTY ENERGII ELEKTRYCZNEJ Z ELEKTROWNI JĄDROWEJ I Z MFW Autorzy broszury twierdzą, że przyjęte w Programie Polskiej Energetyki Jądrowej (PPEJ) wielkości kosztów wytwarzania energii elektrycznej w EJ są zdecydowanie zaniżone. Należy jednak pamiętać, że PPEJ został przygotowany przed rokiem, Podano tam wartość około 57 euro/MWh w euro z 2005 r., co odpowiada 67 euro/MWh w euro z 2011 roku. Wcześniejsze oceny, cytowane w Prognozie Oddziaływania na Środowisko PPEJ wg artykułów z 2009 roku, były dla EJ znacznie niższe, aż do 35 euro/MWh. Czy jednak, jak twierdzą autorzy broszury, są one „dwukrotnie niższe od wszystkich innych znanych źródeł”? Od 1 lipca 2011 roku francuska firma Electricite de France (EDF) sprzedaje energię elektryczną z elektrowni jądrowych po cenie 40 euro/MWh. Sprzedaje ją każdej firmie, jaka chce ją kupić, przy czym konkurencja utrzymuje, że energia ta powinna kosztować mniej, około 35 euro /MWh. A więc produkująca i sprzedająca energię jądrową EDF zarabia nawet przy tak niskiej cenie, jak 40 euro/MWh. Rząd francuski oświadczył, że cena ta wystarcza by nie tylko utrzymać produkcję energii elektrycznej z istniejących elektrowni jądrowych, ale i budować nowe obiekty. Czy więc cena 67 euro/MWh (w euro z 2011 roku) podana w PPEJ jest istotnie zaniżona? Sądzimy, że cena ta jest zgodną z oczekiwaniami energetyki jądrowej na lata 20-te. Natomiast przeciwnicy energetyki jądrowej operują kosztami dwu lub trzykrotnie wyższymi. Rekordzistą jest tu prof. Mielczarski, który zdobył rozgłos twierdząc, że koszty energii jądrowej wyniosą 600 zl/MWh. Autorzy broszury powołują się też na pana Coopera, również starającego się zastraszyć czytelników rzekomo wysokimi cenami energii elektrycznej z elektrowni jądrowych. Jak widać, ani pan Cooper, ani prof. Mielczarski nie przejmują się faktami. A fakty są takie, że na całym świecie elektrownie jądrowe wytwarzają energię elektryczną taniej niż inne źródła. Znane są koszty wytwarzania energii elektrycznej z różnych źródeł w USA, pokazane na rys. 8.1 wg opracowania NEI Jak widać, koszty energii jądrowej są najniższe i bardzo stabilne, a w 2010 roku wyniosły w USA zaledwie 2,14 centa/ kWh, gdy koszty energii z elektrowni gazowych były dwukrotnie wyższe. Podobne wyniki osiągają elektrownie jądrowe w Niemczech. Dlatego rząd niemiecki obłożył je podatkiem na rzecz energetyki odnawialnej, która jest bardzo droga i wymaga dopłat, które w 2011 roku wyniosą 13 miliardów euro rocznie. Przeciwnicy elektrowni jądrowych twierdzą, że takie koszty w USA czy w Niemczech, które od dawna nie budują nowych elektrowni jądrowych, są osiągane dzięki temu, że elektrownie te już się zamortyzowały. Warto

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


24

Edukacja

Rys. 8.1 Koszty wytwarzania energii elektrycznej z różnych źródeł w USA 47 

to jednak przemyśleć – przecież człowiek żyje dłużej niż 20 lat, na jakie liczona jest amortyzacja, a jego dzieci i wnuki będą żyły jeszcze dłużej. Elektrownia jądrowa to dobry prezent dla naszych dzieci, które dzięki niej będą miały tanią energię elektryczną, gdy nas już nie będzie na świecie. Niskie ceny energii elektrycznej z elektrowni jądrowych są też w dziesiątkach innych krajów, a spośród nam najbliższych - w Czechach czy Słowacji. Dowodem na opłacalność energetyki jądrowej jest wykres sporządzony przez znaną firmą McKinsey dla Czech, Oczywiście najtańszym sposobem obniżenia emisji CO2 jest redukcja zużycia energii elektrycznej poprzez podniesienie efektywności jej zużycia, przez polepszenie izolacji cieplnej budynków itp. Ale gdy już wyczerpiemy możliwości oszczędzania, a chcemy podnieść produkcję energii elektrycznej, to okazuje się, że najlepszym gospodarczo sposobem jest wprowadzanie energii jądrowej. Zwiększenie wytwarzania w obszarze energetyki jądrowej daje w Czechach zyski – podczas gdy wprowadzanie energetyki wiatrowej powoduje duże koszty. Podobne wyniki dały badania wykonane przez firmę McKinsey dla Wielkiej Brytanii 48, Rosji 49 i 50 Polski , a także studium M. Wicksa dla Wielkiej Brytanii 51. Niedawne badania cen energii z różnych źródeł, wykonane na zlecenie przemysłu szwedzkiego przez firmę Pricewaterhouse Coopers SKGS wykazały, że po odrzuceniu wszelkich świadczeń rządowych w postaci ulg podatkowych, gwarantowanych cen, rabatów i grantów, ale z uwzględnieniem kosztów gospodarki odpadami radioaktywnymi i likwidacji elektrowni, energia jądrowa okazała się o 65 % tańsza od energii wiatru. Biorąc pod uwagę przytoczone powyżej dane, a w szczególności cenę sprzedaży energii elektrycznej z elektrowni jądrowych we Francji wynoszącą jak podaliśmy powyżej 40 euro/MWh, należy uznać, że cena podana w PPEJ wynosząca 67 euro/MWh (euro z 2011 r,) jest rozsądna i powinna być przyjmowana jako podstawa do ocen ekonomicznych wprowadzania energetyki jądrowej. Jak widać, ceny podane w PPEJ nie były wcale tak abstrakcyjne, jak sugeruje Greenpeace. A przedstawiona przez Greenpeace cena energii jądrowej równa 110 euro/MWh nie ma żadnego uzasadnienia.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

25

A jak wyglądają ceny energii z wiatraków, z owych morskich farm wiatrowych? Autorzy broszury wyliczyli, że wyniosą one 104 euro/MWh. Ale wielkość tę otrzymali oni przy bardzo zaniżonych nakładach inwestycyjnych - przyjęli oni nakłady dwukrotnie niższe od rzeczywistych w chwili obecnej – i to przy zawyżonych współczynnikach wykorzystania mocy zainstalowanej. A więc naprawdę energia wiatrowa będzie znacznie droższa. Do takiego wniosku doszli też i Holendrzy, którzy przez wiele lat rozwijali energetykę wiatrową w farmach morskich. Są oni trzecią na świecie potęgą w MFW. Ale utrzymywanie rozwoju MFW kosztowało Holandię 4,5 miliarda euro rocznie i w 2011 roku rząd holenderski zadecydował, że dalej płacić tak dużo nie będzie 52. Subwencje zostały obcięte do 1.5 mld euro rocznie i przydzielane są tym rodzajom OZE, które są najbliżej stanu opłacalności, chociaż wciąż znacznie droższe od energii jądrowej. I tak w pierwszej kolejności Holendrzy będą wspierać te rodzaje OZE, którym do opłacalności brakuje mniej niż 90 euro/MWh, potem inne w czterech grupach cenowych - ale nie morskie farmy wiatrowe. Te nie dostaną w Holandii ani centa. Dlaczego? Bo kosztują tak dużo, że praktyczni Holendrzy uznali wspieranie ich za niecelowe, są zbyt drogie! Poprzedni rząd holenderski w maju 2010 roku przydzielił niemieckiej firmie deweloperskiej Bard Engineering ogromne subsydium w wysokości 4,5 miliarda euro na budowę dwóch farm wiatrowych o mocy 300 MW każda na Morzu Północnym. Oznacza to dopłatę 7500 euro/MW. Koszty ponosi podatnik holenderski 53. Dlatego Holendrzy powiedzieli – STOP! Zgodnie ze strategią przyjętą przez rząd holenderski, rozwój MFW stanie się przedmiotem długoterminowego programu badawczego – ale nie będzie wdrażany na skalą przemysłową 54. Skoro Holendrzy, od wieków pracujący z wiatrakami stwierdzili, że MFW są za drogie by warto je było wspierać, to czy mamy wierzyć Greenpeace’owi, że jest to najtańsza droga rozwoju czystej energetyki w Polsce? Różnice między zapewnieniami lobbystów MFW a ocenami bezstronnych organizacji występują nie tylko w Holandii. Autorzy broszury przyznają, że firma Mott-MacDonald, w opracowaniu wykonanym dla rządu Wielkiej Brytanii (który od wielu lat wspiera energetykę wiatrową), oceniła koszty MFW na znacznie więcej niż lobbystyczne Europejskie Stowarzyszenie Energetyki Wiatrowej - EWEA. Bazując na tych danych kosztowych, rządowa Komisja ds. Zmian Klimatu (CCC) nie zarekomendowała zwiększenia tempa rozwoju MFW w Wielkiej Brytanii. Jak widać, Brytyjczycy, mający wieloletnie doświadczenie w zakresie farm morskich, nie chcą wierzyć ocenom firm zarabiających na budowie wiatraków. Należy przy tym pamiętać, że warunki wiatrowe w Polsce i na Bałtyku nie są wcale lepsze niż na zachodnich wybrzeżach Danii, Irlandii i Szkocji. A od siły wiatru zależy konkurencyjność farm wiatrowych. EWEA przyznaje, że „chociaż przyrost mocy wiatraków jest szybki, tylko w niektórych miejscach o wysokich prędkościach wiatru wiatraki mogą konkurować ekonomicznie z konwencjonalnymi źródłami energii”55. Ostatecznym dowodem na to, które źródła dają tańszą energię, są ceny ustalone na energię jądrową i wiatrową. Energia jądrowa nie potrzebuje i nie dostaje żadnych subwencji, jest konkurencyjna wobec innych źródeł. We Francji cena hurtowa wynosi 40 euro/MWh, co według oświadczenia rządu wystarcza na pokrycie przewidywanych nakładów inwestycyjnych na nowe elektrowni jądrowe. W Niemczech, gdzie roczne subsydia dla kopalni węgla wynoszą 2,5 miliarda euro, a taryfa dla energii odnawialnej z MFW wynosi 150 euro/MWh z dodatkową premią podnoszącą opłaty za prąd z MFW do 190 euro/MWh 56, elektrownie jądrowe nie otrzymują żadnych subsydiów, przeciwnie, muszą dopłacać do budżetu państwa. Stawki ustalone przed decyzją rządu niemieckiego o wycofaniu się Niemiec z energetyki jądrowej wynosiły 2,3 miliarda euro rocznie (około 16 euro/MWh), plus opłata 300 milionów euro/rok w celu subsydiowania OZE. Porównanie tych danych z różnych krajów wskazuje, że właściwą podstawą do porównań jest cena rzędu 67 euro z 2011 r./MWh dla EJ (jak przyjęto w PPEJ) i około 150 euro/MWh dla MFW, tak jak przyjęto obecnie w Niemczech.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


26

Edukacja

WPŁYW MFW I EJ NA MIEJSCA PRACY W POLSCE Autorzy broszury Morski wiatr kontra atom podają, że koszty zbudowania i eksploatacji farm morskich o mocy 5700 MW w latach 2015-2020 wyniosą 14,3 mld euro. Oznacza to koszty 2,5 mln euro/MW. Jak pokazaliśmy powyżej, jest to ocena zaniżona, bo obecne koszty budowy morskich farm wiatrowych wynoszą 3,5 mln euro/MW, a trendy zmian mają tendencję rosnącą a nie malejącą. Ale przyjmijmy dane autorów broszury. Podają oni, że dzięki finansowaniu MFW wzrost zatrudnienia w Polsce w czasie budowy MFW może osiągnąć 9000 osób, a po zakończeniu ich budowy ilość miejsc pracy przy ich obsłudze wyniesie 1700 osób. Ile więc kosztuje jedno miejsce pracy uzyskane dzięki MFW w Polsce? Gdyby dane autorów były prawdziwe, to na jedno miejsce pracy w czasie budowy przypada koszt 14300 mln euro/9000 = 1,6 miliona euro. W zamian otrzymujemy prąd droższy ponad dwukrotnie od prądu z elektrowni systemowych. No i dajemy wysokie zyski deweloperom OZE. A jak wygląda sytuacja po wybudowaniu MFW? Przyjmując cenę płaconą za energię elektryczną z MFW równą 150 euro/MWh (jak w sąsiednich Niemczech, bez dodatkowej taryfy „startowej”) otrzymujemy cenę 600 PLN/MWh, a więc cenę o 380 PLN wyższą niż cena prądu w polskiej sieci energetycznej. Przyjmując optymistycznie, że różnica nie będzie aż tak wysoka, a „tylko” równa 270 PLN/MWh jak ustalono w przepisach polskich, do produkcji energii z MFW wynoszącej według autorów broszury 22,47 mln MWh będziemy dopłacać 22,47 mln MWh x 270 PLN/MWh = 6 miliardów PLN rocznie. W tym czasie będzie wg broszury pracować w Polsce 1700 osób dla MFW. Oznacza to, że nasze społeczeństwo do każdego zatrudnionego w MFW będzie dopłacało (poza normalną stawką za energię elektryczną) będzie dopłacało 6000/1700 = 3,5 miliona PLN rocznie. A więc nie wystarczy zapłacić 1,6 miliona euro za utworzenie jednego miejsca pracy na początku programu MFW – dla utrzymania tego miejsca trzeba nadal dopłacać 3.5 mln PLN rocznie. W przypadku energetyki jądrowej zatrudnienie w czasie budowy autorzy broszury oceniają na 7140 osób, co przy łącznym koszcie elektrowni jądrowej o mocy 3000 MW wynoszącym (wraz z wydatkami inwestora, a więc z oprocentowaniem kapitału) 12 miliardów euro oznacza 12 000 mln euro/7140 = 1,68 mln euro na 1 miejsce pracy. Koszty budowy są więc podobne, Ale po wybudowaniu elektrowni o mocy 3000 MW mamy trwałe zatrudnienie 2400 osób 57 bez żadnych dodatkowych subsydiów, przeciwnie, przy cenie energii elektrycznej niższej od energii z innych elektrowni systemowych. Dla przykładu, elektrownia jądrowa Palo Verde w USA o mocy 3733 MW daje 3943 miejsca pracy. Bezpośrednie zatrudnienie w samej elektrowni wynosi 2,386 osób, w tym podwykonawcy pracujący w ramach kontraktów długoterminowych. Praca elektrowni powoduje też powstanie dodatkowych 1,570 miejsc pracy w rejonie. Zarobki za te prace w 2003 roku wyniosły 245 milionów USD 58. Ponadto, elektrownia i związane z nią prace przynoszą do kasy stanowej podatki w wysokości 62 mln USD rocznie (z 2003 r.,) Przy okazji można dodać, że w 2002 r. EJ Palo Verde wyprodukowała 30.9 TWh osiągając współczynnik wykorzystania mocy zainstalowanej powyżej 94%. Koszt produkcji 59 wyniósł 13,3 USD/MWh, podczas gdy średni koszt produkcji energii elektrycznej w stanach południowo-wschodnich USA wynosił 25,3 USD/ MWh. 60 EJ Palo Verde nie jest wcale wyjątkiem. Oto elektrownie McGuire, Catawba and Oconee o łącznej mocy 7000 MW należące do Duke Power dają 4,692 miejsca pracy o znacznie wyższych pensjach niż pensje płacone średnio w tym rejonie 61. Na przykład średnie roczne pensje pracowników w EJ Oconee wynoszą 59, 5 tys. USD (z 2003 r.). Do tego należy doliczyć miejsca pracy tworzone pośrednio poza elektrowniami. Te trzy elektrownie wyprodukowały w 2002 r. 58 TWh, co oznacza współczynnik wykorzystania mocy zainstalowanej równy średnio 94,5%. Średni koszt produkcji energii elektrycznej w tych elektrowniach wyniósł 14,6 USD/MWh, podczas gdy dla innych elektrowni w tym rejonie średni koszt produkcji wyniósł 19,8 USD/MWh. Wiele dalszych przykładów potwierdza, że elektrownie jądrowe dają dużo dobrze płatnych miejsc pracy, a przy tym produkują energię elektryczną taniej od innych źródeł. Ważne są przy tym nie tylko bezpośrednie i pośrednie miejsca pracy, ale także miejsca pracy induko-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

27

wane przez zaspakajanie potrzeb osób zatrudnionych bezpośrednio i pośrednio. Studium sekcji ekonomicznej Oxfordu wykonane dla całych Stanów Zjednoczonych wykazało, że przy programie budowy 52 reaktorów energetycznych o łącznej mocy 72800 MW, w USA powstanie 350 000 miejsc pracy powodujących wzrost dochodu narodowego o prawie 45 mld USD rocznie 62. Uwzględniono w nim zatrudnienie bezpośrednie (82 000) przy budowie, produkcji elementów i eksploatacji elektrowni, zatrudnienie pośrednie (74 000) związane z łańcuchami dostaw dla elektrowni i zatrudnienie indukowane (112 000) wynikające z wydatków dokonywanych przez bezpośrednio i pośrednio zatrudnionych w innych sektorach gospodarki. W sumie około 7000 miejsc pracy na reaktor, a więc znacznie więcej niż wynikało z przytoczonych powyżej przykładów elektrowni Palo Verde i innych. Trzeba tu raz jeszcze podkreślić, że każde z tych miejsc pracy oznacza zyski dla społeczeństwa, bo energia jądrowa oznacza tanią elektryczność, a więc nie tylko zyski indywidualnych odbiorców energii, ale też i rozwój przemysłu wykorzystującego tę energię. Aktualny przykład Niemiec, gdzie po wyłączeniu części elektrowni jądrowych ceny rosną i będą rosły nadal, jest tu ważnym doświadczeniem praktycznym. Przemysł niemiecki zapowiada bowiem ucieczkę z terenu Niemiec do innych krajów, gdzie energia elektryczna będzie tańsza. W sferze ekonomicznej puste hasła nie wystarczają – przemysł potrzebuje taniego prądu! Hasła o dodatkowych miejscach pracy tworzonych przez rozwój OZE nie zgadzają się także z sytuacją w innych krajach. Oto w Hiszpanii, wobec gwałtownego wzrostu bezrobocia, ludność pyta gdzie są te „zielone” miejsca pracy, które były wielokrotnie na ustach polityków wspierających OZE. Hiszpańskie Ministerstwo Pracy i Imigracji ogłosiło, że od stycznia 2008 roku do 2010 r. liczba przedsiębiorstw 63 w tym kraju zmalała o 110 058. Kryzys najmocniej dotknął firmy zatrudniające od 6 do 50 pracowników. W omawianym okresie upadło 47 835 takich przedsiębiorstw Hasła o tworzeniu „zielonych” miejsc pracy okazały się propagandą bez pokrycia. Bezrobocie w Hiszpanii jest dwukrotnie wyższe niż średnie w Unii Europejskiej, a wśród młodzieży od 16 do 24 lat wzrosło ono z 17,9 do 42,9 procent 64. Na pytanie, gdzie podziały się te przyrzeczone „zielone” miejsca pracy, odpowiada studium Uniwersytetu Juana Carlosa, które wykazało, że utworzenie jednego zielonego miejsca pracy powoduje utratę 2,5 miejsc pracy w innych gałęziach przemysłu 65. Studium tego uniwersytetu przytacza liczby z oficjalnego opracowania Komisji Europejskiej MITRE 66 w którym ustalono na koniec 2010 roku docelową moc energetyki wiatrowej w Hiszpanii równą 15 614 MW i wytworzoną przez nią energię elektryczną 37 558 GWh, co oznacza wg ocen MITRE utworzenie 15 000 bezpośrednich i pośrednich miejsc pracy. Raport Uniwersytetu podaje podsumowanie subwencji, jakie energia wiatrowa otrzymała do końca 2008 roku, wynoszących 5485,38 mln euro ponad normalne stawki płacone za energię elektryczną. Do końca 2010 r. subsydia dla energetyki wiatrowej wyniosły 16,4 miliarda euro. Przeliczenie wykazuje, że koszt jednego miejsca pracy dla energetyki wiatrowej, wliczając miejsca pracy bezpośredniej i pośredniej, wyniósł 1,1 miliona euro. Natomiast średni koszt jednego miejsca pracy w Hiszpanii w okresie od 1995 do 2005 roku wyniósł 0,26 mln euro. Uniwersytet Juana Carlosa wyciągnął stąd wniosek, że subsydia na energię wiatrową, które spowodowały zużycie funduszy krajowych, dały w wyniku nie zysk, ale utratę miejsc pracy. W tej sytuacji rząd hiszpański podjął decyzje o ograniczeniu subsydiów na OZE. Subsydia na farmy wiatrowe będą zmniejszone o 35% 67. Zmniejszone będą także subsydia dla energii słonecznej i ograniczona będzie liczba godzin rocznie, za które energetyka odnawialna może żądać dodatkowych opłat za dostawy energii do sieci. Hiszpania nie jest więc wcale przykładem sukcesu w tworzeniu miejsc pracy dzięki OZE. Czy w Polsce będzie lepiej niż w Hiszpanii? Autorzy broszury piszą, że w morskiej energetyce wiatrowej Polska ma szansę być jednym z liderów i eksporterów technologii. Jest to bardzo wątpliwe, bo kraje przodujące w technologii wiatrowej, jak Dania, Niemcy czy Hiszpania, właśnie dlatego ponoszą wysokie nakłady na OZE by zdobyć dominujące pozycje na rynku eksportowym. A tymczasem grozi im silna konkurencja ze strony krajów Dalekiego Wschodu. Rzeczywistość zaś jest taka, że udział polskiego przemysłu w produkcji dla energetyki wiatrowej był i jest zni-

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

28

komo mały. Natomiast udział polskiego przemysłu w energetyce jądrowej jest już obecnie znaczący. Polacy stanowią najliczniejszą grupę narodowościową na budowie EJ Olkiluoto 3, polskie firmy mają podpisane umowy o współpracy z dostawcami reaktorów III generacji, powstał polski klaster firm budowlanomontażowych do budowy elektrowni jądrowych, trwają szkolenia polskich przedsiębiorców mających dostarczać elementy i wykonywać prace dla elektrowni jądrowych. Wartość części reaktorowej, dostarczanej głównie przez dostawcę technologii, wynosi około 30% wartości elektrowni, reszta to urządzenia, materiały i prace, które może dostarczyć polski przemysł. W dziedzinie elektrowni jądrowych mamy pozytywne doświadczenia – nasz przemysł produkował dla EJ wszystkie elementy poza paliwem, reaktorami, pompami i rurociągami obiegu pierwotnego. Podobnie będzie z nowymi elektrowniami jądrowymi w Polsce.

UWAGI KOŃCOWE Na zakończenie dodajmy komentarz do kilku twierdzeń w wydanej przez Greenpaeace broszurze, pasujących do propagandy Greenpeace’u ale sprzecznych z rzeczywistością. Nieprawdziwe jest twierdzenie autorów raportu, że „skala programu jądrowego oraz nadany mu silny priorytet polityczny blokują inne alternatywne opcje w polityce energetycznej i w praktyce zamykają możliwość rozwoju innych strategicznych programów inwestycyjnych, w szczególności tych związanych z wykorzystaniem odnawialnych źródeł energii. Pisaliśmy o tym w rozdziale 1, wykazując że polski rząd, parlament i organizacje polskie popierają OZE i wspierają je finansowo. Faktów świadczących o poparciu OZE na etapie budowy i eksploatacji OZE jest wiele. Nieprawdziwe jest też sformułowanie o rzekomo „nielicznych już narodowych programach energetyki jądrowej”. Programy te realizują wszystkie wielkie kraje na świecie, większość krajów w Europie i dziesiątki krajów rozwijających się. Autorzy opierają się o „analizę prof. W. Mielczarskiego opublikowaną w listopadzie 2010 roku w miesięczniku „Energetyka” który wykazał. że koszt produkcji energii z elektrowni jądrowej wyniesie 600650 zł/MWh” Autorzy przemilczają, że w analizie tej prof. Mielczarski przyjął błędne założenia, co wykazał prof. Strupczewski w artykule opublikowanym w grudniu 2010 r 68. Nie jest prawdą, że „opinia publiczna nie uzyskała żadnej informacji” w sprawie porównawczych analiz ekonomicznych elektrowni jądrowych. Analizy te zostały przeprowadzone i były publikowane najpierw w 2009 roku 69, a następnie w 2010 r. po opracowaniu analiz uzupełniających przez Agencję Rynku Energii, a więc instytucję najbardziej kompetentną w Polsce. Zostały one opublikowane przez dr inż. M. Dudę, między innymi w materiałach pokonferencyjnych, np. Zeszytach Naukowych Instytutu Gospodarki Surowcami Mineralnymi i Energią PAN (2010) 70. Autorzy podają, że dla EJ liczyli jako czas życia okres 40 lat, a tylko „w analizie wrażliwości w jednym z wariantów wydłużono okres życia EJ do 50 lat”. Jest to ponownie podejście niezgodne z realiami otaczającego nas świata – ponad połowa elektrowni jądrowych w USA ma okres życia przedłużony do 60 lat, a wszystkie elektrownie III generacji projektowane są na 60 lat lub więcej. Założenie o okresie 60 lat nie powinno więc być wprowadzane w ramach analizy wrażliwości, lecz przyjmowane po prostu jako podstawowa informacja we wszystkich wariantach. Natomiast autorzy przyjmują dla MFW okres 25 lat, co jest niezgodne z powszechnie przyjmowanym okresem 20 lat. Takimi metodami – pogarszania przyjmowanych charakterystyk energii jądrowej i polepszania charakterystyk MFW – autorzy starają się dojść do wyznaczonego celu, tj. rzekomej konkurencyjności ekonomicznej MFW. Autorzy piszą o „największym ze wszystkich technologii energetycznych skoku cenowym, w którym cena za 1 kW wzrosła z 2 002 dolarów w 2002 roku do 4 000 dolarów w roku 2007, co obrazuje średnioroczny wzrost kosztów o ok. 15%, z uwzględnieniem założonej 3% inflacji.” Ale skok ten nie ograniczał się wcale do energetyki jądrowej. Koszty inwestycyjne elektrowni wiatrowych wzrosły również i to w podob-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

29

nym tempie, co wykazaliśmy powyżej. Autorzy piszą o „kosztach zrzutu wody z chłodzenia reaktorów”, które rzekomo są zaniżone w USA, bo „tzw. termiczne zanieczyszczenie środowiska jest nieznane w prawie amerykańskim”. W rzeczywistości jest odwrotnie, przepisy amerykańskie odnośnie układu chłodzenia elektrowni – nie tylko jądrowych, ale i konwencjonalnych 71– są znacznie bardziej rygorystyczne niż przepisy w krajach Unii Europejskiej. W stanach Kalifornia i Nowy Jork właśnie wskutek tych rygorystycznych przepisów elektrownie cieplne znajdujące się na brzegach oceanów zostały zmuszone do przejścia z cyklu otwartego – tańszego – na droższy cykl zamknięty,72 z wieżami chłodniczymi, Ostateczny wniosek broszury Greenpeace’u „brak odpowiedniego uwzględnienia rozwoju MFW w polityce energetycznej Polski można nazwać nie tylko niewykorzystaniem potencjału, a wręcz niezrozumiałym marnowaniem krajowego potencjału polskich zasobów energetycznych i niewykorzystaniem bieżących możliwości gospodarczych” jest nieuzasadniony i sprzeczny z rzeczywistym stanem rzeczy, co wykazują powyższe rozważania.

ŹRÓDŁA 1

G. Wiśniewski i inni: Morski wiatr kontra atom, Greenpeace i Fundacja im. Heinricha Bölla, wyd. Agencja Reklamowa i Public Relations ADRENALINA Warszawa 2011 2 Analiza: W Polsce jest miejsce i dla wiatru, i dla atomu, wnp.pl (Patrycja Batóg) - 14-07-2011 3 http://www.wnp.pl/wiadomosci/145817.html 4 http://www.wnp.pl/wiadomosci/rozwoj-odnawialnych-zrodel-a-zachety-podatkowe-dla-firm,145939_1_0_0_0_1.html 5 subsidies for offshore wind power and solar panels to zero Holland’s Radical U-Turn On Climate and Energy Policy, Financial Times Deutschland, 8 February 2011 6 Morski wiatr kontra atom” M. Wiśniewski i inni, broszura sfinansowana przez Greenpeace i niemiecki Instytut Heinricha Bolla, Warszawa 2011. 7 Analiza: w Polsce jest miejsce i dla wiatru, i dla atomu, wnp.pl (Patrycja Batóg) - 14-07-2011 09:52 8 http://ecopress.pl/art/deklaracja-wicepremiera-waldemara-pawlaka-w-sprawie-oze-336.html 9 http://www.wnp.pl/wiadomosci/146444.html 10 W tekście raportu podano błędnie 5460 eur/MWh, co nie ma zupełnie sensu. Jak widać, wysiłek Greenpeace’u idzie na ładne ilustrowanie raportu efektownymi rysunkami, a nie na sprawdzenie treści merytorycznej. Czy megawaty- jednostki mocy, czy megawatogodziny- jednostki energii – kto by się przejmował takimi drobiazgami! 11 http://en.rian.ru/business/20100715/159820318.html 12 http://energetyka.wnp.pl/czeskie-atomowki-3-mln-euro-za-mw,113586_1_0_0.html 13 http://www.world-nuclear-news.org/NN_New_approach_puts_back_Flamanville_3_2107111.html 14 http://wiadomosci.onet.pl/swiat/indie-i-francja-zawarly-umowe-na-budowe-reaktorow-,1,4017049,wiadomosc.html 15 Wenisch A. AES-92 for Belene: The Mystery Reactor, Vienna, February 2007 16 Bułgaria domaga się od Rosji dalszych negocjacji ws. siłowni atomowej, PAP - 17-06-2011 12:53 17 http://naviny.by/rubrics/english/2011/06/22/ic_articles_259_174095 18 OECD Report “The Projected Cost of Generating Electricity: 2010 Update, Nuclear Energy Agency, OECD, Paris,2010 19 Dyrektor Areva Polska: w nowych elektrowniach niemożliwa jest awaria jak w Fukushimie, wnp.pl 20-06-2011 20 Źródło – UK EPR 1a EPR Design Description v3 21 AREVA Post-Fukushima 5_EPR Safety 15 June 2011. 22 Westinghouse: AP1000® Nuclear Power Plant Coping with Station Blackout, April 2011 23 Westinghouse AP1000® Nuclear Power Plant Spent Fuel Pool Cooling May 2011 24 AREVA Post-Fukushima 5_EPR Safety 15 June 2011. 25 AREVA Post-Fukushima 5_EPR Safety 15 June 2011. 27 US NRC: Recommendations for Enhancing Reactor Safety in the 21-st Century, 12 July 2011 28 Dones R et al GABE: Environmental Inventories for future electricity supply systems for Switzerland, PSI report 96-07, February 1996 29 E-mail od inż. Z. Wiegnera, kierownika budowy Olkiluoto 3, z dnia 28.3.2011. 30 Ki Sig Kang Project Management of NPP including Construction Nuclear Power Division IAEA 11 May 2010 31 Enlarged wind statistics http://www.pfbach.dk/firma_pfb/enlarged_wind_power_statistics_2010.pdf 32 Morski wiatr kontra atom.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


30

Edukacja

33

Rozwadowski A: Technologia i doświadczenie firmy AREVA dla polskiego programu energii jądrowej, Konferencja Most Wanted, Warszawa, 30-31 maja 2011 roku 34 Costs of low-carbon generation technologies, Committee on Climate Change, Mott MacDonald, May 2011 35 Rozwadowski ibid. 36 Northwest Power & Conservation Council Biennial Review Of The Cost Of Wind Power July 13, 2006 37 http://venturebeat.com/2011/04/11/u-s-wind-power-stalls/ 38 http://venturebeat.com/2011/04/11/u-s-wind-power-stalls/ 39 France to Invest $13bn on First Offshore Wind Project, 31 January 2011 www.power-technology.com/news/news108554.html 40 http://www.energy-enviro.fi/index.php?PAGE=3&NODE_ID=5&LANG=1&ID=3751 41 Morski wiatr… 42 http://www.wind-works.org/FeedLaws/Germany/GermanyPassesNewRenewableEnergyLawfor2012.htm 45 Hasager C.B et al: SAR – Based Wind Resource Statistics in the Baltic Sea, Remote Sens. 2011, 3, 117-144. 46 http://powerplants.vattenfall.com/powerplant/horns-rev 47 NEI US Electricity production costs, 2011 48 For the same power generation and CO2 emissions, building offshore wind requires two to three times the investment required for nuclear CBI – The voice of business . Decision time Driving the UK towards a sustainable energy future, 2009 49 McKinsey and comp. Pathways to an energy and carbon efficient Russia, 2009 50 Ocena potencjału redukcji emisji gazów cieplarnianych w Polsce do roku 2030, grudzień 2009 51 M. Wicks: ...nuclear should provide some 35-40 per cent of our electricity beyond 2030 www.decc.gov.uk/en/content/cms/ what_we_do/change_energy/int_energy/security/security.aspx 52 http://www.american.com/archive/2011/april/on-green-energy-a-dutch-re-treat 53 http://energiaadebate.com/the-dutch-lose-faith-in-windmills 28.06.2011 54 http://energiaadebate.com/the-dutch-lose-faith-in-windmills 28.06.2011. 55 http://www.ewea.org/fileadmin/ewea_documents/documents/publications/WETF/Facts_Volume_2.pdf 56 http://www.wind-works.org/FeedLaws/Germany/GermanyPassesNewRenewableEnergyLawfor2012.html 57 Ocena oddziaływania programu energetyki jądrowej na środowisko, Tabela Wykaz stanowisk w elektrowni jądrowej. 58 Średnio więc roczne zarobki pracowników wyniosły 62 000 USD z 2003 roku na osobę. 59 Koszty produkcji dla elektrowni w USA podawane są bez udziału kosztów inwestycyjnych, a więc obejmują koszty paliwa, ruchu, napraw, podatków itd. lub innymi słowy wszystkie koszty jakie występują po spłaceniu kosztów budowy. Taka sama definicja kosztów produkcji stosowana jest do wszystkich elektrowni. 60 Economic Benefits of Palo Verde Nuclear Generation Station An Economic Impact Study by the Nuclear Energy Institute November 2004 61 Economic Benefits of the Duke Power-Operated Nuclear Power Plants An Economic Impact Study by the Nuclear Energy Institute, 2004 62 Economic, Employment and Environmental Benefits of Renewed U.S. Investment in Nuclear Energy National and State Analysis 2008 Oxford Economics 63 W Hiszpanii zniknęło ponad 100 tys. Przedsiębiorstw, PAP - 02-09-2010 20:34 64 http://ncwatch.typepad.com/media/2010/01/what-happened-to-spains-green-jobs.html 65 http://ncwatch.typepad.com/media/2009/03/green-stimulus-destroys-jobs-according-to-spanish-study-.html 66 Monitoring & Modelling Initiative on the Targets for Renewable Energy (MITRE). “Meeting the targets and putting renewables to work. Country Report. Spain", pp. 17, 2003. 67 Subsidies to be cut for Spain's wind and thermal solar sectors http://www.rechargenews.com/business_area/politics/ article219756.ece 68 Strupczewski A.: Czy jądrowa się opłaca? Energetyka cieplna i zawodowa 12/2010, s 44-49 69 H. Mikołajuk, M. Duda, U. Radovic. S. Skwierz, Analiza porównawcza kosztów wytwarzania energii elektrycznej w elektrowniach jądrowych, węglowych i gazowych oraz odnawialnych źródłach energii ARE Warszawa, listopad 2009 70 M. Duda: Konkurencyjność perspektywicznych technologii wytwarzania energii elektrycznej Zeszyty Naukowe Instytutu Gospodarki Surowcami Mineralnymi i Energi¹ Polskiej Akademii Nauk nr 78, rok 2010 ³http://www.min-pan.krakow.pl/Wydawnictwa/ ZN78/duda.pdf 71 US Federal Clean Water Act, §316, Cooling technology performance requirements 72 US EPA Economic Analysis of the Final Regulations Addressing Cooling Water Intake Structures for New Facilities, Washington DC Nov. 9, 2001, p. 1-3

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

31


Edukacja

32

DOZYMETRIA BIOLOGICZNA   

Sylwester Sommer  Centrum Radiobiologii i Dozymetrii Biologicznej, Instytut Chemii i Techniki Jądrowej w Warszawie  

WSTĘP Promieniowanie jonizujące jest stałym elementem środowiska a jego zastosowanie - częścią naszej cywilizacji. Praktycznie nie ma w nowoczesnym państwie człowieka, który nie korzystałby z tego zastosowania w swoim życiu codziennym. Wszelkiego rodzaju procedury medyczne, od zwykłego prześwietlenia płuc, aż po tomografię komputerową, czy procedury medycyny nuklearnej, energia pozyskiwana z elektrowni atomowych, czujniki dymu, defektoskopy – wszystko to ma związek z promieniowaniem jonizującym. Jest ono postrzegane, i słusznie, jako szkodliwe dla zdrowia a nawet życia. Boimy się go, ponieważ czytamy o awariach elektrowni atomowych w Czarnobylu i Fukushimie. Boimy się go, ponieważ jest niewidzialne i niewyczuwalne, a więc tym groźniejsze. Potrafimy wykorzystywać promieniowanie i chronić się przed jego skutkami. Elektrownie atomowe są zabezpieczone dziesiątkami skomplikowanych systemów, które mogą zapobiegać nawet bardzo niespodziewanym zdarzeniom. Wszystkie osoby pracujące z promieniowaniem noszą dozymetry fizyczne i mają skrupulatnie sprawdzane dawki pochłonięte z częstotliwością co 3 miesiące. Potrafimy również odczytać dawkę promieniowania na podstawie zmian, jakie zostawia ona w organizmie. Taka procedura nazywa się dozymetrią biologiczną.

CO TO JEST DOZYMETRIA BIOLOGICZNA? Dozymetria biologiczna pozwala określić dawkę promieniowania jonizującego na podstawie zmian spowodowanych przez nią w naszym organizmie. Najczęściej posługujemy się zmianami w materiale genetycznym limfocytów krwi obwodowej. Nie jest to jedyna możliwość, ale limfocyty maja niezaprzeczalne zalety: pobieranie ich do badania jest mało inwazyjne (tak jak zwykłe pobieranie krwi do badania), limfocyty we krwi obwodowej nie dzielą się i są zsynchronizowane w fazie G0 cyklu komórkowego – co ułatwia i zmniejsza niepewność badań dozymetrycznych, limfocyty krążą wraz z krwią po całym ciele, dzięki czemu możliwe jest odczytanie dawki, nawet kiedy promieniowanie objęło niewielki fragment ciała. Można by powiedzieć, że najlepszy „dozymetr” każdy zawsze nosi ze sobą. „Złotym standardem” dozymetrii biologicznej jest test chromosomów dicentrycznych. Wykonuje się go stymulując sztucznie do podziału limfocyty krwi obwodowej i oceniając częstość chromosomów dicentrycznych w metafazach pierwszych mitoz po napromienieniu. Dozymetrię biologiczną stosuje się na całym świecie i do tej pory oszacowano dawkę pochłoniętą w tysiącach przypadków. Bada się osoby podejrzane o narażenie na promieniowanie jonizujące związane z ich pracą w przemyśle – przy obsłudze defektoskopów czy innych źródeł promieniowania gamma i rentgenowskiego, w medycynie – przy obsłudze akceleratorów, cyklotronów lub generatorów izotopów promieniotwórczych, a także aparatów do radioterapii, do prześwietlania czy tomografów komputerowych, wreszcie w przemyśle jądrowym, przy obsłudze reaktorów, transporcie i obróbce paliwa. Drugą grupą osób, u których stosuje się dozymetrię biologiczną są osoby przypadkowo narażone na promieniowanie w czasie radioterapii, lub po kontakcie z otwartym źródłem promieniowania. W ostatnich latach rozważa się scenariusze ataku terrorystycznego przy użyciu tzw. „brudnej bomby”. „Brudna

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

33

bomba”, czyli materiał radioaktywny np. 60Co lub 137Ce dołączony do konwencjonalnego materiału wybuchowego mógłby zostać rozpylony na dużym, gęsto zaludnionym obszarze i w konsekwencji spowodować napromienienie wielu osób. Pewne i dokładne odczytanie dawki pochłoniętej przez osobę napromienioną może pomóc w doborze odpowiednich procedur medycznych w trakcie jej leczenia [1]. Dziesiątki lat pracy radiobiologów zaowocowały zrozumieniem mechanizmów działania promieniowania na ludzkie komórki, opisem i scharakteryzowaniem ostrej choroby popromiennej (ARS), a także stochastycznych (oddalonych) skutków promieniowania. Medycyna, bazując na faktach ustalonych przez biologów, wie jak postępować z osobami napromienionymi. Adekwatne do dawki i objawów fizjologicznych zastosowanie terapii cytokinami, czynnikami wzrostu, antybiotykami, a w skrajnym wypadku przeszczep szpiku kostnego pozwalają na wyleczenie pacjentów, którzy otrzymali dawki nawet w przedziale 4-6 siwertów (Sv) na całe ciało [2]. Dawka pochłonięta – jest to miara ilościowa energii promieniowania jonizującego pochłoniętego przez dany obiekt.  Jest  ona  wyrażana  w  grejach  (Gy):  1Gy  =  1J  /  1  kg.  Można  stosować  również  centygreje  (cGy):  1cGy  =  0,01Gy,  miligreje  (mGy): 1mGy = 0,001Gy, mikogreje (μGy): 1μGy = 0,000001Gy, rady: 1 rad = 1cGy = 0,01Gy.    Dawka  równoważna  ‐  efekty  promieniowania  są  różne  w  zależności  od  jego  rodzaju  i  dlatego  wprowadzono  ten  termin.  Dawka  równoważna  to  dawka  pochłonięta  przemnożona  przez  współczynnik  wR,  charakterystyczny  dla  poszczególnych rodzajów promieniowania, np. wR dla promieniowania gamma równa się 1, a dla neutronów o energiach 0,1‐   =  1Gy  *  wR.  Stosuje  się  również  milisiwerty  (mSv):  1mSv  =  2  MeV  wynosi  20.  Jest  ona  wyrażana  w  siwertach  (Sv):  1  Sv  0,001Sv, mikrosiwerty (μSv): 1μSv = 0,000001Sv, remy: 1 rem = 0,01 Sv.    Dawka skuteczna (dawka efektywna, czy efektywny równoważnik dawki) – zależy od promieniowrażliwości tkanek,  bo niektóre z nich są bardziej odporne na promieniowanie, np. skóra (wT = 0,01), a inne mniej np. gruczoły płciowe (wT =  0,2).  Dawka  skuteczna  to  dawka  równoważna  pomnożona  przez  współczynnik  wT,  charakterystyczny  dla  każdej  tkanki.  Współczynnik wT dla całego ciała równa się 1. Jednostką dawki skutecznej również jest siwert (Sv). 

METODY DOZYMETRII BIOLOGICZNEJ Oprócz testu chromosomów dicentrycznych w dozymetrii biologicznej używanych jest wiele innych metod. W ostatnich latach przesunął się nieco akcent w definiowaniu celów dozymetrii biologicznej: istotniejsze jest, aby metody biodozymetryczne pozwalały na analizę wielu przypadków w krótkim czasie, nawet kosztem dokładności. Inną tendencją jest powstawanie fizycznych testów dozymetrycznych opartych, tak jak dozymetria biologiczna, na zmianach wywoływanych przez promieniowanie w naszym organizmie. W krótkim przeglądzie aktualnie używanych testów biodozymetrycznych oprócz wyjaśnienia, na czym one polegają zwrócę uwagę na zakres ich stosowania, możliwość użycia w dużej liczbie przypadków, a także na ich przydatność w szeroko pojętej energetyce jądrowej.  

TEST CHROMOSOMÓW DICENTRYCZNYCH Tak jak pisałem wyżej, jest to klasyczny, cytogenetyczny test dozymetrii biologicznej. W stymulowanych do podziału limfocytach analizuje się częstość chromosomów policentrycznych (ryc. 1), która jest proporcjonalna do dawki. Na podstawie znalezionej w konkretnym przypadku częstości dicentryków określa się dawkę z krzywej dawka / efekt uzyskanej we wcześniejszych doświadczeniach in vitro (ryc. 2). Zalety tego testu są następujące:

 jest on przeprowadzany na limfocytach krwi obwodowej;   pozwala na rozróżnienie czy dana osoba była napromieniona na całe ciało czy częściowo – jest to ważne z przyczyn medycz‐

nych, – gdy napromienienie ciała jest częściowe, rokowania są lepsze, ponieważ produkujący limfocyty szpik kostny nie zo‐ stał w całości dezaktywowany;   częstość chromosomów dicentrycznych utrzymuje się we krwi obwodowej na zbliżonym poziomie do kilku tygodni, a później  wolno spada, – dzięki czemu dozymetrię można przeprowadzić w rozsądnym czasie po zdarzeniu radiacyjnym; 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

34

 test ten jest najczęściej używanym, najlepiej udokumentowanym i najlepiej sprawdzonym w praktyce (zwalidowanym) te‐

stem biodozymetrycznym [3];   działa w zakresie dawek od 0,1 – 0,2 Sv do 5 – 12 Sv.  

Powstaje pytanie, co znaczy zakres 0,1 – 12 Sv? Czy jest on szeroki, czy wąski? Czy jest adekwatny do dawek otrzymywanych przez ludzi? Jeżeli popatrzymy na przykładowe wielkości dawek zamieszczone w tabeli 1, to dojdziemy do wniosku, że test dicentryków jest zbyt mało czuły do analizy dawek, które otrzymują pracownicy zawodowo narażeni na promieniowanie. Idealnie natomiast „pokrywa” zakres dawek wysokich, liczonych w siwertach (Sv), które powodują kłopoty zdrowotne, a nawet śmierć napromienionych osób. Spontaniczna częstość dicentryków jest bardzo niska i wynosi 1 chromosom dicentryczny na 1000 – 2000 komórek. Górna granica zakresu działania metody jest sprawą dyskusyjną – zależy ona od wysokości dawki, po jakiej limfocyty jeszcze się dzielą. W niektórych laboratoriach jest to 5 Sv, ale w Centrum Radiobiologii i Dozymetrii Biologicznej Instytutu Chemii i Techniki Jądrowej, gdzie mam przyjemność pracować, ta granica jest wyższa niż 10 Sv; - jest on bardzo specyficzny – chromosomy dicentryczne są indukowane tylko przez promieniowanie, nieliczne substancje genotoksyczne i nieliczne zmiany genetyczne. Największą wadą testu dicentrycznego jest jego pracochłonność, co ogranicza liczbę możliwych do analizy próbek i to, że jego wykonanie wymaga doświadczonego personelu. Aktualnie pracuje się nad przystosowaniem testu dicentryków do użycia na masową skalę. Proponowane są 4 możliwe drogi do osiągnięcia tego celu: obniżenie liczby liczonych komórek, – czyli zwiększenie szybkości analizy kosztem dokładności [4], grupowanie laboratoriów biodozymetrycznych w funkcjonalnie działające sieci, teledozymetria, czyli analiza częstości dicentryków na wysokiej jakości zdjęciach przesyłanych do ekspertów przez internet oraz automatyzacja metody i liczenia dicentryków. W Europie trwają próby wykorzystania automatycznych mikroskopów z systemem do analizy obrazu niemieckiej firmy Metasystems (ryc. 3), co pozwoli zautomatyzoDawka 0,001 Sv/rok – 1 mSv/rok  0,0012 Sv/rok – 1,12 mSv/rok  0,003 Sv/rok – 3,0 mSv/rok  0,0035 Sv/rok – 3,5 mSv/rok 

0,020 Sv/rok – 20,0 mSv/rok  1‐2 Sv – 1000‐2000 mSv  3‐5 Sv – 3000‐5000 mSv 

Opis Dopuszczalna dawka roczna dla osoby nie pracującej z promieniowaniem, otrzymana z  innych źródeł niż medyczne i promieniowanie naturalne – według polskiego prawa i zale‐ ceń ICRP (Międzynarodowej Komisji Ochrony Radiologicznej);  Średnia dawka roczna pracowników elektrowni atomowych w Korei Południowej w 1997  roku, otrzymana z innych źródeł niż medyczne i promieniowanie naturalne [6];  Średnia dawka roczna pracowników przemysłu jądrowego w USA, otrzymana z innych źró‐ deł niż medyczne i promieniowanie naturalne [7];  Średnia dawka roczna mieszkańca Polski otrzymywana, ze źródeł medycznych i natural‐ nych;  Średnia dawka roczna, w ciągu pięciu lat dla pracowników zawodowo narażonych na pro‐ mieniowanie według ICRP (Międzynarodowej Komisji Ochrony Radiologicznej – dawka nie  może w ciągu pięciu lat przekroczyć 0,100 Sv, a w ciągu roku 0,050 Sv);  Jeżeli dostarczona w krótkim czasie może powodować ostrą chorobę popromienną (ARS) i  wymaga opieki medycznej;  Półletalna dawka dla człowieka (LD50/30) – umiera 50% osób w ciągu 30 dni; 

Tabela 1. Przykładowe wielkości dawek promieniowania. 

wać proces liczenia. W Stanach Zjednoczonych w Bethesda, Maryland, działa już laboratorium biodozymetryczne, gdzie wszystkie etapy testu dicentryków, począwszy od założenia hodowli, poprzez wykonanie preparatów, aż do liczenia częstości dicentryków są zautomatyzowane, co pozwala analiRyc. 1. Limfocyt ludzki krwi obwodowej w  zować setki przypadków tygotrakcie mitozy. Widoczne liczne, indukowa‐ dniowo [5].

ne promieniowaniem jonizującym, aberra‐ cje – strzałkami zaznaczono fragmenty cen‐ tryczne chromosomów, a w ramkach znaj‐ dują się chromosom dicentryczny i chromo‐ som tricentryczny. 

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Liczba dicentryków / komórka 

Edukacja

Dawka, Gy 

35

                               

Ryc. 2. Krzywa dawka efekt dla chromosomów dicentrycznych,  uzyskana in vitro. Znając częstość dicentryków w danej próbce  krwi, można odczytać dawkę promieniowania [3]. 

TEST MIKROJĄDROWY Jest to drugi z klasycznych, cytogenetycznych testów biodozymetrii. W stymulowanych do podziału limfocytach blokuje się podział cytoplazmy komórek, pozwalając na podział jąder. W tak powstałych komórkach dwujądrzastych analizuje się częstość mikrojąder, czyli kulistych tworów otoczonych błoną jądrową widocznych w cytoplazmie (ryc. 4). Mikrojądra powstają z części lub całych chromosomów w następstwie napromienienia komórek bądź działania różnych czynników Ryc. 3. Automatyczny mikroskop Zeiss Image Z2 połączony  chemicznych [8]. Częstość mikrojąder jest proporcjonal- systemem do analizy obrazu Metafer MSearch firmy  na do dawki w sposób liniowo kwadratowy. Dawkę pro- Metasystems, Niemcy w Centrum Radiobiologii i Dozymetrii  mieniowania odczytuje się z częstości mikrojąder, po- Biologicznej Instytutu Chemii i Techniki Jądrowej.  równując do krzywych dawka efekt uzyskanych w eksperymentach in vitro (podobnych do krzywych dla chromosomów dicentrycznych). Test mikrojądrowy ma następujące zalety:  jest przeprowadzany na limfocytach krwi obwodowej;  jest prosty; analiza częstości mikrojąder nie jest tak pracochłonna jak analiza dicentryków, nie wymaga również dużego doświadczenia;  idealnie nadaje się do automatyzacji. Do tej pory podjęto szereg prób automatyzacji testu mikrojadrowego [9]. Najbardziej zaawansowane jest oprogramowanie MnScore niemieckiej firmy Metasystems, walidowane w ramach projektu MULTIBIODOSE (wyjaśnienie w ramce) w kilku europejskich laboratoriach (ryc. 5). Automatyzacja testu mikrojądrowego daje możliwość analizy nawet setek próbek w ciągu tygodnia przez 1 laboratorium;  działa w zakresie od 0,2-0,5 Sv do 3,0 – 4,0 Sv. Tak jak test chromosomów dicentrycznych jest zbyt mało czuły do analizy dawek, które otrzymują pracownicy zawodowo narażeni na promieniowanie, ale „pokrywa” zakres dawek potencjalnie możliwych do otrzymania w razie zdarzenia radiacyjnego. Najmniejsza możliwa do oszacowania dawka jest stosunkowo wysoka, ponieważ bardzo zmienny jest spontaniczny poziom mikrojąder. Wiadomo również, że zależy on od wieku i płci. Czułość testu mikrojądrowego w zakresie niskich dawek można podnieść poprzez malowanie centromerów metodą hybrydyzacji in situ [10]. Mikrojądra powstałe spontanicznie zawierają centromery, natomiast mikrojądra indukowane przez czynniki genotoksyczne (takie jak promieniowanie) najczę 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

36

ściej nie zawierają centromerów. Tak więc, analiza chromosomów bez centromerów pozwala „ominąć” problem wysokiej i różnorodnej częstości kontrolnych mikrojąder.

mikrojądra jądra 

Ryc. 4. Limfocyt z 2 jądrami, widoczną otaczającą je cytoplazmą i 2 indukowanymi  promieniowaniem mikrojądrami. 

Ryc. 5. Galeria dwujądrzastych limfocytów z mikrojądrami  utworzona po przeszukaniu preparatu przez program MSearch  (Metafer, Metasystems). 

Test mikrojądrowy nie jest idealnym biodozymetrem. Wysoka częstość spontanicznych mikrojąder, brak możliwości rozpoznania częściowego napromienienia ciała, stosunkowo wąski zakres dawek, przy których test ten dział, brak możliwości dozymetrii retrospektywnej, (ponieważ poziom mikrojąder w limfocytach krwi obwodowej szybko spada wraz z czasem), to że mikrojądra nie są specyficzne dla promieniowania, ale indukowane są również różnymi substancjami chemicznymi – wszystko to powoduje znaczne ograniczenia w jego użyteczności.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

37

MULTIBIODOSE –  Mul dyscyplinarne  narzędzie  biodozymetryczne  w  przypadkach  masowego  narażenia  na  promieniowanie  jonizujące  (Mul ‐disciplinary  biodosimetric  tools  to  manage  high  scale  radiological  casual es)  –  projekt  współfinansowany  przez  Unię  Europejską.  Jego  celem  jest  przeanalizowanie  użyteczności  szerokiego  spektrum  technik    biodozymetrycznych i dostosowanie ich do masowego zdarzenia radiacyjnego. Projekt jest realizowany w 14 laboratoriach z  11  krajów,  w  tym  w  Polsce  w  Instytucie  Chemii  i  Techniki  Jądrowej  w  Warszawie.  Link  do  strony  projektu:  h p:// www.mul biodose.eu/index.htm 

TEST OGNISK HISTONU GAMMA-H2AX Jest to nowy, bardzo obiecujący test biodozymetryczny. Polega on na szacowaniu liczby ognisk ufosforylowanych cząsteczek histonu gamma-H2AX w jądrach napromienionych limfocytów. Powstanie indukowanych promieniowaniem dwuniciowych pęknięć DNA powoduje, że histon H2AX, wchodzący w skład rdzenia nukleosomu (cząstki białkowej, na którą nawinięty jest DNA) zostaje ufosforylowany przez kinazy ATM i DNA-PK i tworzy tzw. ogniska. Ogniska histonu gamma-H2AX można wyznakować immunofluorescyjnie i obserwować pod mikroskopem (ryc. 5). Ich liczba jest proporcjonalna do dawki promieniowania w sposób liniowy. Dawkę promieniowania odczytuje się z liczby ognisk, porównując ją do krzywej dawka-efekt uzyskanej w doświadczeniach in vitro, tak jak w przypadku testu chromosomów dicentrycznych, czy testu mikrojądrowego. Zalety testu ognisk histonu gamma-H2AX są następujące:  może być przeprowadzony na limfocytach krwi obwodowej;  potencjalnie pozwoli rozpoznawać częściowe napromienienie ciała, ale na razie nie jest to wystarczająco udokumentowane;  jest prosty w wykonaniu, wynik można uzyskać już w kilka godzin po dostarczeniu próbki krwi, co jest niemożliwe zarówno w przypadku testu chromosomów dicentrycznych, jak i testu mikrojądrowego, gdzie trzeba czekać, aż limfocyty podzielą się, –co najmniej 48 godzin;  doskonale nadaje się do automatyzacji i w efekcie możliwy do zastosowania jako test przesiewowy (triage), w krótkim czasie u dużej liczby osób;  można go stosować potencjalnie w zakresie od kilku miniSv do kilku Sv. To jest ogromny zakres dawek, większy niż przy teście chromosomów dicentrycznych czy teście mikrojądrowym. Problemem jest, że zakres możliwych do odczytania dawek zmienia się wraz z upływem czasu od ekspozycji, ponieważ liczba ognisk histonu zmniejsza się wraz z upływem czasu (ryc. 6). Wielkość dawki rzędu miliSv jest możliwa do odczytania tylko do około 2- 3 godzin po napromienieniu. Za realny zakres dawek możliwych do odczytania przy analizie automatycznej przyjmuje się, w zależności od autora, od 0,1 do 2 Sv albo od 0,6 do 2 Sv [11]. Tak więc, powyższy test również nie nadaje się do oceny dawek związanych z pracą zawodową – które zazwyczaj podawane są przy małej mocy dawki, w długim czasie. Oprócz licznych wymienionych zalet, test ognisk histonu gammaH2AX ma również swoje ograniczenia. Po pierwsze, jak już wspomniałem, liczba ognisk histonu spada w krótkim czasie od napromieniania, co powoduje, że próbka krwi musi być szybko dostarczona do laboratorium, a już po 48 godzinach poziom tego histonu wraca do wartości kontrolnych. Jako zuRyc. 5. Ogniska histonu gamma‐ pełnie nowy, test ten był użyty w dozymetrii tylko w kilku przypadkach; istH2AX ‐ widoczne jądro limfocytu  nieje ogromna liczba protokołów proponujących, jak otrzymywać wybarwiow 1 godzinę po napromienieniu i  ne ogniska histonu gamma-H2AX i jak oceniać ich liczbę. Nie wiadomo, czy zielone ogniska histonu gamma‐ zastosowanie różnych protokołów daje porównywalne wyniki i generalnie H2AX wyznakowane  test czeka na standaryzację i walidację. Jednym z zadań wspomnianego immunofluorescencyjnie.  wcześniej projektu MULTIBIODOSE jest stworzenie tzw. SOP (Standard Operation Procedure) oraz właśnie standaryzacja i walidacja tego testu. Być może, test ognisk histonu gamma-H2AX mógłby być użyty jako tzw. test predykcyjny, dla pracowników zawodowo narażonych na promieniowanie. Polegałby on na tym, że próbki krwi zostają napromienione in vitro i analizuje się np. kinetykę zaniku histonu. Jeżeli u badanej osoby odbiegałaby ona od

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

38

normy (średniej dla populacji) to- być może - ta osoba jest bardziej promieniowrażliwa i nie powinna pracować z promieniowaniem. Od bardzo dawna trwają poszukiwania takiej metody, pozwalającej w stosunkowo prosty sposób oszacować promieniowrażliwość osobniczą, do tej pory raczej bez sukcesu Średnia częstość  ognisk  histonu  gamma‐ H2AX na  komór‐ kę 

minuty Ryc. 6. Zależność liczby ognisk histonu gamma‐H2AX od czasu w limfocytach ludzkich napromienionych 0,5 Gy pro‐ mieniowania gamma [11]. Widać, że po 3 godzinach od napromienienia poziom histonu zbliża się do wartości kon‐ trolnych. 

ANALIZA TRANSLOKACJI Translokacje są stabilnymi aberracjami chromosomowymi (ryc. 7). Indukowane są przez promieniowanie jonizujące z częstością równą dicentrykom i ich częstość jest proporcjonalna do dawki promieniowania. Jednak w odróżnieniu od dicentryków nie powodują one śmierci mitotycznej komórek i w konsekwencji ich częstość nie maleje z czasem, a więc lepiej nadają się do dozymetrii retrospektywnej (przeprowadzonej nawet wiele lat po zdarzeniu radiacyjnym). Inne zalety analizy translokacji w celach dozymetrycznych są analogiczne do zalet testu chromosomów dicentrycznych: - translokacje analizuje się w limfocytach krwi obwodowej; - test pozwala na rozróżnienie, czy dana osoba była napromieniona na całe ciało czy częściowo; - można go stosować w zakresie dawek od 0,1 – 0,2 Sv do 5 – 12 Sv. Spontaniczna częstość translokacji jest wyższa niż spontaniczna częstość dicentryków, ale na tyle niska, żeby nie mieć wpływu na dolny limit rozpoznawalnych dawek. Największą wadą analizy translokacji jest wysoka cena testu. Żeby zobaczyć translokację należy „pomalować” jedną, dwie, trzy bądź wszystkie pary chromosomów na różne kolory, bo chromosomy z translokacją strukturalnie nie różnią się od niezmienionych. Dopiero „malowanie” pozwala zidentyfikować „przeniesiony” fragment i rozpoznać translokację (ryc. 8). Procedura malowania chromosomów nazywa się FISH (Fluorescence In Situ Hybridization), jest dosyć skomplikowana i droga. Powoduje to, że analiza translokacji, jako test biodozymetryczny, nie jest tak często używana jak test chromosomów dicentrycznych i dzięki temu nie jest tak dobrze „zwalidowana” i standaryzowana. Specjalna odmiana tego testu, analiza translokacji stabilnych powinna być testem z wyboru przy monitoringu wpływu permanentnych (dostarczanych nawet przez dziesięciolecia) niskich dawek promieniowania na genom. Jest to sytuacja osób pracujących z promieniowaniem, w tym szczególnie pracowników przemysłu jądrowego. Powinni oni co kilka lat być testowani na obecność translokacji w swoim genomie, najlepiej poprzez „malowanie” wszystkich chromosomów czyli tzw. procedurę mFISH (ryc. 9). Dotychczas opublikowano szereg prac wykorzystujących technikę FISH i pokazujących różny wpływ niskich dawek na wieloletnich pracowników zawodowo narażonych na promieniowanie [12].

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

Ryc. 7. Limfocyt ludzki w trakcie mitozy, z widocznymi chromoso‐ mami. Na zielono „pomalowane” chromosomy 2. Widoczna trans‐ lokacja „wzajemna” pomiędzy chromosomem 2 a chromosomem  „nie pomalowanym” oraz jeden niezmieniony chromosom 2. 

Ryc. 8. Translokacja nie są widoczne jako strukturalne zmiany w chromosomach (lewa  strona ryciny). Dopiero po pomalowaniu widać, że niewielka część czerwonego chromoso‐ mu jest przeniesiona na czarny chromosom, podobnie jak część czarnego chromosomu  jest przyłączona do czerwonego chromosomu. 

Ryc. 9. Mitoza ludzkiego limfocytu, każda para chromosomów  „pomalowana” na inny kolor, przy pomocy techniki m‐FISH, dzię‐ ki czemu można analizować częstość translokacji w całym geno‐ mie. Widoczne również 3 interfazowe jądra limfocytów z poma‐ lowanymi na różne kolory, wyodrębnionymi terytoriami chromo‐ somowymi. 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

39


Edukacja

40

PRZEDWCZESNA KONDENSACJA CHROMOSOMÓW (PCC – PREMATURE CHROMOSOME CONDENSATION) Technika ta po raz pierwszy w celach dozymetrycznych została użyta po wypadku w Zakładach Przetwarzania Paliwa Jądrowego (JCO) w Tokai-mura w Japonii, gdzie 3 osoby otrzymały bardzo duże dawki promieniowania w 1999 roku [13]. Jest to technika z wyboru, kiedy przewidywane dawki pochłonięte są na tyle wysokie (> 5-10 Sv), że prawdopodobnie uniemożliwią stymulowanym limfocytom dojście do fazy mitozy. Jeżeli limfocyty zostaną zatrzymane wcześniej w cyklu komórkowym, to analiza częstości chromosomów dicentrycznych, mikrojąder czy translokacji jest niemożliwa. Dodając do hodowli pewnych substancji chemicznych – inhibitorów fosfataz białkowych, takich jak kwas okadajowy czy kalikulina A, można jednak spowodować kondensację chromosomów niemal we wszystkich fazach cyklu podziału komórkowego, niezależnie od dawki promieniowania (ryc. 10). W przypadku biodozymetrii używa się limfocytów i kondensuje się chromosomy w fazie G2 i mitozie, a następnie analizuje się częstości szeroko rozumianych morfologicznych i numerycznych zmian w chromosomach, proporcjonalnych do dawki promieniowania, takich jak częstości pierścieni, liczbę dodatkowych fragmentów PCC – czyli fragmentów acentrycznych nadmiarowych w stosunku do liczby chromosomów dla danego gatunku albo stosunek częstości super-długich fragmentów acentrycznych do ogólnej liczby fragmentów PCC. Zalety testu PCC są następujące: - wykonywany jest na limfocytach ludzkich; - działa w zakresie dawek od 0,1 – 0,2 Sv aż do nawet 40 Sv, jednak - ponieważ analiza jest żmudniejsza i trudniejsza niż w przypadku testu chromosomów dicentrycznych, stosuje się go tylko przy dużych dawkach promieniowania. Należy podkreślić, że metoda PCC wykonywana w limfocytach ludzkich wymaga ich uprzedniego stymulowania do podziału i efektywnie jest stosowana dopiero, kiedy komórki znajdą się w późnej fazie G2, czyli po około 45-48 godzinach hodowli. Tak więc, żeby rozpocząć przygotowywanie preparatów mikroskopowych muszą upłynąć 2 doby. Podobnie jest w przypadku testu chromosomów dicentrycznych czy analizy translokacji, a w przypadku testu mikrojąder preparaty wykonuje się nawet po 3 dobach hodowli. faza G2 

faza S 

Ryc. 10. Limfocyty ludzkie ze skondensowanymi przez inhibitor fosfataz chromosomami w  różnych fazach cyklu komórkowego: fazie S i fazie G2. W celach biodozymetrycznych używa  się komórek w fazie G2 i mitozie. 

Istnieje możliwość zastosowania metody PCC w niestymulowanych limfocytach poddanych działaniu kinazo-zależnej cykliny B oraz kalikuliny A (metoda nazwana RICA – Rapid Interphase Chromosome Assay). W

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

41

tym przypadku ocenia się liczbę obszarów, na jakie podzielone są terytoria chromosomowe, widoczne dzięki hybrydyzacji in situ (FISH) w częściowo skondensowany jądrach interfazowych [14]. Zaletą tej metody jest skrócenie czasu hodowli komórek z 48 do kilku godzin, oraz łatwość jej wykonania. Zastosowanie metody pozwala istotnie skrócić czas uzyskania wyników biodozymetrii i używać jej jako testu przesiewowego (triage) u dużej liczby potencjalnie napromienionych osób. Metoda jest obiecująca, ale słabo udokumentowana (3 publikacje) i używana tylko w jednym laboratorium na świecie – w AFRRI (Armed Forces Radiobiology Research Institute) w Stanach Zjednoczonych.

MOLEKULARNE BIOWSKAŹNIKI NAPROMIENIENIA Nie są to jeszcze metody dozymetrii biologicznej, ale prowadzone są prace nad wykorzystaniem molekularnych biowskaźników promieniowania do tego celu. Wiadomo, że w napromienionych komórkach zmienia się poziom ekspresji pewnych grup białek, np. białek naprawy DNA, sygnalizacji tej naprawy, protoonkogenów itp. Zmiana stężenia białek w komórce musi się wiązać ze zmianą aktywności kodujących je genów. Zwiększa się poziom transkrypcji i powstaje więcej kopii m-RNA odpowiadającego tym białkom. Możliwe jest badanie zmian profilu ekspresji genów w komórce, poziomu m-RNA dla poszczególnych białek jak i poziomu samych białek (ryc. 12) – i to są właśnie molekularne wskaźniki napromienienia.

Ryc. 12. Schemat komórki z drogą od informacji zapisanej w DNA do zsyntetyzowania białek. Po na‐ promienieniu zmienia się poziom i wzór transkrypcji w jądrze komórkowym. Powstaje inny ”koktajl” m ‐RNA w cytoplazmie, a na końcu syntetyzowane są różne białka. Zarówno wzór ekspresji genów, po‐ ziom m‐RNA jak i poziom białek w komórce mogą służyć jako molekularne biowskaźniki napromienie‐ nia. 

Ryc. 13. Przykład mikromacierzy DNA. Wzór  punktów odwzorowuje wzór ekspresji ge‐ nów w danej tkance i jest zmieniany nawet  przez niewielkie dawki promieniowania  (źródło Wikipedia). 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

42

Zmiana profilu ekspresji genów badana jest przy pomocy tzw. mikromacierzy DNA (DNA microarrays). W ogromnym uproszczeniu na płytce (szkiełku) znajduje się naniesiona kolekcja fragmentów genów w postaci jednoniciowego DNA i jeżeli nakropimy na nią jednoniciowe fragmenty c-DNA, przepisane z m-RNA ekstrahowanego z badanych komórek, to otrzymamy mapę wszystkich genów, jakie są aktywne w badanych komórkach (ryc. 13). Można rozróżnić „wolne” miejsca na płytce od „zapełnionych” gdzie badane c-DNA hybrydyzowało z DNA przyczepionym do płytki. W ten sposób można obserwować zmianę ekspresji dziesiątek tysięcy genów jednocześnie. Wiadomo, że mikromacierz po napromienieniu nawet zupełnie małymi dawkami promieniowania (rzędu milisiwertów) wygląda inaczej niż macierz przed napromienieniem. W przypadku rzeczywistej biodozymetrii nie mamy jednak dostępnej macierzy przed napromienieniem. Dodatkowo, ekspresja genów u danej osoby w danej tkance może się zmieniać w czasie pod wpływem całej gamy czynników fizjologicznych. Poza tym metoda jest słabo powtarzalna, droga i skomplikowana. Dzięki technice mikromacierzy DNA zidentyfikowano setki, jeżeli nie tysiące genów, które ulegają nadekspresji lub ich ekspresja jest zmniejszona po działaniu promieniowania. Potencjalnie każdy z tych genów mógłby być molekularnym biodozymetrem, bo zmianę jego ekspresji po napromienieniu można obserwować jako zmianę poziomu m-RNA w danej tkance przy pomocy techniki RT-PCR (Real Time Polymerase Chain Reaction). Trwają prace nad wybraniem tkanki (limfocyty krwi obwodowej, surowica krwi) i odpowiednich genów, których ekspresja byłaby promieniozależna, stała dla wszystkich dawców i niezależna od mikrośrodowiska komórkowego oraz stanu fizjologicznego. Do tej pory wstępnie przebadano szereg genów np: CDKN1A, GADD45A, SENS1, BAX, DDB2 [15, 16] i uzyskano dobrze rokujące krzywe zależności dawka-efekt. Metoda jest obiecująca, bo - posiadając odpowiedni sprzęt - wynik pokazujący poziom ekspresji wybranego genu można by uzyskać po około 8 godzinach i u stosunkowo dużej liczby osób.

Stężenie białka  GADD45 w  ekstrakcie  komórek  ludzkiej  krwi (pg/  μl) 

Dawka, Gy  Ryc. 14. Krzywa dawka‐efekt dla stężenia białka GADD45 w napromienionych  komórkach krwi, po 24 i 48 godzinach [17]. 

Poziom białek można mierzyć zarówno w ekstraktach z komórek (np. limfocytów), jak i surowicy krwi. Dużo prac w tym kierunku przeprowadzali naukowcy ze wspomnianego już wcześniej amerykańskiego instytutu AFRRI. Stwierdzili oni wzrost poziomu białek Ras p21 i Raf w ludzkich limfocytach krwi obwodowej po działaniu 0,1 i 0,75 Gy promieniowania X. Badali ponadto poziom różnych białek w surowicy krwi napromienionych myszy [17]. Stosowali metod ELISA, a wzrost poziomu wytypowanych białek oznaczali Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

43

jako % poziomu wszystkich białek. Test ELISA z powodu jego pracochłonności i stopnia skomplikowania w żaden sposób nie może jednak służyć jako podstawa testu biodozymetrycznego. Dużo bardziej zaawansowane prace dotyczyły białka GADD45 [17]. Oznaczano jego poziom w zależności od dawki w zakresie 0-6 Gy promieniowania X, zarówno w surowicy krwi obwodowej jak i ekstrakcie komórek krwi i uzyskano obiecujące krzywe dawka – efekt (ryc. 14). Dodatkowo okazało się, że metoda pozwala rozpoznać częściowe napromienienie ciała. Ważne jest też, że poziom tego białka nie oznaczano standardowo testem ELISA, ale metodą immunofluorescencyjną opierającą się technice mikrosfer Luminex, która wykorzystuje cytometr przepływowy do odczytywania wielkości sygnału. Jest ona prosta, szybka i w pełni zautomatyzowana. Choć na dzień dzisiejszy żaden z omówionych molekularnych wskaźników napromienienia nie jest jeszcze wystarczająco opracowany by mógł służyć jako test biodozymetryczny (może poza automatyczną analizą białka GADD45 w limfocytach i surowicy krwi) to wydaje się, że potencjalnie spełniają one wszystkie ku temu warunki i w najbliższej przyszłości mogą stać się konkurencja dla testów cytogenetycznych.

BIODOZYMETRIA MEDYCZNA – NA PODSTAWIE OBJAWÓW Wysokie dawki promieniowania mogą powodować objawy chorobowe, takie jak spadek liczby limfocytów we krwi obwodowej (od 1 Sv), wymioty (od 1 Sv), biegunka (od 4 Sv), bóle głowy (od 2 Sv), wzrost temperatury (od 2 Sv) czy utrata przytomności (od 6 Sv) [18]. Chociaż nie są to objawy specyficzne, doświadczeni lekarze, szczególnie, kiedy wiedzą, że w grę mogło wchodzić promieniowanie, mogą na ich podstawie określić, czy dana osoba została napromieniona i oszacować w przybliżeniu dawkę. Jednak co najmniej 4 powody zmniejszają atrakcyjność takiego szacunku jako biodozymetru. Po pierwsze, dolna granica metody to dawki rzędu 1-3 Gy, a więc bardzo wysokie, praktycznie spotykane tylko przy poważnych wypadkach radiacyjnych. Metoda nie nadaje się więc do oceny niskich dawek u pracowników zawodowo narażonych na promieniowanie. Po drugie, wymienione wyżej objawy chorobowe (z wyjątkiem spadku poziomu limfocytów) u jednych osób występują już po 1 Sv, a u innych dopiero po 3 Sv i różne jest ich nasilenie. Po trzecie, są to objawy niespecyficzne i mogą być wywołane z tysiąca innych powodów. I wreszcie ostatni powód – zauważono, że w czasie jakichkolwiek sytuacji zbiorowego narażenia część osób, które tak naprawdę nie zostały napromienione (czy np. skażone chemicznie, bo zjawisko jest szersze) będzie miało symptomy jak po otrzymaniu dużej dawki, bądź będzie się czuło poszkodowane i domagało opieki medycznej. Są to tzw. pacjenci „worried well”, a występujące u nich symptomy, całkiem poważne - wymioty, biegunka, bóle głowy czy gorączka - mają podłoże psychiczne. Biodozymetria medyczna jest wpisana w tzw. triage medyczny – czyli w algorytmy podziału poszkodowanych na grupy na miejscu zdarzenia w sytuacji masowego narażenia wielu osób [2]. Bardzo ważne jest ustalenie w tego typu sytuacjach, czy zdarzenie jest związane z promieniowaniem (np. atak przy użyciu „brudnej bomby”). Jeżeli tak, to w przygotowanym do tego celu szpitalu powinien odbyć się kolejny triage medyczny, już ukierunkowany na rozpoznanie osób napromienionych i pobranie materiału do biodozymetrii cytogenetycznej, która ustali dokładne wysokości dawek pochłoniętych. Ustalenie wysokości dawki ma znaczenie przy doborze stosowanych procedur medycznych. Wiele różnych schematów postępowania w tego typu sytuacjach zostało przeanalizowane i opisane w podręczniku TMT HandboRyc. 15. Spadek liczby limfocytów we krwi obwo‐ dowej po 1 i 2 dniach od napromienienia całego  ok, Triage, Monitoring and Treatment of people exposed to ionising radiation following malevolent act, 2009 (więcej informacji ciała [19].  na stronie www.tmthandbook.org).

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


44

Edukacja

Najważniejszym z symptomów, na którym można oprzeć szacowanie dawki w szpitalu jest spadek liczby limfocytów krwi obwodowej. Wiadomo, że liczba limfocytów u zdrowej osoby waha się w granicach od 1400 do 3500 w mm3 krwi [5]. Po napromienieniu liczba ta spada tak jak to pokazano na ryc. 15, aż do zera przy bardzo wysokich dawkach.

DOZYMETRIA PRZY POMOCY SPEKTROSKOPII ELEKTRONOWEGO REZONANSU PARAMAGNETYCZNEGO (EPR) Spektroskopia EPR jest techniką pozwalającą badać niesparowane elektrony (rodniki, centra paramagnetyczne) w sieci krystalicznej różnych związków chemicznych. Nawet najmniejsze dawki promieniowania wzbudzają związki chemiczne i powodują powstawanie nowych rodników, które mogą być wykrywane przy pomocy EPR. Koncentracja nowo powstałych rodników jest proporcjonalna do dawki. Ze względów technicznych dozymetrią przy pomocy EPR można przeprowadzać w hydroksyapatycie, pochodzącym ze szkliwa zębów lub kości oraz we włóknach kolagenowych z paznokci lub włosów. Do tej pory najwięcej prac dotyczyło szkliwa zębów. Zaletami dozymetrii przy użyciu spektroskopii EPR w szkliwach zębów są: szeroki zakres wykrywanych dawek od mniej, niż 0,1 Gy do dawek nie mających znaczenia w biodozymetrii rzędu setek Gy; wysoka powtarzalność i znikomy koszt analizy próbki (koszty zakupu sprzętu – spektrometru są jednak bardzo wysokie); sygnał EPR w hydroksyapatycie jest stały przez miliony lat, dzięki temu analizę można wykonywać w dowolnym momencie po napromienieniu (retrospektywnie); w pewnych okolicznościach możliwe jest wykrycie częściowego napromienienia ciała. Można sobie wyobrazić sytuację, że przeprowadzamy analizę EPR w szkliwie zębów i w paznokciach od nóg czy rąk u danej osoby – i jeżeli znajdujemy sygnał tylko w jednej z próbek, świadczy to o częściowym napromienieniu; postuluje się, że EPR może służyć do badania niskich i dostarczanych w długim czasie dawek np. u osób zawodowo narażonych na promieniowanie, czy mieszkających na obszarze o podwyższonej promieniotwórczości naturalnej. Najmniejsza wykrywalna dawka to około 0,05 Sv. Natomiast poważną zaletą tej metody jest to, że wykrywany sygnał, w odróżnieniu od zmian cytogenetycznych (częstość dicentryków czy raczej translokacji) nie jest w żaden sposób zależny od czasu czy stanu fizjologicznego badanej osoby; technika ta jest już dosyć dobrze udokumentowana i kilka razy zastosowana w praktyce; jej klasyczna odmiana bazuje na analizie fragmentu zęba pobranego z organizmu – i to jest jej zasadnicza wada, bo czyni ją techniką inwazyjną. Osoba postawiona przez wyborem czy woli przeprowadzić dozymetrię na próbce krwi, czy kawałku zęba z całą pewnością wybierze próbkę krwi. Jednak ostatnio konstruuje się małe, przenośne spektroskopy EPR, pozwalające przeprowadzać pomiar w warunkach polowych, bez pobierania fragmentu zęba tylko bezpośrednio w jamie ustnej setek osób w krótkim czasie – i traktować go jako bardzo efektywny test przesiewowy [20]. Spektroskopia EPR przeprowadzana na skrawkach paznokci nie jest tak dobrze udokumentowana. Jej oczywistą zaletą jest nieinwazyjność, a wadą, – że sygnał EPR w paznokciach jest słabszy i nie tak stabilny jak w hydroksyapatycie z zębów.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

45

DOZYMETRIA PRZY POMOCY SPEKTROSKOPII ELEKTRONOWEGO REZONANSU PARAMAGNETYCZNEGO (EPR) ORAZ TECHNIK LUMINESCENCYJNYCH (OSL – OPTICALLY STIMULATED LUMINESCENCE) W WYŚWIETLACZACH I KOMPONENTACH ELEKTRONICZNYCH PRZENOŚNYCH URZĄDZEŃ ELEKTRONICZNYCH W oczywisty sposób nie jest to dozymetria biologiczna tylko fizyczna, ale ma z dozymetrią biologiczną jedną wspólną cechę. Otóż, jeżeli chodzi o czułość metody dozymetria biologiczna nie może konkurować z dozymetrią fizyczną, jednak dozymetry fizyczne – w postaci różnego rodzaju plakietek - noszą i co jakiś czas mają kontrolowane tylko osoby pracujące z promieniowaniem. Tymczasem dozymetr biologiczny każdy nosi ze sobą, wszystko jedno czy są nim limfocyty krwi obwodowej, czy szkliwo zębów. Często jednak mamy przy sobie przenośne urządzenia elektroniczne: telefony komórkowe, odtwarzacze MP3 i MP4, przenośne pamięci, itd. Zatem, gdyby można było przeprowadzić dozymetrię fizyczną w tych urządzeniach to uzyskalibyśmy zarówno łatwość, szybkość i dokładność odczytu, jak i powszechność indywidualnego dozymetru. Stąd pomysł mierzenia sygnałów EPR i OSL w urządzeniach elektronicznych. Pomysł ten jest podstawą jednego z tematów w projekcie MULTIOBIODOSE. Do tej pory przeanalizowano możliwość czytania sygnału EPR w wyświetlaczach 61 modeli telefonów oraz sygnału OSL w komponentach elektronicznych tych samych telefonów.

TEST PRZEBARWIEŃ W SKÓRZE (SKIN SPECLE ASSAY) I BADANIE POZIOMU BIAŁEK W OSOCZU KRWI (SERUM PROTEIN ASSAY) Żaden z testów cytogenetycznych ani biochemicznych używanych w dozymetrii biologicznej nie odtworzy dawki dostarczonej na niewielka powierzchnię ciała. Żeby taka dawka była groźna dla zdrowia czy życia, musi być wysoka. Dawki rzędu kilku grejów, które byłyby zabójcze w przypadku pochłonięcia przez całe ciało, dostarczone np. na fragment 10 cm2 uda będą tylko drobną niedogodnością, kończącą się jakąś formą miejscowego zapalenia. Gdyby jednak pochłonięta dawka okazała się bardzo wysoka, np. rzędu 100 Gy, to wtedy pojawi się problem. Po pierwsze, taka dawka zabije wszystkie komórki w tym miejscu (skóry, naskórka, tkanek pod skórą) i spowoduje trudną do wyleczenia martwicę tkanek. Po drugie, przez jakiś czas po napromienieniu (np. kilka tygodni, czy nawet miesięcy) może nie być żadnych niepokojących objawów, ale jeżeli dawka była odpowiednio wysoka, to martwica jest nieuchronna i powinno się wyciąć takie tkanki wcześniej i wypełnić ranę, żeby zminimalizować cierpienie i nie dopuścić do zakażenia. Odtworzeniu dawki w takich sytuacjach służy opracowany we Francji test przebarwień na skórze (SSA) [21]. Polega on na naświetlaniu skóry światłem z lasera i badaniu światła odbitego od skóry, a więc metoda jest nieinwazyjna. Promieniowanie zmienia sposób odbicia takiego światła w sposób proporcjonalny do dawki. Do tej pory na modelach zwierzęcych testowano dawki od 20 do 80 Gy. Uzupełnieniem tej metody ma być badanie ekspresji wybranych białek w surowicy krwi przy pomocy elektroforezy dwukierunkowej. Dotychczas przetestowano 34 białka wybrane za pomocą spektroskopii masowej i otrzymano obiecujące wyniki [22]. Wydaje się, że zmiany ekspresji pewnych białek w osoczu krwi są widoczne nawet po napromienieniu niewielkiego obszaru powierzchni skóry, w okresie, kiedy brak jeszcze klinicznych symptomów napromienienia.

DOZYMETRIA BIOLOGICZNA W POLSCE Dozymetria biologiczna z powodu swojej przydatności powinna być wpisana w system reagowania w sytuacjach kryzysowych. Tak się dzieje w wielu krajach, które utrzymują specjalne jednostki zajmujące się głównie dozymetrią, w tym biologiczną np. w Niemczech – Bundesamt fuer Strahlenschutz czy w Finlandii – Radiation and Nuclear Safety Authority. W Polsce organem dozoru jądrowego jest między innymi Państwowa Agencja Atomistyki (PAA). Składa się ona z wielu departamentów (między innymi Centrum ds. Zdarzeń Radiacyjnych CEZAR), które odpowiadają za monitoring sytuacji radiacyjnej kraju, dozymetrię fizyczną na miejscach zdarzenia itp. Oficjalną jednostką, która przeprowadza dozymetrię biologiczną dla

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Edukacja

46

PAA jest Centralne Laboratorium Ochrony Radiologicznej (CLOR) w Warszawie, gdzie tą tematyka zajmuje się jedna osoba. W przypadku masowego zdarzenia radiacyjnego CLOR nie jest w stanie zapewnić dozymetrii biologicznej dla wszystkich potrzebujących. Polska jest jednym z 15 państw w Europie, gdzie funkcjonują laboratoria posługujące się metodami dozymetrii biologicznej [23]. Według mojej wiedzy, 4 instytuty w Polsce są realnie zdolne do wykonania rekonstrukcji dawki u napromienionej osoby: CLOR, Zakład Biologii Radiacyjnej i Środowiskowej Instytutu Fizyki Jądrowej PAN w Krakowie, Zakład Radiobiologii i Immunologii Instytutu Biologii Uniwersytetu im. Jana Kochanowskiego w Kielcach oraz Centrum Radiobiologii i Dozymetrii Biologicznej Instytutu Chemii i Techniki Jądrowej (ICHTJ) w Warszawie. Tylko dwa ostatnie z wymienionych zakładów dysponują nowoczesnymi, automatycznymi mikroskopami i systemami do analizy obrazu wykorzystywanymi w szybkiej dozymetrii biologicznej. Ponieważ jedno laboratorium dozymetryczne nie jest w stanie zapewnić dozymetrii przy masowym zdarzeniu radiacyjnym, istnieje potrzeba grupowania laboratoriów w funkcjonalne sieci. Na terenie Europy dzięki projektom MULTIBIODOSE oraz RENEB (Realizing the European Network in Biodosimetry) powstają właśnie funkcjonalne sieci dozymetrii biologicznej. Do tej pory w prace obu konsorcjów włączone jest tylko Centrum Radiobiologii i Dozymetrii Biologicznej ICHTJ w Warszawie. Jeżeli chodzi o Polskę, to pod koniec 2010 roku zainicjowano program „Porównanie Międzylaboratoryjne" mający na celu porównanie oceny dawek pochłoniętych na podstawie częstości chromosomów dicentrycznych pomiędzy CLOR a ICHTJ i standaryzację procedury. Planowane są dalsze ćwiczenia i włączenie w nie pozostałych 2 laboratoriów: z Kielc i Krakowa. Być może, będzie to podstawa sieci biodozymetrycznej w naszym kraju. Powstanie polskiej sieci biodozymetrycznej i pokazanie, że Polska jest w stanie zapewnić ochronę radiologiczną całego kraju również używając metod dozymetrii biologicznej mogłoby mieć pozytywny wpływ na społeczny odbiór rozwoju energetyki jądrowej. W przypadku jakiegokolwiek zdarzenia radiacyjnego ludzie są bardzo zainteresowani tym, jakie dawki promieniowania dostali i co to oznacza dla ich zdrowia, to zaś może zagwarantować tylko dozymetria biologiczna i utrzymywanie grupy ekspertów z tej dziedziny.

LITERATURA: 1. Waselenko J.K., MacVittie T.J., Blakely W.F., Pesik N., Wiley A.L., Dickerson W.E., Tsu H., Confer D.L., Coleman C.D., Seed T., Lowry P., Armitage J.O., Dainiak N.: Medical Management of the Acute Radiation Syndrome: Recommendations of the Strategic National Stockpile Radiation Working Group. Annals of Internal Medicine (2004), 140, Nov 12, 1037-1051; 2. Rojas-Palma C., Liland A., Jerstad A.N., Etherington G., Perez M., Rahola T., Smith K.: TMT Handbook – Triage, Monitoring and Treatment of people exposed to ionising radiation following a malevolent act. (2009); 3. Cytogenetic analysis for radiation dose assessment. Technical Report Series No 405, IAEA Vienna (2001); 4. Lloyd D.C., Edwards A.A., Moquet J.E., Guerrero-Carbajal Y.C.: The role of cytogenetics in early triage of radiation casualties. Applied Radiation and Isotopes. (2000), 52, 1107-1112; 5. Blakely W.F., Satter C.A., Prassana P.G.: Early-response biological dosimetry – recommended countermeasure enhancement for mass-casualty radiological incidents and terrorism. Health Physics (2005), Nov, 89(5), 494-504; 6. Lee B.I., Kim S.I., Suh D.H., Kim J.I., Lim Y.K.: Radiation dose distribution for workers in South Korean nuclear power plants. Academy of Science, Engineering and Technology (2011), 76, 148-151; 7. Word Nuclear Association – informacje ze strony internetowej (2011); 8. Fenech M.: The advantages and disadvantages of the cytokinesis-block micronucleus method. Mutation Research, (1997), 392, 11-18; 9. Rossnerova A., Spatova M., Schunck C., Sram R.J.: Automated scoring of lymphocyte micronuclei by the MetaSystems Metafer image cytometry system and its application in studies of human mutagen sensitivity and biodosimetry of genotoxin exposure. Mutagenesis, (2011), 26, 169-175; 10. Wójcik A., Kowalska M., E. Bouzyk E., Buraczewska I., Kobialko G., Jarocewicz N., Szumiel I.: Validation of the micronucleus-centromere assay for biological dosimetry. Genetics and Molecular Biology, (2000), 23, 4, 1083-1085; 11. Roch-Lefevre S., Mandina T., Voisin P., Gruel Gaetan G., Mesa J.E.G., Valente M., Bonnesoeur P., Garcia O., Voisina P., Roy L.: Quantification of c-H2AX Foci in Human Lymphocytes: A Method for Biological Dosimetry after Ionizing Radiation Exposure. Radiation Research, (2010), 174, 185–194;

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Edukacja

47

12. Tawn E.J., Whitehouse C.A., Tarone R.E.: FISH chromosome aberration analysis on retired radiation workers from the Sellafield nuclear facility. Radiat Res., (2004) Sep;162(3), 249-56; 13. Hayata I., Kanda R., Minamihisamatsu M., Furokawa S., Sasaki M.: Cytogenetical dose estimation for 3 severely exposed patients in the JCO criticality accident in Tokai-mura. J Radiat Res Suppl, (2001), 42, 149-155; 14. Prasanna P.G.S., Escalada N.D., BlakelyW.F.: Induction of premature chromosome condensation by a phosphatase inhibitor and a protein kinase in unstimulated human peripheral blood lymphocytes: a simple and rapid technique to study chromosome aberrations using specific whole-chromosome DNA hybridization probes for biological dosimetry. Mutation Research, (2000), 466, 131–141; 15. Kabacik S., Mackay A., Tamber N., Manning G., Finnon P., Paillier F., Ashworth A., Bouffler S., Badie C.: Gene expression following ionising radiation: Identification of biomarkers for dose estimation and prediction of individual response Int. J. Radiat. Biol., (2011), 87, No. 2, 115–129; 16. Prasanna P.G.S., Muderhwa J.M., Miller A.C., Grace M.B., Salter C.A., Blakely W.F.: Diagnostic Biodosimetry Response for Radiation Disasters: Current Research and Service Activities at AFRRI. RTO-MP-HFM (2004); 17. Blakely W.F., Miller A.C., Muderhwa J.M., Manglapus G.L., Leidel J.M., Martinez M., Landauer M.R., Grace M.B., Prasanna P.G.S.: Development and Validation of Radiation-Responsive Protein Bioassays for Biodosimetry Applications. NATO RTG099 (2005); 18. Diagnosis and Treatment of Radiation Injuries. Safety Report Series, No 2, IAEA, Vienna (2008); 19. European Group of Blood and Marrow Transplantation web page. (2007); 20. Swartz H., Flood A.B., Williams B., Dong R., Gui R., He X., Lesniewski P., Kmiec M., LaRciviere J., Mathews T., Raynolds T., Grinberg O., Salikhov I., Demidenko E., Nicolalde J., Wilcox D.: Electron Paramagnetic Resonance (EPR) Dosimetry for response to a large-scale radiation incident. 19th Nuclear Medical Defense Conference (2011); 21. Carvalho O., Clairac B., Benderitter M., Roy L.: Statistical speckle study to characterize scattering media: use of two complementary approaches. Optics express (2007), 15, 13817-13831; 22. Guipaud O., Holler V., Buard V., Tarlet G., Royer N., Vinh J., Benderitter M.: Time-course analysis of mouse serum proteome changes following exposure of the skin to ionising radiation. Proteomics (2007), 7, 3992-4002; 23. Wojcik A., Lloyd D., Romm H., Roy L.: Biological dosimetry for triage of casualties in a large-scale radiological emergency:capacity of the EU member states. Radiat Prot Dosimetry. (2010), Mar;138(4), 397-401;

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


48

Promieniowanie jonizujące

HISTORIA ZNAKU OSTRZEGAJĄCEGO  PRZED PROMIENIOWANIEM     Marek Rabiński  Międzynarodowy znak ostrzegający przed promieniowaniem, powszechnie nazywany 'trójlistną koniczynką', powstał około 1946 roku w środowisku pracowników amerykańskiego laboratorium Uniwersytetu Kalifornijskiego w Berkeley. Sugerowano stworzenie grafiki, symbolizującej promieniowanie emitowane przez atom. Wyjściowa wersja przewidywała użycie fioletowego symbolu na niebieskim tle. Wybór niebieskiego uzasadniano tym, że w laboratoriach kolor ten jest stosowany niezwykle rzadko więc zostanie zminimalizowane niebezpieczeństwo potencjalnej koincydencji z barwą ostrzegawczych przywieszek. Wybór fioletu był wynikiem dość kuriozalnego toku rozumowania – farba tego koloru była wyjątkowo droga, co skutecznie miało zapobiegać przed niebezpieczeństwem powszechnego jej użycia. Większość pracowników zdecydowanie krytykowała niebieskie tło bo kolor ten nie kojarzy się ze znakami ostrzegawczymi oraz płowieje pod wpływem światła. Merytoryczną dyskusję komplikowała jednak awersja autora koncepcji do żółtego, uznawanego przez niego za zbyt pospolity. Wybór kolorów został ostatecznie rozstrzygnięty po przeprowadzeniu z odległości 30 stóp (9 metrów) testów na łatwość rozpoznawania znaków w różnych warunkach oświetlenia, jednoznacznie wykazały one wyższość fioletu na żółtym tle. Sama jednak forma nie była początkowo jednoznaczna. Na przełomie lat 1940-tych i 1950-tych używano różnych wariantów, przede wszystkim z prostymi lub falistymi liniami dodatkowych strzałek skierowanych na zewnątrz, które umieszczano albo w polach listków, albo między nimi. Dopiero pod koniec lat 1950-tych amerykański urząd standaryzacji (ANSI) przyjął dzisiejszy kształt. Geometria znaku jest jednoznacznie zdefiniowana – jeśli wewnętrzne kółko ma promień R to listki koniczynki zaczynają się na promieniu 1,5 x R a kończą na promieniu 5 x R, są rozstawione co 60 stopni, przy czym u góry umieszcza się dwa listki. Znak amerykański jest fioletowy na żółtym tle, po wielu latach dopuszczono ewentualność stosowania koloru czarnego w zastępstwie fioletu i ta wersja przyjęła się powszechnie poza Stanami. Na wybór kształtu wpływ wywarły wcześniejsze symbole. W dokach pobliskich stoczni zbliżony znak ostrzegał przed obracającymi się śrubami napędowymi statków. Wcześniej powszechnie używano też ostrzeżenia przed promieniowaniem w formie małej czerwonej kropki, od której odchodziło cztery lub pięć czerwonych błyskawic (jak przy oznaczeniach udarów elektrycznych) ze skierowanymi na ze-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

49

wnątrz strzałkami. Można też dopatrywać się inspiracji flagą japońskiej floty wojennej, w świadomości ówczesnych Amerykanów jednoznacznie kojarzonej z niebezpieczeństwem. 'Koniczynka' jest powszechnie uznawana za jeden z najbardziej rozpoznawalnych na świecie znaków graficznych. Jednak w 2007 roku Międzynarodowa Organizacja Standaryzacji (ISO) i Międzynarodowa Agencja Energii Atomowej (IAEA) po 5 letnich studiach wprowadziły nowy symbol pomocniczy. Ma dobitnie ostrzegać o potencjalnym niebezpieczeństwie przebywania w pobliżu silnych źródeł promieniowania jonizującego, przede wszystkim przechowalników odpadów wysokoaktywnych. Znak ma kształt trójkątnej tarczy w ostrzegawczym kolorze czerwonym, z umieszczoną u szczytu 'koniczynką', rozchodzącymi się od niej falistymi strzałkami promieniowania, trupią czaszką i uciekającym człowiekiem. Semantyka znaku jest zdecydowanie łopatologiczna, ale zdaniem zamawiających dziś inteligentnym inaczej odbiorcom kultury masowej takich właśnie symboli trzeba. Nowy znak przetestowano na 1700 osobach różnej płci i wykształcenia z 11 krajów, w tym także z Polski. W odróżnieniu od 'koniczynki' czerwony trójkąt od chwili wprowadzenia nie cieszy się przychylnością krytyków. Ich zdaniem nowy znak wymyślono dla niewykształconych głupoli, z których znaczna część i tak szybciej zemrze na chorobę popromienną niż zrozumie o co w tym rebusie chodzi. Znaki ostrzeżeń powinny przekazać przesłanie w jak naj-

prostszy i jednoznaczny sposób, tymczasem nowy znak zawiera więcej elementów składowych niż najbardziej złożone hieroglify. Zresztą umieszczone na staroegipskich grobowcach inskrypcje 'Uciekaj stąd, tu leży śmierć' i tak nie odstraszyły rabusiów sarkofagów z mumiami faraonów. Żartobliwie zaproponowano więc wprowadzenie uniwersalnego symbolu 'monstrum' – odrażającego robala z rozdziawionym pyskiem i wydobywającym się z niego warknięciem WRRR! Zaczęły się złośliwe domysły jak zinterpretowaliby znak przybyli z innych planet archeolodzy gdy odkopią tablice za dziesiątki tysięcy lat. Różnorodność znaczeń, jakich nośnikiem może być trupia czaszka i skrzyżowane piszczele prowadziła do interpretacji typu: 'Jesteśmy nosicielami śmierci', 'Śmierć wyłania się z mogił', gracze komputerowi zaproponowali – 'Uważaj na Wielką Czachę Zmutowanego Zombie-Szkieletora, a tędy jest wyjście na następny poziom'. Wreszcie ktoś pokazał znak siedmiolatkowi uzyskując orygi-

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


50

Promieniowanie jonizujące

nalne wyjaśnienie – to jest informacja dla piratów i uprawiających jogging, że wentylator jest nad nimi u góry. Lawina rozwinięć tej odkrywczej myśli doprowadziła do wersji 'Spieprzaj stąd piracie bo wiatrak nawiewa smrody'. Istnieje też inny znak powszechnie mylony ze znakiem 'koniczynki'. Został wprowadzony w 1961 roku przez amerykański urząd obrony cywilnej na oznaczenie schronów przeciwatomowych (ang: fallout shelter sign). W jego przypadku od razu wybrano kolor żółty i czarny bo założeniem była dobra widoczność z odległości 200 stóp (60 metrów). Na żółtej tablicy jest umieszczone czarne koło, wewnątrz którego znajdują się trzy żółte trójkąty równoboczne połączone wierzchołkami, przy czym zajmują one pole górne i dwa boczne na dole. Tym samym żółte trójkąty znajdują się dokładnie w tym samym miejscu co żółte tło w przypadku 'koniczynki'. Sekretarz d/s zdrowia zwrócił uwagę sekretarzowi d/s obrony Robertowi S. McNamarze na tę niefortunną zbieżność, ale zdaniem armijnych psychologów nie była ona wystarczającym powodem do zaniepokojenia. Schodzące się wierzchołki trójkątów miały kojarzyć się z miejscem schronienia trzyosobowej rodziny amerykańskiej (w domyśle – starszy syn służyłby w armii). Przed wprowadzeniem oznaczenia przeanalizowano też aspekty prawne związane z zamieszczeniem identycznego znaku w publikowanym od 1932 roku podręczniku projektowania. Wśród wariantów ilustrujących możliwości graficznego połączenia trzech trójkątów znalazł się rysunek 349, przedstawiający analogiczny znak. Jednak najwyższa rada adwokacka USA dopatrzyła się w wydaniach podręcznika od 1946 roku dodania przypisu wyjaśniającego, że jest to ‘antyczny symbol głowy boga’. Skoro antyczny, to nie podpadający pod ochronę patentową Stanów Zjednoczonych Ameryki. Geometria tablic z oznaczeniem schronów została bardzo dokładnie sformalizowana. Zewnętrzne tablice z aluminium miały mieć wymiary 14 x 20 cali (35 x 50 cm), umieszczane wewnątrz budynków – 10 x 14 cali (25 x 35 cm, z galwanizowanej stali). W dolnej części tablicy znajdował się napis dużymi literami FALLOUT SHELTER (schron przeciwatomowy) oraz strzałki lub informacje jak do niego trafić. W rejonach zamieszkałych przez hiszpańskojęzycznych Amerykanów (Latynosów i emigrantów z Meksyku) przewidywano wersję z napisem REFUGIO CONTRA RADIATION, a na wyspach Samoa – LAFIGA MAI PEFUATOMIKA. W dolnym czarnym trójkącie umieszczano okrąg z wpisaną pojemnością schronu w osobach lub strzałkę wskazującą kierunek. Zewnętrzne tablice miały być pokryte farbami odblaskowymi co spowodowało, że w praktyce używano odcienia jasnopomarańczowego (złotego) a zamiast czerni często pojawiał się stalowoszary podkład.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

51

Popularnie znak był nazywany 'ponurakiem' (ang: grim). Jego wprowadzenie odbyło się w USA w ramach ogólnokrajowej kampanii budowy schronów przeciwatomowych. W akcji tej aktywnością wykazywała się nie tylko administracja prezydenta Johna F. Kennedyego, ale także gubernator Nelson Rockefeller (kontrkandydat republikański). Wydano między innymi 25 milionów egzemplarzy broszury z instrukcjami jak zbudować i wyposażyć przydomowy schron rodzinny oraz jak się zachować w przypadku ataku jądrowego. W powszechnej świadomości Amerykanów wprowadzone wtedy oznaczenie schronu tak silnie się związało z Zimną Wojną jak dla Polaków płyn Lugola z awarią w Czarnobylu. Znajomość tego znaku jest w USA wymagana od każdego zdającego na prawo jazdy, ponieważ wzdłuż autostrad są rozstawione tablice informacyjne jak dotrzeć do najbliższego punktu obrony cywilnej.

Autor artykułu ma nadzieję, że powyższe wyjaśnienia pozwolą rozeznać się Czytelnikom w dżungli dostępnych w sieci znaczków, z których większość jest albo nieprawidłowo narysowana albo odwrócona. Nawet grafiki kultowej gry Stalker powielają te błędy, co częściowo daje się wytłumaczyć faktem izolacji radzieckiego obszaru kulturowego od źródeł powszechnie rozpoznawanych na świecie symboli. W ZSRR przedkładano rosyjskojęzyczne szablony, pozbawione jakiegokolwiek zmysłu estetycznego. Forma międzynarodowego znaku ostrzegającego przed promieniowaniem stała się materiałem swobodnych wariacji domorosłych artystów z pracowni propagandy wizualnej na temat rzekomej ikony imperialistycznego wyścigu zbrojeń.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


52

Promieniowanie jonizujące

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

53

                                                                 

Pod takim tytułem ukazała się, nakładem SEP Centralnego Ośrodka Szkolenia I Wydawnictw , książeczka po‐ pularyzująca zagadnienia ochrony radiologicznej. Autorem jest wieloletni pracownik Instytutu Badań Jądro‐ wych i Centralnego Laboratorium Ochrony Radiologicznej mgr inż. Ryszard Siwicki. Książeczka zawiera 15  rozdziałów ilustrowanych komiksowymi rysunkami dobranymi odpowiednio do omawianej tematyki. W for‐ mie encyklopedycznej omówione są:  ‐          pochodzenie i rodzaje promieniowania jonizującego;  ‐          działanie biologiczne promieniowania;  ‐          zewnętrzne i wewnętrzne narażenie człowieka;  ‐          sztuczne i naturalne źródła promieniowania;  ‐          wykorzystanie promieniowania w medycynie, przemyśle i energetyce  ‐          pomiary i dawki promieniowania;  ‐          działanie bomby atomowej i ochrona przed skutkami wybuchu;  ‐          postępowanie z odpadami promieniotwórczymi.     Wszystko to mieści się na 48 stronach. Poleca Tadeusz Musiałowicz oraz Dyrekcja i pracownicy CLOR

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


54

Promieniowanie jonizujące

PROBLEM NISKICH DAWEK PROMIENIOWANIA   A SPRAWA RADONU     Krzysztof Wojciech Fornalski, Ludwik Dobrzyński 

Problem niskich dawek promieniowania od lat stanowi przedmiot wielu wnikliwych badań i sporów uczonych co do interpretacji otrzymywanych wyników. Z jednej strony występują zwolennicy hipotezy o liniowym bez progowym wzroście ryzyka wraz z dawką, a z drugiej strony zwolennicy koncepcji hormezy radiacyjnej. Czy możliwe jest znalezienie złotego środka? Na to pytanie postarano się odpowiedzieć w oparciu o analizę ryzyka nowotworów płuc w zależności od stężenia radioaktywnego gazu radonu. W literaturze naukowej ostatnich kilkunastu lat znaleźć można setki prac naukowych traktujących o wpływie niskich dawek promieniowania na zdrowie ludzi [1]. Zdecydowana większość publikacji ukazuje liniowy wzrost ryzyka nowotworowego dla dawek dużych (powyżej 200 mSv/rok) oraz brak jednoznacznego trendu w obszarze dawek małych. Ta niejednoznaczność spowodowana jest zasadniczo przez duże niepewności otrzymywanych danych, które mogą wskazywać zarówno na liniowy, progowy lub nawet hormetyczny efekt. Czy zatem z góry skazani jesteśmy na ciągły brak pewności i jedynie domyślanie się jak w rzeczywistości wygląda zależność dawka-efekt w obszarze poniżej ok. 200 mSv/rok? Sposób odpowiedzi na to zasadnicze pytanie jednoznacznie determinuje wszelki pogląd na to, czym są niskie dawki promieniowania i jak należy do nich podchodzić.

MAŁE DAWKI – DUŻY PROBLEM Zasadniczo występują trzy najbardziej popularne hipotezy zależności efektu zdrowotnego od otrzymanej dawki promieniowania jonizującego (Rysunek 1): hipoteza liniowa bezprogowa (ang. linear no-threshold, LNT) zakładająca, iż ryzyko rośnie liniowo wraz z dawką i nawet najmniejsze dawki są szkodliwe; hipoteza progowa zakładająca, iż poniżej pewnego progu brak jest wpływu promieniowania, a powyżej progu wzrost jest liniowy; hipoteza hormezy radiacyjnej zakładająca, iż w obszarze niskich dawek wpływ promieniowania jest pozytywny, prozdrowotny. W literaturze naukowej znaleźć można bardzo kategoryczne opinie popierające daną hipotezę. Najczęściej spór toczy się pomiędzy zwolennikami koncepcji LNT a zwolennikami hormezy radiacyjnej [2][3]. Stojąc nieco na uboczu tego sporu łatwo jest zauważyć, iż obie strony „konfliktu” zdają się całkowicie nie zauważać argumentów swych oponentów. Co więcej – nie zauważa się również dziesiątek cennych i wartościowych prac naukowych, a jedynie selektywnie wybiera te, które akurat danej grupie są użyteczne i służą poparciu ich własnej tezy.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

55

Rys. 1. Wykresy przedstawiające schematycznie ideę trzech podstawowych hipotez zależności efektu od dawki: hipoteza  liniowa bezprogowa (LNT), hipoteza progowa, hipoteza hormezy radiacyjnej J‐kształtna (linią przerywaną zaznaczono wariant  dla krzywej U‐kształtnej [1]). 

Przykładów można by mnożyć. Najczęstszy scenariusz wygląda następująco: grupa A powołuje się na pracę naukową pokazującą hipotezę LNT, jednocześnie całkowicie pomijając inne prace z tej dziedziny, które pokazują nieco inne zależności. W odpowiedzi grupa B pokazuje prace popierające hipotezę hormezy i popełnia ten sam błąd – nie zauważa wyników odmiennych, „lansowanych” przez grupę A. Jeśli grupa A opublikuje 10 wyników badań pokazujących LNT, grupa B poczyni to samo publikując 10 wyników pokazujących hormezę. I odwrotnie, i tak dalej, i tak dalej... W ten sposób działając trudno znaleźć odpowiedź na postawione pytania. Gdzie jest więc złoty środek? Jak umiejętnie analizować wyniki wszystkich badań naukowych z obszaru niskich dawek promieniowania? Odpowiedzi na to pytanie można poszukać w zagadnieniu znanym już od bardzo dawna – i równie od dawna kontrowersyjnym, mianowicie we wpływie alfa-radioaktywnego gazu radonu i jego licznych promieniotwórczych pochodnych na ryzyko raka płuc.

PROBLEM RADONU—KOLEJNY ODCINEK NIEKOŃCZĄCEJ SIĘ SAGI Zarówno w prawie atomowym jak i w powszechnej świadomości radon jest gazem szkodliwym, który odpowiedzialny jest za znaczną liczbę chorób nowotworowych płuc [2]. Te opinie są uzasadniane w oparciu chociażby o popularne ostatnimi laty badania łączone (ang. pooled studies) wielu niezależnych wyników [4][5] [6]. Niestety tego typu analizy statystyczne mają dwie podstawowe wady: po pierwsze nie uwzględniają wszystkich wyników (wspomniane wcześniej przy okazji przykładu z grupą A i B), a po drugie z góry zakładają model LNT. Jak należy interpretować ów drugi zarzut? Otóż wyobraźmy sobie grupę wyników otrzymanych z kilku niezależnych badań. Wyniki te poddawane są statystycznej analizie danych. Problem polega na tym, iż analiza ta z góry zakłada, iż a) zależność dawka-efekt musi być liniowa; b) zależność dawka-efekt musi dawać efekt zerowy w zerowej dawce (są takie, aby to zweryfikować?); c) zależność dawkaefekt nigdy nie może być mniejsza od zera (czyli wywoływać skutków pozytywnych dla zdrowia). W wyniku analizy statystycznej otrzymuje się wynik zgodny z hipotezą LNT. Nic dziwnego, iż otrzymano zależność liniową, skoro było to głównym założeniem od samego początku [7]!

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Promieniowanie jonizujące

56

Nie rozwijając dalej wątku badań naukowych, które z góry eliminują pozostałe hipotezy, skupmy się raczej na wynikach, które pokazują efekt przeciwny. W przypadku wpływu radonu na zdrowie jest ich całkiem sporo [1]. Do najważniejszych należą badania z niemieckiej Saksonii [8][9] (wyniki na Rys. 2), Stanów Zjednoczonych [10] (wyniki na Rys. 3) oraz amerykańskiego hrabstwa Worcester [11] (wyniki na Rys. 4).

1,2

ryzyko raka płuc

1 0,8 0,6 0,4

grupa kontrolna nr 1 grupa kontrolna nr 2 (ICRP)

0,2

brak wpływu na zdrowie 0 0

100

200

300

400

500

600

700

koncentracja radonu [Bq/m3] Rys. 2. Wpływ stężenia radonu na ryzyko raka płuc w niemieckiej Saksonii (na podstawie [8][9]). Użyto dwóch grup  kontrolnych (szczegóły w oryginalnej pracy). Słupki błędów reprezentują jedno odchylenie standardowe (68% przedział  ufności).  

1,40

ryzyko raka płuc

1,20 1,00 0,80 0,60 0,40 0

50

100

150

200

koncentracja radonu [Bq/m3] Rys. 3. Wpływ stężenia radonu na ryzyko raka płuc wśród ok. 400 000 Amerykanów (na podstawie [10]). 

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 

250


Promieniowanie jonizujące

57

3

ryzyko raka płuc

2,5 2

1,5 1

0,5 0 0

50

100

150

200

250

300

350

400

koncentracja radonu [Bq/m3] Rys. 4. Wpływ stężenia radonu na ryzyko raka płuc w hrabstwie Worcester, Massachuse s, USA (na podstawie [11]). 

Wyniki opublikowane przez L. Cohena [10] tyczą się badań na grupie około 400 000 Amerykanów. Dzięki tak dużej kohorcie niepewności otrzymanych danych są stosunkowo niewielkie (Rys. 3). Analiza uwzględnia kilkadziesiąt czynników gmatwających (ang. confounding factors), takich jak palenie papierosów (niezwykle istotne przy badaniu nowotworów płuc), miejsce zamieszkania, wiek, zawód, płeć, status społeczny i wiele innych. Wyniki Cohena [10] stanowią jeden z najlepiej udokumentowanych przykładów działania hormetycznego, przez co były wielokrotnie krytykowane przez przeciwników tej koncepcji, którzy w rzeczywistości nie podejmowali rzetelnej i merytorycznej dyskusji z Cohenem. Co więcej, znaleźć można opinie, które kwestionują tego typu badania ekologiczne w odniesieniu do pojedynczego człowieka. Jednakże badania Cohena miały z definicji odnosić się do weryfikacji hipotezy LNT w odniesieniu do całej populacji ludzkiej [10] i tak należy je rozumieć. Druga praca zza oceanu [11] wydaje się być na dzień dzisiejszy najbardziej dokładną analizą ryzyka radonowego ze wszystkich opublikowanych (Rys. 4). Autorzy nie popełnili błędu założenia z góry koncepcji LNT, choć w czasie lektury publikacji odczuwalne jest, iż są jej zwolennikami. Jest to kolejny argument przemawiający za dokładnością zebranych i opracowanych danych w pracy Thompson’a i współpracowników [11]. Co więcej, wyniki te są zbliżone do wyników wspomnianego już Cohena (Rys. 3).

ANALIZA BAYESOWSKA 28 PRAC O WPŁYWIE RADONU NA ZDROWIE Obiektywizm naukowy nakazuje traktowanie wszelkich prac, zarówno pokazujących LNT jak i hormezę radiacyjną, na równi jako jednakowo ważne i potrzebne. Z związku z tym wydaje się naturalne zestawienie wszystkich dostępnych publikacji i dokonanie ich całościowej re-analizy, na zasadzie wspomnianych uprzednio pooled studies [12]. Do tego celu wykorzystano wolną od wszelkich odgórnych założeń bayesowską statystyczną analizę danych [13]. Wyniki wszystkich 28 prac przedstawiono zbiorczo na Rys. 5. Rysunek celowo nie zawiera niepewności ze względu na zachowanie czytelności (oczywiście w cytowanej analizie zostały wzięte pod uwagę oryginalne niepewności). Można mieć wątpliwości, czy wyniki z 28 tak różnych studiów, różniących się zarówno metodologią jak i źródłem opracowywanych danych, można umieszczać na jednym wykresie i dokonywać wspólnej całościowej analizy statystycznej. Jednakże tego typu analogiczny zabieg został z powodzeniem zastosowany w raporcie UNSCEAR [14] na rys. XV (zawierającym dane Cohena [10], górników oraz dane dla populacji [5]) oraz w innych zbiorczych analizach [4][5][6]. Dodatkowo wyniki zostały unor

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Promieniowanie jonizujące

58

mowane i uzależnione nie od stężenia radonu, lecz od przypadającej od niego średniej rocznej dawki równoważnej na płuca. Zastosowano przelicznik 1 Bq/m3 = 0,179 mSv/rok [15]. W pracy [12] dokonano ponownej analizy 28 prac traktujących o wpływie radonu na raka płuc.

Ryzyko raka płuc

2,5

2,0

1,5

1,0

0,5 0

10

20

30

40

50

60

70

80

90

100

110

120

130

140

150

średnia dawka roczna na płuca [mSv/rok] Rys. 5. Ryzyko raka płuc w zależności od średniej rocznej dawki równoważnej na płuca dla 28 niezależnych studiów  radonowych (na podstawie [12]). Prezentowane punkty nie zawierają niepewności ze względu na zachowanie czytelności  wykresu. 

Za pomocą bayesowskiej analizy danych [13] dopasowano do wszystkich wyników siedem podstawowych modeli matematycznych: dwa stałe (niezależne od dawki), trzy liniowe (w tym LNT) oraz dwa kwadratowe (w tym hormetyczny). Dopasowania bayesowskie pokazały, iż model stały prezentował wynik RR ≈ 1 (czyli ani wzrost ani spadek ryzyka), model kwadratowy przedstawiał hormezę radiacyjną, a podstawowy model liniowy pokazywał spadek (!) ryzyka w zależności od dawki (w analizowanym przedziale od 0 do 150 mSv/rok). Jak wynika z dalszej analizy [12] prawdopodobieństwo otrzymania poszczególnych dopasowań jest różne (tzw. algorytm selekcji modeli [13]) i najbardziej prawdopodobnym modelem opisującym dane z Rys. 5 jest model stały, niezależny od dawki, RR=1. Jest on ok. 90 razy bardziej prawdopodobny, niż model LNT. Model hormetyczny okazał się najmniej prawdopodobny. Ten zaskakujący wynik jest odpowiedzią algorytmu na znaczny rozrzut prezentowanych punktów (Rys. 5), który uniemożliwia dopasowanie bardziej skomplikowanej krzywej. Co ciekawe, rezultat ten jest taki sam niezależnie od tego, czy w grupie 28 studiów znalazły się wyniki Cohena (Rys. 3 i [10]), czy nie. Z czysto matematycznego punktu widzenia, nie zaburzonego żadnymi odgórnymi założeniami, można spojrzeć na otrzymane wyniki z drugiej strony: forsowanie modelu liniowego bezprogowego (LNT) wymaga założenia, iż jest on przynajmniej 90 razy bardziej prawdopodobny od pozostałych modeli. W ten oto sposób matematyka pokazała, jak bardzo należy wystrzegać się negowania na wstępie jakichkolwiek potencjalnych interpretacji otrzymywanych wyników. Patrząc na Rys. 5 można inną drogą dojść do tych samych wniosków końcowych. Otóż prezentowane punkty układają się w rozkład zbliżony do rozkładu Poissona na osi ryzyka (Rys. 6). Maksimum (czyli wartość oczekiwana rozkładu) przypada na RR = 1, co potwierdza wyniki analizy bayesowskiej. Innymi słowy: wspólna analiza 28 studiów radonowych [12] pokazuje, iż najbardziej prawdopodobnym modelem opisującym dane (Rys. 5) jest model progowy (Rys. 1), w którym poniżej 150 mSv/rok brak jest zależności ryzyka od dawki (RR=1).

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

59

< 2,3

ryzyko raka płuc (przedziałami)

1,8 ÷ 2,3 1,55 ÷ 1,8 1,35 ÷ 1,55 1,25 ÷ 1,35 1,15 ÷ 1,25 1,05 ÷ 1,15 0,95 ÷ 1,05 0,85 ÷ 0,95 0,75 ÷ 0,85 0,5 ÷ 0,75 < 0,5 0

5

10

15

20

liczba punktów Rys. 6. Rozkład punktów z Rys. 5 w zależności od ryzyka raka płuc.  

Z Rysunku 6 naturalnie wyłania się jeszcze jeden wniosek: otóż skoro istnieją chociażby pojedyncze punkty powyżej RR=1, to nie oznacza, iż istnieje nawet hipotetyczny wzrost ryzyka w tym obszarze dawek. Wszystkie punkty pokazujące zarówno ostrą zależność liniową (LNT) jak i ostrą hormezę, są po prostu fluktuacjami statystycznymi od średniej RR=1 i nie mogą być podstawą jakichkolwiek finalnych koncepcji czy teorii.

PODSUMOWANIE – CZY MOŻLIWY JEST KOMPROMIS? Od lat trwa burzliwa dyskusja na temat rzeczywistej zależności dawka-efekt przy wdychaniu radioaktywnego gazu radonu. Z jednej strony pojawiają się argumenty przemawiające na korzyść hipotezy liniowego bezprogowego wzrostu ryzyka (LNT), a z drugiej strony wyniki badań wskazujące na zależność przeciwną, hormetyczną [1][2]. Na podstawie analizy statystycznej uwzględniającej 28 różnych wyników wpływu radonu na raka płuc [12] okazuje się, iż modelem najlepiej opisującym wszystkie istniejące dane jest hipoteza progowa (Rys. 1). Wydaje się, iż w obliczu wielu sprzecznych wyników w tej dziedzinie [1], będących de facto fluktuacjami statystycznymi (Rys. 6), najlepszym i najlogiczniejszym kompromisem jest hipoteza progowa, będąca wynikiem bayesowskiej analizy statystycznej [12].

LITERATURA: [1] Charles L. Sanders, “Radiation Hormesis and the Linear-No-Threshold Assumption”, Springer: Heidelberg 2010 [2] Wade Allison, “Radiation and reason”, York, 2009 [3] B.G. Charlton, Zombie science: A sinister consequence of evaluating scientific theories purely on the basis of enlightened self-interest, Medical Hypotheses 71(2008) issue 3, p. 327-32

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


60

Promieniowanie jonizujące

[4] Darby S, Hill D, Auvinen A, Barros-Dios JM, Baysson H, Bochicchio F, Deo H, Falk R, Forastiere F, Hakama M, Heid I, Kreienbrock L, Kreuzer M, Lagarde F, Mäkeläinen I, Muirhead C, Oberaigner W, Pershagen G, Ruano-Ravina A, Ruosteenoja E, Schaffrath Rosario A, Tirmarche M, Tomášek L, Whitley E, Wichmann HE, Doll R. Radon in homes and risk of lung cancer: collaborative analysis of individual data from 13 European case-control studies. British Medical Journal 330(7485):223-226; 2004. [5] Lubin JH, Boice JD. Lung Cancer Risk From Residential Radon: Meta-analysis of Eight Epidemiologic Studies. J Natl Cancer Inst 89:49–57; 1997. [6] Lubin JH, Wang ZY, Boice JD, Xu ZY, Blot WJ, Wang LD, Kleinerman RA. Risk of lung cancer and residential radon in China: pooled results of two studies. Int J Cancer 109:132–137; 2004. [7] Jaynes ET. Probability Theory – The Logic of Science. Cambridge; 2003. [8] Conrady J, Martin K. Weniger Modelle – spezifischere analytische Studien zum Radonrisiko in Wohnungen sind notwendig. Bundesgesundheitsblatt 19:106–110; 1996. [9] Becker K. Health Effects of High Radon Environments in Central Europe: Another Test for the LNT Hypothesis?. Nonlinearity Biol Toxicol Med 1(1):3–35; 2003. [10] Cohen BL. Test of the Linear No-Threshold Theory of radiation carcinogenesis for inhaled radon decay products. Health Physics 68(2):157-174; 1995. [11] Thompson RE, Nelson DF, Popkin JH, Popkin Z. Case-control study of lung cancer risk from residential radon exposure in Worcester County, Massachusetts. Health Physics 94(3):228–241; 2008. [12] Fornalski K.W., Dobrzyński L. Pooled Bayesian analysis of twenty-eight studies on radon induced lung cancers. Health Physics 101(3); 2011 (in press). [13] Fornalski K.W., Dobrzyński L. Zastosowania twierdzenia Bayesa do analizy niepewnych danych doświadczalnych. Postępy Fizyki, vol. 61, no. 5, 2010, pp. 178-192. [14] UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) Report 2006. Vol. II, Annex E. Sources-to-effect assessment for radon in homes and workplaces; 2006. [15] Kendall GM, Smith TJ. Doses to organs and tissues from radon and its decay products. J Radiol Prot 22:389-406; 2002.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

61

Radon (Rn,  łac.  radon)  – pierwiastek chemiczny z grupy gazów szlachet‐ nych w układzie okresowym.  Został  odkryty  w  1900  roku  przez  Friedricha  Dorna.  Początkowo  był  nazywany  "emanacją"  (symbol  Em),  proponowano  dla  niego  także  nazwę  "niton"  (Nt).  Niektóre  jego izotopy nosiły własne nazwy, pochodzące od pierwiastków z których powstały, jak  222 Rn – "radon", 220Rn – "toron" (symbol Tn) lub 219Rn – "aktynon" (An). Dopiero po roku  1923 przyjęto jako obowiązującą nazwę najtrwalszego izotopu.  WŁAŚCIWOŚCI FIZYCZNE Radon jest bezbarwnym, bezwonnym radioaktywnym gazem szlachetnym. Występuje naturalnie, jako produkt rozpadu radu, który z kolei powstaje z obecnego w przyrodzie w sporych ilościach uranu. Jego najstabilniejszy izotop, 222Rn, ma okres połowicznego rozpadu 3,8 dnia i jest stosowany w radioterapii. Gęstość radonu wynosi 9,73 kg/m3 – jest on 8 razy cięższy niż średnia gęstość gazów atmosferycznych. W tem‐ peraturze pokojowej jest bezbarwny, ale schłodzony do punktu zamarzania (−71 °C), nabiera barwy żółtej, a po‐ niżej  −180  °C  staje  się  pomarańczowo‐czerwony.  Emituje  również  intensywną  poświatę,  będącą  efektem  jego  radioaktywności.    PROMIENIOTWÓRCZOŚĆ Radon w czasie rozpadu emituje promieniowanie alfa (oraz w mniejszym stopniu  beta) o małej przenikliwości, ale o dużej zdolności jonizującej (wysoka energia, duża masa cząstki). 222Rn jest izo‐ topem naturalnym, pochodzącym bezpośrednio z rozpadu  226Ra (o okresie połowicznego zaniku 1600 lat). Ten  ostatni  z  kolei  jest  długożyciowym  produktem  przemian  radioaktywnych  zachodzących  w  naturalnym  szeregu  promieniotwórczym, którego pierwszym członem jest naturalny izotop uranu:  238U. Zawartość uranu w skorupie  ziemskiej  wynosi  średnio  2ppm  (0,0002%),  więc  stosunkowo  dużo.  Dlatego  też  zawartość  Rn‐222  w  powietrzu  atmosferycznym  w  warstwie  przypowierzchniowej  jest  znacząca.  Średnie  stężenie  222Rn  w  powietrzu  w  Polsce  wynosi ok. 10 Bq/m³. Radon stanowi 40–50% dawki promieniowania, jaką otrzymuje mieszkaniec Polski od źró‐ deł  naturalnych.  Radon  może  stanowić  zagrożenie  dla  zdrowia  człowieka,  bowiem  gromadzi  się  w  budynkach  mieszkalnych, zwłaszcza w piwnicach, przedostając się tam z gleby w wyniku różnicy ciśnień (efekt kominowy).  Dotyczy  to  zwłaszcza  podłoża  granitowego,  zawierającego  większe  ilości  uranu  w  swoim  składzie  niż  np.  skały  osadowe. Aktualnie w Polsce obowiązuje limit stężenia radonu w nowych budynkach mieszkalnych wynoszący  200 Bq/m3[2]. Szkodliwość radonu jest wynikiem stosunkowo szybkiego jego rozpadu, prowadzącego do powsta‐ nia  kilku  krótkożyciowych  pochodnych,  również  radioaktywnych,  emitujących  promieniowania  alfa.  Ich  zatrzy‐ manie w płucach będzie powodować uszkodzenia radiacyjne, prowadzące do rozwoju choroby nowotworowej.  RADON A ZDROWIE Radon jest pierwiastkiem stosowanym w medycynie – naturalnie występujące wody radonowe stosuje się do kąpieli w rehabilitacji chorób narządów ruchu, zarówno tych pourazowych jak i reumatycznych. Kąpiele radonowe stosowane są też dla leczenia cukrzycy, chorób stawów, chorób tarczycy oraz schorzeń ginekologicznych i andrologicznych[3]. Przedawkowanie radonu lub stała praca przy kopalinach, gdzie są silne emanacje radonu wpływa niekorzystnie na zdrowie. Szkodliwe efekty działania radonu polegają na uszkadzaniu struktury chemicznej kwasu DNA przez wysokoenergetyczne, krótkotrwałe produkty rozpadu radonu 222 Rn, co może powodować chorobę popromienną. WŁAŚCIWOŚCI CHEMICZNE Właściwości radonu są stosunkowo słabo znane, ze względu na jego wysoką radioaktywność. Radon należy do grupy gazów szlachetnych, które z definicji powinny być chemicznie obojętne. Mimo to znanych jest kilka jego związków na różnych stopniach utlenienia. Są to m.in. fluorki RnF2, RnF4, RnF6 oraz chlorek RnCl4. Ze względu na nietrwałość samego radonu nie mają one żadnych zastosowań.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


62

Promieniowanie jonizujące

„POWIEW FUKUSHIMY” NAD POLSKĄ    Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK  Centralne Laboratorium Ochrony Radiologicznej, Warszawa 

AWARIA ELEKTROWNI W FUKUSHIMIE W piątek 11 marca 2011 r. na wschód od japońskiej wyspy Honsiu doszło do potężnego trzęsienia ziemi o sile 9 stopni w skali Richtera. Epicentrum trzęsienia znajdowało się w odległości ok. 130 km od wyspy, a jego rezultatem było powstanie olbrzymiej fali tsunami o wysokości przekraczającej miejscami 10 metrów. Na skutek trzęsienia, a później niszczycielskiego działania fali tsunami, doszło do awarii w japońskiej elektrowni Fukushima I (Fukushima Dai-ichi), wyposażonej w 6 bloków z reaktorami BWR (Boiling Water Reactor). Awaria była jedną z największych w historii światowej energetyki jądrowej (Fot. 1). Jej wielkość oceniono na 7. stopień (w siedmiostopniowej skali INES – International Nuclear and Radiological Event Scale), a więc podobnie jak awarię w Czarnobylu w kwietniu 1986 r.

Fot. 1. Uszkodzone bloki reaktora w Fukushimie po trzęsieniu ziemi i tsunami   (źródło: –Fukushima:  “Höhere Strahlenwerte in Europa”‐ BZ‐ news aus Berlin 14.04.2011) 

MONITOROWANIE PROMIENIOTWÓRCZYCH SKAŻEŃ POWIETRZA W wyniku awarii do atmosfery została uwolniona duża ilość izotopów radioaktywnych. Ciągłe monitorowanie skażeń promieniotwórczych na świecie nadzorowane jest przez międzynarodowy system wczesnego wykrywania skażeń promieniotwórczych działający w oparciu o Traktat o Całkowitym Zakazie Prób Jądrowych (CTBT – Comprehensive Nuclear Test Ban Treaty). W Polsce ciągłym monitorowaniem

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

63

skażeń promieniotwórczych powietrza zajmuje się Centralne Laboratorium Ochrony Radiologicznej w Warszawie wykorzystujące system wysokoczułych stacji wczesnego wykrywania skażeń promieniotwórczych – stacje ASS-500. Nad naszym krajem około 23 marca 2011 (12 dni po awarii) zarejestrowano pierwsze warstwy mas powietrza znad elektrowni Fukushima, zawierające niewielkie ilości radionuklidów pochodzenia sztucznego: cezu 137Cs, cezu 134Cs oraz jodu 131I. Zarejestrowano także śladowe ilości innych izotopów. Ze względu na bardzo dużą odległość uszkodzonej elektrowni od granic naszego kraju, radionuklidy znajdujące się w warstwach powietrza przemieszczających się nad naszym krajem, uległy znacznemu "rozcieńczeniu". Dodatkowo skażone masy powietrza nie dotarły nad Polskę najkrótszą drogą lecz poprzez Stany Zjednoczone i Kanadę, a więc dookoła świata (sposób przemieszczania się radioaktywnej chmury w oparciu o pomiary 133Xe obrazuje Rys. 1). Na podstawie danych zamieszczonych przez Wydział Badań Atmosfery i Klimatu Norweskiego Instytutu Badań Powietrza (NILU – Department of Atmospheric and Climate Research, The Norwegian Institute for Air Research) można stwierdzić, że poziom skażenia promieniotwórczego powietrza znad Fukushimy w północnej części Europy był około 100 razy niższy niż w Ameryce Północnej. Widać to wyraźnie na poniższej mapce (Rys. 1 – dane dla 133Xe z dn. 5 kwietnia 2011 roku).

Rys. 1. Poziom wielkości skażenia promieniotwórczego powietrza z nad Fukushimy w dniu  5 kwietnia 2011 roku w skali globalnej. (źródło: h p://transport.nilu.no.NILU‐ATMOS).

Maksymalne wartości skażeń promieniotwórczych w Polsce zarejestrowano po ok. tygodniu od pojawienia się pierwszych oznak „japońskich skażeń” nad naszym krajem. W piątek 01 kwietnia 2011 nad Polską nastąpił przełom. Od tego dnia w aerozolach w powietrzu zaczęto rejestrować coraz niższe stężenia izotopów promieniotwórczych pochodzenia sztucznego. Maksymalne stężenia radionuklidów, jakie zostały zarejestrowane w powietrzu atmosferycznym nad naszym krajem nie przekroczyły pojedynczych milibekereli na metr sześcienny (mBq/m3) dla jodu 131I oraz kilkuset mikrobekereli na metr sześcienny (μBq/m3) w przypadku obydwu cezów. Były to ilości, które w żaden sposób nie mogły zagrozić zdrowiu mieszkańców ani środowisku naturalnemu naszego kraju. Dla porównania, trzeba przypomnieć, że w czasie przemieszczania się nad terytorium naszego kraju chmury radioaktywnej po awarii elektrowni jądrowej w Czarnobylu, rejestrowane były stężenia jodu 131I

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


64

Promieniowanie jonizujące

dochodzące do 200 Bq/m3 (bekereli na metr sześcienny – czerwona linia przerywana na rysunku 2), a więc setki tysięcy razy wyższe niż maksymalne stężenia tego izotopu zarejestrowane w powietrzu atmosferycznym nad Polską po awarii w Fukushimie. Wyniki pomiarów jodu 131I, które zostały przeprowadzone przez międzynarodowe stacje wczesnego wykrywania skażeń promieniotwórczych (Rys. 2), obrazują skale wielkości problemu w różnych częściach świata.

Rys. 2. Wyniki pomiarów jodu  131I   zarejestrowane przez wybrane międzynarodowe stacje wczesnego wykrywania skażeń  promieniotwórczych (źródło: h p://www.bfs.de). 

SYSTEM STACJI ASS-500 W POLSCE. Wszystkie wyniki, które są przytoczone w artykule pochodzą z systemu wysokoczułych stacji wczesnego wykrywania skażeń promieniotwórczych Prezesa PAA. Monitoring powietrza polega na ciągłym zbieraniu aerozoli z powietrza przez stacje ASS-500, (patent, produkcja stacji oraz nadzór nad działaniem sieci Centralne Laboratorium Ochrony Radiologicznej – Fot. 2). System ten jako jedyny zarejestrował przemieszczające się nad naszym krajem skażenia (ze względu na ich bardzo niskie stężenia). Stacji podstawowych wczesnego wykrywania skażeń (ASS-500) jest w Polsce 12 i są one zlokalizowane w: Warszawie (Centralne Laboratorium Ochrony Radiologicznej), Białymstoku (Uniwersytet Medyczny), Gdyni (Oddział Morski Instytutu Meteorologii i Gospodarki Wodnej), Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

65

Katowicach

(Główny Instytut Górnictwa), Krakowie (Instytut Fizyki Jądrowej), Lublinie (Uniwersytet Marii Curie-Skłodowskiej), Łodzi (Politechnika Łódzka), Sanoku (Stacja Sanitarno-Epidemiologiczna), Szczecinie (Zachodniopomorski Uniwersytet Technologiczny), Toruniu (Uniwersytet Mikołaja Kopernika), Wrocławiu (Politechnika Wrocławska), Zielonej Górze (Uniwersytet Zielonogórski).

Na mapie (Rys. 3) przedstawione jest rozmieszczenie stacji ASS-500 na terenie naszego kraju. Pokrywają one równomiernie obszar Polski.

Fot. 2. Widok stacji ASS‐500  

Nominalny przepływ powietrza przez filtry stacji wynosi 500 m3/h. W sytuacji normalnej, filtry zmieniane są w stacjach raz w tygodniu (poniedziałki ok. południa). Przy przemieszczaniu się nad Polską mas powietrza znad Fukushimy, częstość wymiany filtrów zwiększono nawet do trzech razy w tygodniu. Każdy filtr po wyjęciu ze stacji był mierzony dwukrotnie. Pierwszy pomiar następował bezpośrednio po wyjęciu filtru – jego czas był zazwyczaj krótki, w związku z czym wyniki z tego pomiaru nie zawsze można było traktować jako miarodajne. Pomiar miał na celu zaobserwowanie ogólnej tendencji dotyczącej skażeń po- Rys. 3. Rozmieszczenie stacji ASS‐500 w Polsce.  wietrza nad Polską. Po upływie 2-4 dni wykonywany był drugi, całodobowy pomiar filtru. Ten kilkudniowy odstęp czasowy powodował rozpad krótkożyciowych izotopów naturalnych obecnych w powietrzu, przez co drugi pomiar był dużo bardziej dokładny od tego pierwszego, zwykle pobieżnego pomiaru. Pomiary prowadzone były przy użyciu wysokorozdzielczej spektrometrii promieniowania gamma wykorzystującej detektory półprzewodnikowe HPGe. Kilka ośrodków w kraju (tj. w Szczecinie, Toruniu i Zielonej Górze), nie posiada niestety takiej wysokoczułej aparatury spektrometrycznej wobec czego filtry z tych stacji mierzone były sukcesywnie (w miarę posiadanych mocy pomiarowych) w Centralnym Laboratorium Ochrony Radiologicznej w Warszawie. Filtry w tych stacjach wymieniane były jeden raz w tygodniu.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Promieniowanie jonizujące

66

WYNIKI POMIARÓW W pomiarach aerozoli powietrza na filtrach zarejestrowano obecność trzech izotopów pochodzenia sztucznego, tj. jod 131I (okres połowicznego zaniku wynosi 8 dni) i dwa izotopy cezu 134Cs (okres połowicznego zaniku - 2,06 lat) i 137Cs (okres połowicznego zaniku - 30 lat). W ilościach śladowych zarejestrowano także obecność innych izotopów.

JOD

I

131

Zakres zmian stężeń promieniotwórczych radionuklidu sztucznego jodu 131I w czasie przechodzenia nad Polską warstw powietrza znad Japonii zebranych z czterech stacji ASS-500 (Sanok, Wrocław, Łódź i Warszawa) w okresie 21.03.2011 – 30.05.2011 przedstawiono na Rys. 4. Jod 131I rejestrowany był nad terytorium naszego kraju od 25 marca do 26 kwietnia 2011. Największe jego stężenie promieniotwórcze osiągnęło poziom 5400 μBq/m3 (czyli 5,4 mBq/ m3) i zostało zarejestrowane 30 marca w Łodzi. W innych lokalizacjach stężenia promieniotwórcze radionuklidu sztucznego jodu 131I były niższe. I tak, w Sanoku maksymalne stężenie zarejestrowano wynosiło 2355μBq/m3, we Wrocławiu – 1703 μBq/m3, w Warszawie – 3173 μBq/m3.

Rys. 4. Stężenia promieniotwórcze radionuklidu sztucznego 131I w powietrzu w czterech wybranych lokalizacjach 

CEZ

137

CS

Przebieg zmian stężenia promieniotwórczego radionuklidu sztucznego cezu 137Cs podczas przemieszczania się nad terytorium Polski mas powietrza znad Japonii tj. w okresie od 21 marca do 30 maja, dla czterech wybranych stacji ASS-500 zlokalizowanych w Sanoku, Warszawie, Łodzi i we Wrocławiu, przedstawiono na rysunku 5. Podwyższone zawartości izotopu cezu 137Cs w powietrzu atmosferycznym, odpowiednio w Sanoku, Warszawie, Wrocławiu i Łodzi zarejestrowano w dniach 25 marca – 26 kwietnia 2011. Największe wartości dla tych czterech lokalizacji wynosiły: w Sanoku - 339 μBq/m3, w Warszawie - 217,8 μBq/m3, w Łodzi- 732 μBq/m3, we Wrocławiu - 281μBq/m3. Zostały one zarejestrowane w powietrzu w dniach 30

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

67

marca - 1 kwietnia. W drugiej połowie maja stężenia tego radionuklidu w powietrzu zmalały do poziomu stężeń rejestrowanych przed awarią w elektrowni jądrowej Fukushima.

Rys. 5. Stężenia promieniotwórcze  radionuklidu pochodzenia sztucznego 137Cs w powietrzu, pomiary wykonane  w  czterech wybranych lokalizacjach  

CEZ

134

CS

Zakres zmian stężenia promieniotwórczego izotopu cezu 134Cs zarejestrowanego w okresie od 25 marca do 16 maja przedstawia rysunek 6. Podobnie jak izotop jodu 131I, tak i izotop cezu 134Cs przed awarią w Fukushimie nie występowały w naszym środowisku (a dokładniej jod 131I, jako izotop używany powszechnie w medycynie, występował sporadycznie w minimalnych stężeniach). W wyniku awarii maksymalne stężenia promieniotwórcze cezu 134 Cs w powietrzu atmosferycznym nad naszym krajem zarejestrowano na poziomie 619 μBq/m3 (stacja ASS-500 w Łodzi). W innych lokalizacjach stacji ASS-500 maksymalne stężenia promieniotwórcze tego radionuklidu wynosiły: w Sanoku 172,3 μBq/m3, w Warszawie 277,4 μBq/m3, we Wrocławiu 210,9 μBq/ m3. Maksymalne wartości zostały zarejestrowane w dniach 30 marca - 1 kwietnia. Cez 134Cs rejestrowany był w okresie od 25 marca do 26 kwietnia 2011. Od połowy maja stężenia cezu 134Cs w powietrzu nad Polską zmalały do wartości poniżej poziomu mierzalności stosowanej metody badawczej.

Rys. 6.  Stężenia promienio‐ twórcze  radionuklidu sztuczne‐ go cezu 134Cs w powietrzu,  pomiary wykonane  w czterech  wybranych lokalizacjach  

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Promieniowanie jonizujące

68 POSUMOWANIE

Awaria elektrowni jądrowej w Fukushimie, oceniona w międzynarodowej skali INES na siódmy (najwyższy) stopień awarii, dla mieszkańców Polski nie miała negatywnego wpływu zarówno na zdrowie ludzi jak również na biosferę Polski. Dawki otrzymane od izotopów, które zostały zarejestrowane w aerozolach powietrza nad Polską w czasie przechodzenia radioaktywnej chmury znad Japonii były bardzo niskie. Przyczyną tak niskich stężeń izotopów promieniotwórczych nad Polską (pomimo skali awarii) była przede wszystkim odległość uszkodzonej elektrowni od granic naszego kraju (w linii prostej, to ponad 8500 km) oraz czas przebywania chmury promieniotwórczej znad Japonii nad terytorium Polski (niewiele ponad miesiąc). Maksymalne stężenie promieniotwórcze radionuklidu sztucznego 131I w powietrzu nad Polską wynosiło 5,4 mBq/ m3 co stanowi ok. 0,0001 stężenia tego samego izotopu w czasie przechodzenia nad naszym krajem chmury radioaktywnej po awarii w Czarnobylu (kwiecień 1986 r.).

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

69


70

Promieniowanie jonizujące

KULTURA OCHRONY RADIOLOGICZNEJ*)1    Natalia Golnik 

Ochrona radiologiczna towarzyszy technologii nuklearnej od samego początku jej istnienia, czyli od pierwszych, militarnych zastosowań. W tamtym okresie zadaniami ochrony radiologicznej było ograniczenie narażenia personelu pracującego z promieniowaniem przed znanymi już zagrożeniami. Niestety w ówczesnych warunkach „zimnej wojny” zalecenia ochrony radiologicznej były czasami traktowane „ulgowo” lub nawet ignorowane dla osiągnięcia założonych celów. Ludności cywilnej zamieszkującej w pobliżu ośrodków wojskowych, nie informowano o możliwych zagrożeniach, lub ich braku, ze względu na ścisłe utajnienie informacji wojskowych obowiązujące w tych czasach. Nie należy więc się dziwić, że technologia nuklearna w społecznym odbiorze jest kojarzona z czasami tajemnicy państwowej, ukrytych celów i nierzetelnej informacji. Obecnie w większości krajów informacje na temat ochrony radiologicznej są powszechnie dostępne a wypowiedzi ekspertów nie są cenzurowane, nastąpił także duży rozwój wiedzy dotyczącej skutków promieniowania i metod pomiarów. Mimo to eksperci ochrony radiologicznej powszechnie spotykają się z barierą braku społecznego zaufania a wiedza społeczeństw na temat skutków narażenia na promieniowanie jest powszechnie określana jako „katastrofalnie niska”. W odpowiedzi na taką sytuację, Międzynarodowe Stowarzyszenie Ochrony Radiologicznej (International Radiation Protection Associacion, IRPA) wystąpiło z inicjatywą określenia i rozpowszechnienia pojęcia kultury ochrony radiologicznej. Szczegółowe informacje na temat projektu można znaleźć na stronie www.irpa.net . Inicjatywa została zgłoszona przez Francuskie Stowarzyszenie Ochrony Radiologicznej na 12 kongresie IRPA i entuzjastycznie przyjęta przez delegatów, skutkiem czego Zarząd IRPA postanowił poprzeć tą inicjatywę. Następnie swoje zainteresowanie i wsparcie wyraziła Światowa Organizacja Zdrowia (WHO) oraz szereg zawodowych i naukowych stowarzyszeń, grupujących specjalistów ochrony radiologicznej i fizyków medycznych. Do chwili obecnej zorganizowano już kilka międzynarodowych spotkań poświęconych opracowaniu zasad kultury ochrony radiologicznej, których celem ma być nie tylko poprawa bezpieczeństwa radiologicznego, ale również, a może przede wszystkim poprawa poczucia bezpieczeństwa społeczeństw, poprzez zwiększenie świadomego zaangażowania na rzecz bezpiecznego korzystania z energii jądrowej. Zanim zaczniemy rozważania na temat kultury ochrony radiologicznej warto na chwilę zatrzymać się nad samym pojęciem kultury, definiowanej jako całokształt materialnego i duchowego dorobku ludzkości, a także ogół wartości, zasad i norm współżycia przyjętych przez różne społeczności i grupy ludzi. Kultura jest więc zespołem zjawisk, takich jak wiedza, wierzenia, sztuka, moralność oraz prawo i obyczaje, nabyte przez człowieka jako członka społeczeństwa. W odniesieniu do technologii nuklearnych, stosowanych w energetyce czy medycynie, określenie kultura jest stosowane nie tylko w znaczeniu opisowym, ale także normatywnym. W tym znaczeniu pojęcie kultury określa to, co jest oczekiwane i łączy się ze standardami moralnymi i etycznymi. Wychodząc z takiego pojmowania kultury sformułowano pierwszą, roboczą definicję kultury ochrony radiologicznej: Kultura ochrony radiologicznej to sposób, w jaki ochrona radiologiczna jest regulowana,

1

Artykuł jest autorskim przekładem i skrótem artykułu N. Golnik, P. Tulik „IRPA initiative on radiation protection culture” Pol.J.Med.Phys.Eng 2011;17(1);1-12.

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

71

zarządzana, wykonywana, kultywowana i postrzegana w miejscach pracy, medycynie i życiu codziennym i odzwierciedla nastawienie, wierzenia, zrozumienie, cele i wartości wspólne, uznawane przez pracowników, lekarzy, inspektorów i ogół społeczeństwa, w odniesieniu do ochrony radiologicznej. Taka definicja kultury ochrony radiologicznej znacząco wykracza poza ogólne zasady bezpieczeństwa przyjęte w przemyśle, ponieważ musi zawierać zwarty system zasad dla wszystkich zastosowań promieniowania, w tym medycynę, badania naukowe i życie codzienne. Do kultury ochrony radiologicznej odnoszą się także ogólne zasady kultury bezpieczeństwa, czyli zasady, według których ludzie wykonują „właściwe rzeczy we właściwym czasie i z właściwym nastawieniem”. Bardzo obrazową definicją kultury bezpieczeństwa jest więc stwierdzenie: „Sposób, w jaki postępujemy, kiedy nikt nie patrzy”. W ramach dotychczasowych prac IRPA sformułowano pierwsze zadania, które wpłyną na rozwój kultury ochrony radiologicznej: nadać przejrzystość najważniejszym zasadom ochrony radiologicznej (naukowym i moralnym) rozpowszechniać wiedzę na temat ryzyka związanego z ochrona radiologiczną rozbudzać poczucie odpowiedzialności wśród lekarzy, pracowników technicznych, kadry zarządzającej i władz zachować dziedzictwo ochrony radiologicznej i zapewnić jego przekazanie następnym pokoleniom specjalistów zapewnić jakość i skuteczność ochrony radiologicznej działać na rzecz zwiększenia bezpieczeństwa ludności Podstawą ochrony radiologicznej jest postępowanie zgodne z wiedzą naukową i budowa systemu bezpieczeństwa wokół trzech prostych zasad – uzasadnienia narażenia (każde nawet małe narażenie wymaga uzasadnienia), optymalizacji (zawsze dążymy do dawek tak niskich jak to jest rozsądnie osiągalne, nawet jeśli narażenie jest poniżej limitów określonych w przepisach) i limitowania dawek indywidualnych, określanych na poziomie zapewniającym ryzyko zawodowe na takim samym poziomie jak w zawodach powszechnie uznawanych za bezpieczne, a w przypadku populacji (osób nie pracujących zawodowo z promieniowaniem) na poziomach niższych od tła naturalnego. Należy podkreślić, że obecnie ochrona radiologiczna ma możliwość zapewnienia bezpieczeństwa ludziom we wszystkich możliwych planowanych sytuacjach narażenia na promieniowanie jonizujące oraz w zdecydowanej większości sytuacji kryzysowych co pozwolą na wykorzystanie promieniowania z pożytkiem dla człowieka i środowiska naturalnego. Istnieje oczywiście ryzyko użycia energii jądrowej lub źródeł promieniowania promieniotwórczości w celach militarnych lub z zamiarem popełnienia przestępstwa, jednak nawet dla takich sytuacji istnieją scenariusze awaryjne silnie ograniczające konsekwencje. Wróćmy teraz do rozważań na temat kultury ochrony radiologicznej i jej społecznej roli. Przyjmuje się, że wiedza na temat ochrony radiologicznej świadomość społeczna, ewoluuje w czasie, podobnie jak inne zjawiska kulturowe. Początkowo opiera się na instynkcie samozachowawczym i podstawowych zasadach sprowadzających się głównie do unikania poważnych zagrożeń. Następnym etapem jest wprowadzenie systemu nadzoru i kontroli, wykonywanej z zewnątrz. Jest to klasyczna ochrona przed promieniowania skodyfikowana w postaci praw i przepisów. Kolejnym etapem jest świadoma samokontrola i optymalizacja własnego postępowania w warunkach narażenia na promieniowania. Ostatnim, najbardziej zaawansowanym etapem jest system zapewnienia bezpieczeństwa, obejmujący świadome działanie nie tylko na rzecz własnego bezpieczeństwa, ale również współpracowników, pacjentów i populacji. Ten etap obejmuje również właściwe zarządzanie bezpieczeństwem i współpracę między zespołową, a obydwa ostatnie etapy są powiązane z niezależnym postępowaniem człowieka, gdy ludzie dbają o innych, pomagają innym i stają się częścią współpracującego zespołu. Taki stopień zaawansowania zapewnia wysoki poziom bezpieczeństwa i poczucie dumy zawodowej czy też przekonania o odpowiedzialnym pełnieniu roli społecznej.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


72

Promieniowanie jonizujące

Rys.1 Ewolucja ochrony przed promieniowaniem 

Kultura ochrony radiologicznej dotyczy dwóch grup ludzi, pracowników wykorzystujących promieniowanie oraz społeczeństwa, czyli osób, które nie mają zawodowego kontaktu z technologią nuklearną. Główna zasada ochrony radiologicznej określana jako ALARA (As Low As Reasonably Achievable), tak niskie jak racjonalnie osiągalne) dotyczy obu tych grup lecz w obu przypadkach może pociągać za sobą inne konsekwencje. Zasada ALARA zakłada, że narażenie na promieniowanie będzie minimalizowane do racjonalnego poziomu (zawsze dużo poniżej limitów dawek indywidualnych) i jest doskonałym narzędziem rozwoju osobistej kultury ochrony radiologicznej, gdyż stymuluje odpowiednie planowanie, organizację i wykonywanie pracy. Niestety nawet w dobrze zorganizowanym i nadzorowanym środowisku elektrowni jądrowych konieczna jest ciągła troska o zachowanie odpowiedniej kultury bezpieczeństwa. W innych miejscach pracy, takich jak szpitale czy uniwersytety, wyzwania mogą być jeszcze większe. Zaskakujące jest to, że zbyt silne rygory narzucone przez pracodawcę mogą być szkodliwe z punktu widzenia osobistego zaangażowania w przestrzeganie zasad ochrony przed promieniowaniem. Zbyt duże zaufanie do systemu organizacji, pomiarów i kontroli może skutkować uśpieniem uwagi i osobistej inicjatywy pracowników. Zasada ALARA jest wtedy zbyt często postrzegana jako martwy przepis będący problemem jedynie osób odpowiedzialnych za bezpieczeństwo, a nie jako kwestia osobistego zaangażowania i wykonywanej przed każdym rozpoczęciem pracy analizy narażenia. Pojawia się więc ryzyko stopniowego obni-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

73

żenia kultury ochrony radiologicznej wśród pracowników, mimo zachowania zgodności ze wszystkimi przepisami. W przypadku kontaktów z przedstawicielami społeczeństwa, zasada ALARA może prowadzić do innego typu nieporozumień. W tym wypadku znaczenie ma wyrażenie „racjonalnie osiągalny”. Nowoczesne społeczeństwo jest świadome swojego prawa do wpływania na wszystkie decyzje dotyczące jakości życia i jakiekolwiek próby narzucenia „racjonalnego” poziomu przez profesjonalistów czy polityków są postrzegane jako zawodowa arogancja. Ponadto jest bardzo trudno przedstawić łatwy w zrozumieniu i przekonujący dowód, że dany stopień ochrony jest bardziej racjonalny od nieznacznie większego lub mniejszego. Autorka tego artykułu jakiś czas temu zaproponowała aby w niektórych przypadkach, wymagających uzgodnień społecznych, zasadę ALARA rozumieć i prezentować raczej jako ALASA (As Low As Socially Acceptable - tak niskie jak społecznie akceptowalne). ALASA opiera się na takich samych ocenach kosztu i korzyści jak ALARA, jednak określenie poziomu „racjonalności” uwzględnia poziom akceptacji społecznej. Realnie rzecz biorąc zasada ALASA już funkcjonuje praktycznie, niemal we wszystkich przypadkach zastosowań promieniowania. Między innymi, właśnie ze względu na wyższy poziom akceptacji społecznej, w medycynie dopuszcza się znacznie większe narażenia niż w przypadku energetyki jądrowej. Takie podejście ułatwia też porównanie ze stopniami zabezpieczeń używanymi w innych dziedzinach przemysłu, gdzie wyższy stopień ryzyka jest społecznie akceptowalny. Łatwiej też wyjaśnić, że wysoki poziom ochrony radiologicznej nie wynika z zagadkowego, odrobinę mistycznego charakteru zagrożeń powodowanych przez promieniowanie jonizujące, lecz z ekstremalnych wymogów stawianych przez ludzi zabezpieczeniom akurat przed tym rodzajem. Podsumowując, kultura ochrony radiologicznej to ogół wiedzy (naukowej, technicznej, etycznej, historycznej, praktycznej) i zachowań, takich jak otwartość, przejrzystość, osobista odpowiedzialność, uczciwość, zaangażowanie zainteresowanych stron, podejście zgodne z regułami ograniczonego zaufania, dotyczących ochrony radiologicznej. Jak wiadomo ludzie na zmiany i ryzyko często reagują irracjonalnie, a pojęcia związane z atomistyką nie są łatwe dla osób nie mających odpowiedniego przygotowania zawodowego. Dlatego możemy spodziewać się, że włączenie kultury ochrony radiologicznej do kultury społeczeństwa będzie długotrwałym procesem, wymagającym pokonania wielu lęków i uprzedzeń, oraz umiejętnego przeciwstawienia się świadomym fałszerstwom i manipulacjom. To zadanie będzie musiało wziąć na swoje barki młode pokolenie specjalistów ochrony radiologicznej, które w najbliższych latach zastąpi odchodzące na emeryturę pokolenie twórców nowoczesnego systemu ochrony przed promieniowaniem.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


74

Promieniowanie jonizujące

TECHNOLOGIE WSPOMAGAJĄCE ROZWÓJ  BEZPIECZEŃSTWA ENERGETYKI JĄDROWEJ  Sylwester Sommer  Centrum Radiobiologii i Dozymetrii Biologicznej, Instytut Chemii i Techniki Jądrowej w Warszawie     Na końcową formę artykułu duży wpływ miały poprawki zaproponowane przez: Macieja Budzanowskiego (IFJ), Krzysztofa  Ciupka (CLOR), Krzysztofa A. Isajenko (CLOR), Anny Lankoff (ICHTJ),   Ireny Szumiel (ICHTJ) i Ireneusza Śliwki (IFJ) 

Dziewiątego grudnia 2011 odbyło się w Krakowie, w siedzibie Instytutu Fizyki Jądrowej PAN im. Henryka Niewodniczańskiego Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”. Celem Seminarium była prezentacja 3-letniego projektu badawczego „Technologie wspomagające rozwój bezpieczeństwa energetyki jądrowej” finansowanego przez Narodowe Centrum Badań i Rozwoju. Projekt realizowany jest przez sieć naukową składającą się z 4 czołowych polskich instytutów, specjalizujących się w technologiach jądrowych: Centralne Laboratorium Ochrony Radiologicznej (CLOR) z Warszawy, Instytut Chemii i Techniki Jądrowej (ICHTJ) z Warszawy, Instytutu Fizyki Jądrowej PAN (IFJ) z Krakowa i Narodowe Centrum Badań Jądrowych (NCBJ) ze Świerku. Projekt wpisuje się w plan wdrożenia energetyki jądrowej w Polsce i ma na celu zapewnienie najwyższych standardów i najlepszych metod pomiarowych monitorujących wpływ elektrowni jądrowej na stan środowiska naturalnego i zdrowie ludności. Mamy nadzieję, że oprócz osiągnięcia celów naukowych, badania prowadzone w: CLOR, ICHTJ, IFJ i NCBJ przyczynią się do rozwoju kadr w zakresie bezpieczeństwa jądrowego, wpłyną pozytywnie na postrzeganie programu nuklearnego przez społeczeństwo i będą wykorzystane do propagowania rozwoju bezpiecznej energetyki jądrowej w Polsce, szczególnie gdy kwestionowana jest ona przez sąsiadujące państwa. Na rys. 1 pokazano, w jaki sposób stan szeroko rozumianej ochrony radiologicznej może wpływać na odbiór społeczny energetyki jądrowej [1]. Im lepszy jest stan ochrony radiologicznej, a społeczeństwo lepiej i rzetelniej poinformowane, tym wyższe poziomy promieniowania są uznawane za bezpieczne. Nie sposób w krótkim artykule omówić wszystkich tematów i zagadnień zawartych w projekcie. Dokonano więc subiektywnego wyboru najciekawszych tematów. Jak wskazuje doświadczenie płynące z dotychczasowych awarii jądrowych, zawsze wiążą się one z uwalnianiem dużych ilości promieniotwórczych izotopów jodu i cezu do atmosfery. W Zakładzie Dozymetrii CLOR opracowana będzie prototypowa przenośna stacja do poboru aerozoli atmosferycznych i gazowej postaci jodu. Zostanie ona wyposażona w urządzenie GPS pozwalające przyporządkowywać („mapować”) wyniki pomiarów położeniu na mapie. Stacja ta będzie wykorzystywana też do kontroli promieniotwórczych zanieczyszczeń powietrza wokół obiektów jądrowych zarówno w sytuacji ich normalnej pracy (kontrola dopuszczalnych uwolnień), jak i w przypadku Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

75

awarii takiego obiektu. Ponadto przewiduje się, że opracowane nowe urządzenie po niewielkich modyfikacjach obudowy (ochrona przed różnymi warunkami meteorologicznymi, takimi jak deszcz, śnieg, mróz) pozwoli na rozszerzenie istniejącej sieci wczesnego ostrzegania o skażeniach.

Rys.1. Wpływ stanu ochrony radiologicznej na postrzeganie energetyki jądrowej [1] 

Sieć wczesnego ostrzegania o skażeniach radiologicznych w Polsce opiera się na odczytach on-line pomiarów mocy dawki i rejestracji oraz analizie widma promieniowania gamma w 35 stacjach terenowych (należących do CLOR, MON i IMGW). W większości są to wysokoczułe stacje ASS-500 opracowane i wytwarzane w CLOR (rys. 2). Według dyrektora CLOR, dr Pawła Krajewskiego, o ile taka sieć była wystarczająca, kiedy elektrownie atomowe były daleko od naszych granic, to - gdy już zbudujemy elektrownię atomową w Polsce - sieć trzeba będzie rozbudować. Dla przykładu, w krajach mających energetykę jądrową jest znacznie więcej stacji Rys. 2. Stacja pomiaru skażeń radiologicznych ASS‐500  monitoringu, m.in. Niemcy – 2000 stacji rozmieszopracowana i wytwarzana w CLOR (zdjęcie reprodukowane  dzięki uprzejmości Krzysztofa A. Isajenko, zastępcy dyrektora  czonych w rastrze 15x15 km, Szwajcaria - 120 stacji, Finlandia - 254 stacje tego typu. CLOR)  W ramach omawianego projektu opracowane zostaną w CLOR kompleksowe procedury dotyczące:  pomiaru chwilowego mocy dawki przy pomocy przenośnych mierników promieniowania;  pomiaru ciągłego mocy dawki przy pomocy całkujących detektorów TLD (termoluminescencyjnych);  spektrometrii promieniowania tła (pomiary „in situ”) oraz określenia udziałów składowych naturalnych i antropogenicznych dawki.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


76

Promieniowanie jonizujące

Pozwoli to oceniać dawki ekspozycji zewnętrznej w środowisku na obszarze przewidywanej lokalizacji elektrowni jądrowej (na poziomie promieniowania tła). Uzyskane dane będą opracowywane i prezentowane przy pomocy technologii GIS (Geographic Information Systems). GIS pozwala między innymi na tworzenie efektownych i przede wszystkim czytelnych map rozkładu chwilowego czy ciągłego mocy dawki w terenie (rys. 3).

Rys. 3. Przykładowa mapa rozkładu mocy dawki wykonana przy użyciu oprogramowania GIS w Centralnym Laboratorium  Ochrony Radiologicznej w Warszawie (P. Krajewski, dyrektor CLOR) 

Określony zostanie wyjściowy (zerowy) stan radiologiczny terenów przeznaczonych pod inwestycję i na terenach wokół planowanej elektrowni jądrowej (IFJ, Kraków). W ramach tego projektu zbadane zostaną poziomy izotopów naturalnych 40K, 238U, 226Ra, 232Th, poziom radonu 222Rn, trytu 3H, produkty aktywacji, produkty rozszczepienia i transuranowce w wodzie, powietrzu, osadach dennych, glebie, roślinności, żywności oraz zwierzętach wodnych i lądowych. Określone i monitorowane będą metodami chromatografii gazowej wartości stężeń antropogenicznych gazów śladowych (atmosferycznych znaczników niepromieniotwórczych), takich jak: 11F, 12F, SF6 oraz stężenia gazów szlachetnych Ar i Ne występujących w wodach podziemnych pierwszego poziomu, co pozwoli na ocenę wieku tych wód i tym samym na ocenę ich odporności na skażenia w sytuacji awarii radiologicznej [2]. Prowadzone będą prace nad rozwojem metod radiometrycznych dla potrzeb ochrony radiologicznej energetyki jądrowej. Laboratorium Dozymetrii Indywidualnej i Środowiskowej IFJ w Krakowie będzie udoskonalało termoluminescencyjne dawkomierze osobiste (rys. 4A). Każda z osób zawodowo pracujących z promieniowaniem nosi ze sobą dawkomierz osobisty, który pozwala odczytać wielkość ewentualnej dawki awaryjnej. Dawkomierz taki zawiera materiał termoluminescencyjny, który niejako „akumuluje” w sobie energie promieniowania i pod wpływem wysokiej temperatury uwalnia ją w postaci światła. Odczytując „poziom jasności” detektora można odtworzyć dawkę pochłoniętą przez dawkomierz (rys. 4B). Materiałami termoluminescencyjnymi są znane przez wszystkich: sól kuchenna i diamenty. Jednak w dawkomierzach osobistych najczęściej używane są związki: LiF:Mg, Ti; LiF: Mg, Cu, P; CaSO4:Dy i Al2O3:C.,

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

77

Rys. 4. Osobista dozymetria termoluminescencyjna [3]. Panel A: dawkomierze osobiste noszone przez osoby pracujące z pro‐ mieniowaniem. Panel B: Profesjonalny materiał termoluminescencyjny, jeżeli zostanie wcześniej napromieniony a potem  wygrzewany w temperaturze 360 0C, emituje światło, którego jasność jest proporcjonalna do dawki pochłoniętej. Panel C:  „Naturalne” materiały termoluminescencyjne to między innymi sól kuchenna i diamenty. 

W ramach projektu zespół Laboratorium Dozymetrii Indywidualnej i Środowiskowej IFJ w Krakowie planuje rozszerzyć zakres dawek odczytywanych przez dozymetry indywidualne z zakresu 0,1 – 1 Sv do 0,1 – 10 Sv. (W pewnych okolicznościach istnieje potrzeba używania dawkomierzy o takim zakresie pomiarowym np. w Czarnobylu ratownicy używali dawkomierzy mierzących dawkę bodajże tylko do 1 Gy co było niewystarczające ponieważ bo skala była za mała i tak naprawdę nie wiadomo było jakie kto dawki otrzymał). Możliwe jest również, co pokazują wyniki doświadczeń, przykrycie detektorów dozymetrycznych specjalnymi filtrami, które pozwolą odróżnić napromienienie statyczne od dynamicznego (rys. 5). Ma to duże praktyczne znaczenie, ponieważ zdarza się, że w polu promieniowania została zostawiona kurtka / fartuch z przyczepionym dawkomierzem i tylko dawkomierz został napromieniony, a nie osoba. W takim przypadku mamy do czynienia z napromienieniem statycznym. I wreszcie prowadzone są prace nad powtórnym odczytywaniem dawki z tego samego dawkomierza, czego do tej pory nie praktykowano. W pewnych okolicznościach możliwy jest powtórny odczyt dawki z tego samego detektora umożliwiający weryfikacje przypadków wątpliwych. W CLOR, IFJ i ICHTJ rozwijane będą techniki dozymetrii biologicznej. Dozymetria biologiczna daje rozstrzygającą odpowiedź, czy dana osoba została napromieniona czy nie, ponieważ stosowana metoda polega na szacowaniu zmian w DNA limfocytów ludzkich. Metody dozymetrii biologicznej są znane i z powodzeniem stosowane od wielu lat. Ich podstawą są doświadczenie wykonywane in vitro, w których określa się w jaki sposób zmiany w materiale genetycznym zależą od dawki promieniowania. Z funkcji określającej powyższą zależność (krzywej dawka – efekt) znając wielkość uszkodzenia DNA można odczytać dawkę promieniowania potrzebną do wywołania uszkodzenia. W CLOR wykonana zostanie krzywa dawka – efekt dla chromosomów dicentrycznych (klasyczna metoda estymacji uszkodzeń DNA) dla mieszanego promieniowania neutrony – promieniowanie gamma. Eksperymentalne napromienienie limfocytów odbędzie się w reaktorze Maria na terenie NCBJ w Świerku. W ICHTJ w Centrum Radiobiologii i Dozymetrii Biologicznej realizowane będą aż 3 projekty z zakresu biodozymetrii: 1.Akredytowana zostanie metoda dozymetrii przy pomocy chromosomów dicentrycznych. Będzie to drugie akredytowane laboratorium biodozymetryczne w Polsce, po CLOR. Te 2 warszawskie laboratoria (CLOR i ICHTJ) wraz z Zakładem Biologii Radiacyjnej i Środowiskowej IFJ PAN i Zakładem Radiobiologii i Immunologii IB Uniwersytetu Jana Kochanowskiego w Kielcach stworzą w niedługim czasie Sieć

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


78

Promieniowanie jonizujące

Biodozymetryczną, mogącą skutecznie reagować w przypadku masowego zdarzenia radiacyjnego w naszym kraju. Sieci takie funkcjonują w rozwiniętych państwach takich jak Niemcy, Francja, Kanada, Japonia. Ideą stojącą za rozwojem tego typu organizacji jest potrzeba zapewnienia biodozymetrii w przypadku masowego zdarzenia radiacyjnego. Klasyczne metody dozymetrii biologicznej są bardzo pracochłonne i nie dają możliwości szybkiej analizy wielu (setek) próbek jednocześnie. Kilka współpracujących ze sobą laboratoriów, pośród których mogą zostać rozesłane próbki do badania rozwiązuje problem „przepustowości”.

Rys. 5. Identyfikacja ekspozycji: statyczna – dynamiczna [3]. Panel A: Różne typy termoluminescencyjnych dawkomie‐ rzy indywidualnych. Widoczne 4 miejsca na detektory termoluminescencyjne. Panel B: Co najmniej jeden z detekto‐ rów może zostać przykryty metalową nakładką, która zakrywa większość jej powierzchni przed promieniowaniem.  Panel C: Jeżeli dozymetr leżał w polu promieniowania nie ruszany przez jakiś czas, to dzięki temu filtrowi tylko część  detektora zostanie napromieniona. Panel D: Natomiast, jeżeli dozymetr poruszał się w raz z osobą go noszącą, to cały  detektor zostanie napromieniony w miarę jednorodnie. 

2. Zbadana zostanie przydatność analizy ekspresji genów jako dozymetru biologicznego. Promieniowanie poprzez uszkadzanie makromolekuł (głównie DNA, ale również i białek) w komórkach modyfikuje aktywność komórkowych szlaków sygnalizacyjnych, co zmienia ekspresję genów w narażonych komórkach (niektóre białka są wytwarzane w większej liczbie kopi, a niektóre mogą przestać w ogóle być wytwarzane). Najpierw trzeba zidentyfikować białka, których ekspresja jest zmieniona. Robi się to za pomocą tzw. mikromacierzy DNA, metody która pokazuje wszystkie białka które ulegają ekspresji w danym typie komórek czy tkanek. Porównując mikromacierze z np. napromienionych i nienapromienionych limfocytów można zidentyfikować różnice w ekspresji białek między nimi. Jest to metoda jakościowa. Dane o różnicach w ekspresji białek pod wpływem promieniowania w różnych tkankach dostępne są również w literaturze. Do badania zmian ekspresji wybranych genów w limfocytach i surowicy krwi wykorzystana zostanie metoda RT-PCR (reakcja łańcuchowa polimerazy DNA z analizą ilości produktu w czasie rzeczywistym). Metoda ta pozwala uchwycić ilościowe różnice w ekspresji białek, które mogą być zależne od dawki promieniowania. 3. Zbadana zostanie przydatność metody przedwczesnej kondensacji chromosomów interfazowych połą-

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące

79

czonej z metodą hybrydyzacji in situ (The Rapid Interphase Chromosome Assay – RICA) do celów dozymetrii biologicznej. Metoda opisana przez Prasanna w 2000 roku [4] wygląda na prostą i efektywną, a nie została do tej pory zaadaptowana przez żadne europejskie laboratorium. Polega ona na badaniu w niestymulowanych do podziału limfocytach ludzkich liczby nadmiarowych terytoriów chromosomowych; liczba ta jest wprost proporcjonalna do dawki promieniowania (rys. 6). Częściową kondensację chromatyny, potrzebną do wymuszenia ruchu oddzielającego poszczególne terytoria chromosomowe od siebie wywołuje się sztucznie, dodając do hodowli komórek odpowiednich białek regulatorowych (cyklino- zależnej białkowej kinazy 1 (Cdc2) oraz kalikuliny A – inhibitora fosfataz białkowych). Terytorium chromosomowe maluje się sondami DNA, które hybrydyzują (łączą się) z materiałem wybranego chromosomu i są sprzężone z fluorochromem co umożliwia obserwacje sygnału przy pomocy mikroskopu fluorescencyjnego (ryc. 6).

Rys. 6. Metoda przedwczesnej kondensacji chromosomów interfazowych połączonej z metodą hybrydyzacji in situ  (The Rapid Interphase Chromosome Assay – RICA) (Panel B i C Prasanna 2000). Panel A: Terytoria chromosomowe w  interfazowym jądrze limfocytu malowane techniką m‐FISH. Widać, że terytoria poszczególnych chromosomów  (różnokolorowe powierzchnie) są wyodrębnione, ale poprzeplatane ze sobą. Panel B: Terytoria chromosomowe chro‐ mosomów nr 1. Po zastosowaniu odpowiedniej sztucznej kondensacji są wyraźnie wyodrębnione. Panel C: Trzy tery‐ toria chromosomowe chromosomu nr 1 w napromienionym limfocycie ludzkim. Ponieważ normalne komórki ludzkie  mają podwójny garnitur chromosomów, 3 terytoria są prawdopodobnie skutkiem napromienienia komórki 

W Zakładzie Biologii Radiacyjnej i Środowiskowej IFJ PAN zostaną opracowane szybkie testy oznaczania dawki pochłoniętej z uwzględnieniem indywidualnej podatności osób narażonych na promieniowanie jonizujące. Testem wyboru będzie analiza uszkodzeń DNA metodą kometową, ale również stosowane będą inne testy takie jak: analiza chromosomów dicentrycznych, analiza mikrojąder, analiza wymian chromatyd siostrzanych i analiza translokacji przy pomocy hybrydyzacji in situ [5]. Metoda kometowa, zwana inaczej elektroforezą pojedynczej komórki polega na migracji w polu elektrycznym uszkodzonego DNA. Komórki zatapia się żelu agarozowym na szkiełkach mikroskopowych, trawi białka, poddaje elektroforezie i barwi barwnikami fluorescencyjnymi. Uszkodzony DNA wędruje z jądra komórkowego tworząc strukturę podobną do komety i stąd nazwa testu (rys. 7). Miarą poziomu uszkodzeń DNA jest długość ogona i ilość zawartego w nim DNA. Do oceny długości ogona niezbędny jest komputerowy program do analizy obrazu. Test kometowy służy nie tylko do szacowania poziomu uszkodzeń DNA ale również do oceny kinetyki ich naprawy, co daje wskazówki na temat promieniowrażliwości danej osoby. Badanie kinetyki naprawy DNA prowadzi się po napromienieniu in vitro limfocytów tak zwaną dawką pobudzającą.

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


Promieniowanie jonizujące

80

Rys. 7. Test kometowy [6]. Uszkodzony DNA wędruje w polu  elektrycznym z jadra komórki, tworząc ogon komety. Miarą po‐ ziomu uszkodzeń DNA jest długość ogona i ilość zawartego w  nim DNA. Test kometowy służy do szacowania poziomu uszko‐ dzeń DNA i kinetyki ich naprawy. 

Przedstawione skrótowe sprawozdanie wymaga wielu wyjaśnień, które będą uzupełnione w dalszych publikacjach dotyczących realizacji projektu. Osoby zainteresowane tematami zawartymi w projekcie znajdą więcej informacji pod adresami: www.clor.waw.pl/projekty/ncbir/index.htm - oficjalna strona projektu badawczego „Technologie wspomagające rozwój bezpieczeństwa energetyki jądrowej” i www.ifj.edu.pl/ pro/09122011/prezentacje/seminarium_09122011.pdf?lang=pl – strona gdzie można znaleźć prezentacje pokazane na Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011. W artykule wykorzystałem materiały z prezentacji wygłoszonych na Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011.

PRZYPISY: 1, Krajewski P.: Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej, Seminarium „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011; 2, Zuber A., Ciężkowski W., Różański K. (red.), Metody znacznikowe w badaniach hydrogeologicznych – poradnik metodyczny. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2007; 3, Budzanowski M.: Nowe dawkomierze pasywne do pomiaru dawek indywidualnych i awaryjnych, Seminarium „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011; 4, Prasanna P.G.S., Eskalada N.D., Blakely W.F.: Induction of premature chromosome condensation by a phosphatase inhibitor and a protein kinase in unstimulated human peripheral blood lymphocytes: a simple and rapid technique to study chromosome aberrations using specific whole-chromosome DNA hybridization probes for biological dosimetry. Mutation Research 466: (2000) 131–141; 5, Cebulska-Wasilewska A.: Response to challenging dose of X-rays as a predictive assay for molecular epidemiology. Mutation Research 544: (2003) 289-97; 6, Cebulska-Wasilewska A.: Opracowanie szybkich testów dawki pochłoniętej z uwzględnieniem indywidualnej podatności osób narażonych na promieniowanie jonizujące, Seminarium „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011;

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Promieniowanie jonizujące  

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

81


82

Elektrownie Jądrowe

USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ  WYWOŁANEJ FALĄ TSUNAMI    Rzymkowski Krzysztof   Stowarzyszenie Ekologów Na Rzecz Energii Nuklearnej 

Zbliża się pierwsza rocznica potężnego trzęsienia ziemi (11 marca 2011) , które wywołało ogromną falę tsunami powodującą tragiczną w skutkach katastrofę. Fala tsunami o wysokości około 14 m (mniej więcej wysokości 5 piętrowej kamienicy) poruszająca się z wielką prędkością spowodowała przede wszystkim zniszczenia w północno-wschodnich prefekturach Japonii, głównie Iwata, Miyagi i Fukushima, jak również w innych położonych bardziej na południe. Zginęło około 15 000 ludzi, 4 000 uznano za zaginione, tysiące ludzi straciło swój dobytek, miejsca pracy, mieszkania. Trzęsienie ziemi oraz fala tsunami spowodowała ogromne straty w rolnictwie, przemyśle i transporcie. Zniszczeniu uległy drogi, koleje, domy (całe osiedla) linie energetyczne, linie łączności. Powstały zwały gruzu stosy połamanych drzew, złomowiska samochodów, zanieczyszczenia chemiczne, pożary. Dewastacji uległo środowisko naturalne. Należy przypomnieć, że po głównym trzęsieniu ziemi nastąpiło około 300 trzęsień wtórnych o różnej sile. Fala tsunami oprócz zniszczeń powstałych w czasie napływu, powodowała dalsze szkody w fazie cofania się, zabierając do morza gruz, sprzęt, tym samym zanieczyszczając dodatkowo łowiska. Zniszczone zostały uprawy ryżu, warzyw, sady, zalane słoną wodą, pokryte szlamem i błotem, chemikaliami wypływającymi ze zniszczonych zbiorników. Niektóre rodziny farmerskie uprawiały ziemię w tej okolicy już od 400 lat a obecnie właściciele zostali pozbawieni możliwości kontynuacji upraw. W rejonach Tohoku, Kanto, 23 000 ha zostało zalanych wodą ze szlamem. Największe straty powstały w prefekturze Miyagi, gdzie sytuacja ta dotyczy 15 000 ha, co stanowi 50% całkowitej powierzchni upraw w tym rejonie. Zniszczone zostały też zakłady przetwórcze powiązane z rolnictwem i hodowlą. Jeszcze bardziej dramatyczne straty powstały w rybołówstwie. Zniszczeniu uległy wszystkie porty rybackie, 90 % floty rybackiej (na podstawie danych firm ubezpieczeniowych). Część łodzi została zatopiona część wyniesiona na morze, lub w głąb lądu lub zniszczona w portach. Połowy w tym regionie pokrywały około 10 % zapotrzebowania krajowego. Zniszczeniu uległy hodowle ostryg, krewetek stanowiących 30% krajowej produkcji. Zniszczenia i straty spotęgowane były faktem, że cały przemysł powiązany z

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Elektrownie Jądrowe

83

Budowa  „namiotu ‐  ochrony” wokół budynku reaktora (Copyright The Asahi Shimbun Company  

rybołówstwem był właśnie przygotowany do rozpoczęcia nowego sezonu. W pobliżu elektrowni wstrzymano uprawy niektórych roślin przede wszystkim ryżu ze względu na wysoki stopień skażenia gleby i pochłanianiu przez te rośliny dużej ilości radioaktywnego cezu. Produkcja ryżu w prefekturze Fukushima należała do największych (450 000 ton rocznie). Z powyższych przyczyn Premier Japonii Yoshihiko Noda na konferencji prasowej stwierdził, że „ nie będzie odnowienia Japonii bez odbudowy Fukushimy” Prawie natychmiast po ustąpieniu fali tsunami przystąpiono do usuwania jej skutków rozpoczynając od ratowania i poszukiwania ludzi, organizowania doraźnej pomocy oraz oszacowania ogromu zniszczeń. Należy zwrócić uwagę na całkowitą niemożność komunikacji międzyludzkiej w chwili nawałnicy za wyjątkiem ograniczonych możliwości sieci komórkowych. Oprócz rozległych działań sieci obrony cywilnej np.: monitoringu radiacyjnego (wspomaganego później nawet przez organizacje pozarządowe i międzynarodowe) do akcji włączono wszystkie możliwe służby mające jakikolwiek związek z nie tylko z ochroną radiologiczną, ale i z np.: pomocą medyczną ( włączając w to pomoc psychologiczną odgrywającą w skrajnie trudnych warunkach istotna rolę zapobieżeniu panice i depresji) . Starając się koordynować ich działania zgodnie z obowiązującymi procedurami i uzyskać rzeczywisty obraz skażeń zorganizowano sieć monitoringu skażeń. Jedne z najistotniejszych informacji dotyczyły niepewnej sytuacji w elektrowni jądrowej Fukushima Daiichi, gdzie wybuchy wodoru, wycieki z uszkodzonego basenu wypalonego paliwa, niemożność uruchomienia awaryjnych systemów chłodzenia zniszczonych w czasie przejścia tsunami nie gwarantowały pełnego bezpieczeństwa rejonów w pobliżu elektrowni. Dlatego w miarę uzyskiwania informacji z obserwacji stanu reaktorów zdecydowano o zmianie kwalifikacji oceny poziomu katastrofy z 4 do najwyższego poziomu 7 w międzynarodowej skali stoso-

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


84

Elektrownie Jądrowe

wanej przez MAEA – Międzynarodową Agencję Energii Atomowej (IAEA International Atomic Energy Agency). (4 stopień - awaria bez znaczącego zagrożenia poza obiektem, 7 stopień - wielka awaria – uwolnienie znacznych ilości substancji promieniotwórczych , długo i krótko życiowych izotopów rozprzestrzeniających się na znacznym obszarze). Sytuację w elektrowni komplikował fakt braku zasilania, które pozwoliłoby na uruchomienie systemów awaryjnego chłodzenia i neutralizacji gazów, szczególnie wodoru powstającego wewnątrz obudowy reaktora w wyniku reakcji chemicznych zachodzących w podwyższonej temperaturze. Spodziewano się, że parująca woda odsłoni górne partie rdzenia, powodując jego nadtopienie. Ponadto konieczność zmniejszenia ciśnienia w zbiorniku reaktora spowodowała uwalnianie wodoru, wraz z którym nastąpiła emisja pierwiastków promieniotwórczych - jodu i cezu ( 131J , 134Cs, 137Cs), powodując skażenie środowiska. Dodatkowo w początkowej fazie usuwania skutków awarii konieczne było, ze względu na brak dostatecznej ilości zbiorników, uwolnienie tysięcy litrów skażonej wody do oceanu. Ocenia się, że całkowita emisja tych pierwiastków mogła osiągnąć 10 % podobnej emisji w trakcie awarii w Czarnobylu w 1986 roku. Podwyższone poziomy radioaktywności wykrywano w próbkach mleka, roślin (np. szpinaku) pochodzących z rejonu awarii, przy czym poziomy te nie przekraczały dopuszczalnych norm. Największe skażenia gleby, lasów, rzek zaobserwowano w około 30 kilometrowym paśmie o szerokości kilku kilometrów, rozciągającym się w kierunku północno-zachodnim od elektrowni Fukichima Daiichi. Niepewność dalszego rozwoju sytuacji (odnosząca się przede wszystkim do skażenia powietrza) spowodowała decyzję o czasowej ewakuacji ludności z zagrożonych terenów. Ustalono rejon tzw. pełnej ewakuacji ludności na obszar o promieniu 20 km od centrum źródła skażeń tzn. od elektrowni Fukushima Daiichi, oraz rejon tzw. ograniczonej ewakuacji w promieniu 30 km. W tym rejonie obowiązywała czasowa ewakuacja, która obowiązuje nadal na obszarach o podwyższonym poziomie promieniowania.

Worki ze skażoną ziemią  (Copyright The Asahi Shimbun Company  

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Elektrownie Jądrowe

85

Przewidywany jest powrót mieszkańców po przeprowadzeniu dekontaminacji. W kwietniu 2011 przyjęto wstępny plan usuwania skutków trzęsienia ziemi ze szczególnym uwzględnieniem usuwania skutków awarii elektrowni, tzw. „mapa drogowa odbudowy”. Usuwanie zniszczeń wywołanych falą tsunami wymagało przede wszystkim odbudowy sieci energetycznych, sieci komunikacyjnych, rozpoczęcie usuwania gruzów, utylizację odpadów zagrażających ludziom i środowisku. W następnej kolejności planowano przystąpienie do odbudowy gospodarki, poprzez pomoc finansową przy zakupie nowego sprzętu, odbudowie portów itp. Szybko powstały spółki odtwarzające przemysł rybołówstwa, wprowadzające jednocześnie jego reorganizację np. ograniczenie liczby portów rybackich, sposoby wykorzystania nowoczesnego drogiego sprzętu. Rozpoczęto przygotowania do usuwania zasolenia gleby. Metody te były już wcześniej stosowane w Japonii, ponieważ podobne problemy powodowane były przez silne tajfuny często przechodzące nad Japonią. Powołano specjalne grupy ekspertów, których zadaniem było opracowanie i przedstawienie rządowi analizy przyczyn i skutków awarii. Przeprowadzenia dokładnej analizy skutków awarii będzie możliwe dopiero po ustaleniu pełnego ich zakresu, co będzie procesem długotrwałym, tak więc końcowa analiza spodziewana jest w połowie 2011 roku . Pierwszą wstępną analizę, opublikowano 9 maja 2011 pt. „ Wnioski wypływające z analizy awarii w elektrowni jądrowej Fukushima Daiichi ‘’ ( Lessons learned from the accident at the Fukushima Daiichi Nuclear Power Plant). Została ona przeprowadzona przez zespół ekspertów z: OASIS (Open Standards for the Information Societry)-Otwarte Standardy Informacji Społecznej Podkomitet Analiz Technicznych, CINS Commit6tee for Investigation of Nuclear Safety) – Komitet Badań Bezpieczeństwa Jądrowego, AESJ ( Atomic Energy Society of Japan) – Japońskie Towarzystwo Energii Atomowej. W raporcie uwzględniono znane przyczyny awarii. Kolejne wyniki badań skutków awarii, przygotowane przez zespoły międzynarodowe, przedstawiono w czasie pięciodniowej (20 -25 czerwiec 2011) konferencji organizowanej w Wiedniu przez MAEA, oraz podobnej konferencji organizowanej przez OECD . W czasie tych spotkań przedstawiono również raport Rządu Japonii (Report of Japanese Government to the IAEA Ministerial Conference on Nuclear Safety- The Accident at TEPCO's Fukushima Nuclear Power Stations). Raporty cząstkowe analizujące poszczególne fazy katastrofy są przygotowywane systematycznie w ciągu całego roku. W jednym z ostatnich opublikowanym w grudniu 2011 stwierdzono m.in., że 10 m fala tsunami mogłaby zostać powstrzymana, gdyby wprowadzono wcześniejsze zalecenia ekspertów, jak również, że po utracie zasilania operator (pracownicy elektrowni) nie wprowadził przewidywanych procedur awaryjnych dla systemów chłodzenia reaktorów 1 i 3. Raport stwierdza, że gdyby uruchomiono wcześniej wozy straży pożarnej do schładzania (pompowania wody), zniszczenia byłyby ograniczone i mniej substancji radioaktywnych przedostałoby się do atmosfery. Działania Rządu oceniono jako niedostateczne, szczególnie brak łączności pomiędzy Rządem a centrum kryzysowym zawiadującym tzw. systemem SPEEDI (System for Predicting Environmental Emergency Dose Information), którego zadaniem jest między innymi prognozowanie rozprzestrzenianiem się substancji radioaktywnych. Dane z systemu SPEEDI nie były wykorzystywane w rozporządzeniach o ewakuacji, które były niedokładne i nie docierały do władz lokalnych. Podobnie nieprzejrzysty był system informowania społeczeństwa. Japońska Komisja Energii Atomowej (JAEC - Japan Atomic Energy Commision) 13 grudnia opublikowała zalecenia dalszego postępowania przy usuwaniu skutków katastrofy, zalecając między innymi, by Rząd: przejął pełną odpowiedzialność za usuwanie skutków katastrofy do czasu pełnej dekontaminacji terenu zaczynając od wprowadzenia odpowiedniego systemu i infrastruktury, jak również systemu bezpieczeństwa nadzorowanego przez TEPCO i prowadzenie pełnej, przejrzystej akcji społecznej informacyjnej o podjętych działaniach, zobowiązał TEPCO do przygotowania i wprowadzenia planów ochrony radiologicznej i innych po

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


86

Elektrownie Jądrowe

krewnych działań po pełnej konsultacji i akceptacji organów odpowiedzialnych za bezpieczeństwo, pełną koordynację nad zabezpieczeniem działań przed nierozprzestrzenianiem materiałów jądrowych we współpracy z organizacjami międzynarodowymi, głównie MAEA, ustanowił niezależną „trzecią” organizację kontrolującą te działania, podjął średnio- i długo-terminowe działania, umożliwiające rozwój przemysłowy regionu w przyszłości, jak również wykorzystanie jego zasobów. Istotne wydaje się zwłaszcza zalecenie powołania niezależnej organizacji kontrolującej i koordynującej wysiłki poprawy bezpieczeństwa jądrowego. przejął

Dotychczas rolę dozoru jądrowego w Japonii pełniła Agencja Bezpieczeństwa Jądrowego i Przemysłowego (NISA - Nuclear and Industrial Safety Agency) nadzorowana przez Komisję Bezpieczeństwa jądrowego (NSC - Nuclear Safety Comission) i Japońską Komisję Energii Atomowej (JAEC - Japan Atomic Energy Commision) , które z kolei podlegają prezydium Rządu (Cabinet Office). Ponadto Agencja Bezpieczeństwa Jądrowego i Przemysłowego NISA jest administracyjnie podległa Ministerstwu Gospodarki, Handlu i Przemysłu (METI – Ministry of Economy, Trade and Industry), co budzi liczne zastrzeżenia. Oprócz tego istnieje Japońska Organizacja Bezpieczeństwa Energii Jądrowej (JNESO – Japan Nuclear Energy Safety Organization), zrzeszająca specjalistów z różnych dziedzin, nie będąca agendą rządową. Powstaje również problem podporządkowania nowego urzędu. Czy ma być to organ całkowicie samodzielny nie podporządkowany innym urzędom czy też będzie wchodził w struktury np. ministerstwa Środowiska?. Mimo tych niejasności, należy podkreślić, że dotychczasowy system nie spełnił oczekiwań. Osobnym problemem było przygotowanie „mapy drogowej” dla usuwania skutków awarii w elektrowni Fukushima Daiichi. Pierwszym i podstawowym celem usuwania skutków było osiągnięcie stabilnych warunków chłodzenia reaktorów i paliwa zmagazynowanego w basenach, oraz ograniczenie emisji pierwiastków promieniotwórczych tak, by ewakuowana bezpośrednio po awarii ludność mogła powrócić do miejsc zamieszkania. W czasie posiedzenia Komitetu Szybkiego Reagowania w wypadku Awarii Jądrowych, które miało miejsce 16 grudnia 2011 pod przewodnictwem Premiera Yohihiko Nody oświadczono, że sytuacja w elektrowni jądrowej Fukushima Daiichi została opanowana, ponieważ osiągnięto stan zimnego wyłączenia. Określenie zimne wyłączenie w czasie normalnej pracy reaktora odpowiada stanowi w którym temperatura wody chłodzącej w reaktorze jest poniżej 100 0C i chłodzenie może być kontynuowane. Stan taki pozwala zdjąć pokrywę reaktora tzn. otworzyć reaktor w warunkach normalnego ciśnienia atmosferycznego. Zakładając, że rdzenie w niektórych reaktorach uległy stopieniu, warunkiem uznawania, że osiągnięto stan zimnego wyłączenia, jest by temperatura w dolnej części obudowy ciśnieniowej i wewnątrz zbiornika ciśnieniowego była poniżej 100 0C. Wytwarzanie pary w zbiorniku może być wówczas kontrolowane przez wtryskiwanie wody, uwalnianie materiałów radioaktywnych jest małe (obecnie w granicach elektrowni dawka roczna nie przekracza 0,1 mSv), co sprawia, że zapewnione są podstawowe warunki bezpieczeństwa. Pierwszy etap przedstawionej przez TEPCO (Tokyo Electric Power Company) w kwietniu „mapy drogowej” usuwania skutków awarii już osiągnięto. Należy podkreślić że przewidywano zakończenie tego etapu dopiero na początku 2012. Ponadto potwierdzono, że rozpoczęte (10 sierpnia 2011) prace nad zabezpieczeniem zniszczonych budynków reaktorów będą kontynuowane. TEPCO postanowiło przykryć, a właściwie obudować budynki reaktorów szczelnym, ogniotrwałym, plastikowym „namiotem” rozpiętym na stalowej konstrukcji wyposażonym w systemy wentylacyjne. Celem ustawienia tych konstrukcji (odpornych na warunki atmosferyczne, Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Elektrownie Jądrowe

87

w tym na opady śniegu i silne wiatry) jest kontrola i zatrzymywanie uwalnianych substancji promieniotwórczych. Konstrukcja namiotów jest monitorowana przez systemy czujników ciśnienia, wilgotności, temperatury pozwalających sprawdzać szczelność, kamery, detektory promieniowania itd. Potwierdzono, że trwają prace przygotowawcze do usunięcia wypalonego paliwa z basenów. Nowatorskim przedsięwzięciem jest sprawdzenie przed otwarciem pokrywy reaktora jego stanu przy pomocy metody endoskopowej. Spodziewając się nadtopienia rdzenia, co mgło uszkodzić różne elementy wewnątrz obudowy ciśnieniowej, postanowiono wprowadzić kamerę do wnętrza reaktora Nr 2 . Średnica kamery odpornej na promieniowanie i temperaturę ( wraz oświetleniem) i 10 metrowego kabla wynosi 8 mm. Prace mają się rozpocząć w styczniu 2012. Są to przygotowania do usunięcia stopionego rdzenia i demontażu reaktorów. Przewiduje się, że do pełnego demontażu najbardziej niebezpiecznych elementów będą używane specjalnie do tego celu zaprojektowane roboty. W związku z postępującą normalizacją na terenie elektrowni Fukushima Daiichi Rząd Japonii postanowił zmienić zasady dotyczące stref ewakuacji, a ściślej możliwości powrotu ludności na wybrane obszary . Ostateczne decyzje zostaną podjęte na początku 2012 roku. Przewiduje się wprowadzenie trzech stref w zależności od poziomu promieniowania. W obszarach w których moc dawki promieniowania jest mniejsza niż 20 mSv/rok rząd podejmie starania o jak najszybszy powrót mieszkańców do swoich domów. W obszarach, gdzie moc dawki może przekroczyć 20 mSv/rok, zalecane jest powstrzymanie się od powrotu. W obszarach, gdzie moc dawki przekracza 50 mSv/rok, powrót jest zabroniony. Określenie stref powinno nastąpić do końca marca 2012 i będzie prowadzone w porozumieniu z władzami lokalnymi. Całkowitym zakazem powrotu objęty jest obszar w odległości 3 km od elektrowni. Oczywiście decyzje te nie spotykają się z pełną aprobatą mieszkańców ewakuowanych terenów, żądających jak najszybszego umożliwienia im powrotu do normalnego życia, a w przypadku zakazu powrotu umożliwienie nowego startu w innej lokalizacji. Chcąc pospieszyć proces rekultywacji zniszczonych terenów przygotowano rozległy program usuwania skutków trzęsienia ziemi w dużej mierze oparty na bogatych wcześniejszych doświadczeniach, ale uzupełniony o konieczność dekontaminacji terenu, zabudowań i lasów. Zakończeniem tego procesu będzie, wg założeń programu rządowego, powrót mieszkańców do swoich domów. Przewiduje się, że proces usuwania zniszczeń w elektrowni może potrwać od 30 do 40 lat. Proces odnowy środowiska może być krótszy, ponieważ jest wspomagany przez zjawiska naturalne, np. opady powodujące wymywanie skażonej gleby do rzek, krótki czas połowicznego rozpadu niektórych pierwiastków, zmniejszenie ich koncentracji na skutek różnych działań, jak np. odbudowa dróg wymagająca wielu prac ziemnych. Od 1 stycznia 2012 weszła w Japonii w życie regulacja dotycząca dekontaminacji obszarów skażonych w wyniku awarii elektrowni Fukushima Daiichi. Niektóre koncerny oferują opracowanie specjalnych przeznaczonych do tego celu urządzeń, których konstrukcja została wstępnie przetestowana na terenie elektrowni. Urządzenie do dekontaminacji i oczyszczania może dziennie usuwać 97% substancji radioaktywnych z 1,7 ton skażonej gleby i mułu. Inne oferowane i sprawdzone urządzenie może usuwać nisko aktywne substancje z wody w zbiornikach i kanalizacji. Zainteresowanie tymi urządzeniami wykazały przede wszystkim ośrodki przemysłowe i niektóre władze regionalne. Toshiba opracowuje bardziej ekonomiczne i nowsze rozwiązanie o zwiększonej wydajności. Rząd Japonii proponuje utworzyć w pobliżu miejscowości Futaba na północny zachód od elektrowni Fukushima, ( jednym z najbardziej skażonych terenów) czasowe składowisko odpadów dekonta

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


88

Elektrownie Jądrowe

Kwartalnik  popularnonaukowy  Luty— Marzec  2012 


Elektrownie Jądrowe

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 

89


90

Elektrownie Jądrowe minacji z innych terenów. Rozpoczęto negocjacje z władzami lokalnymi i dyskusję społeczną. Proponowany jest państwowy wykup terenu. W Prefekturze Fukushima 80 % powierzchni wymaga dekontaminacji. Rząd będzie pokrywał część kosztów dekontaminacji w obszarach, w których moc dawki przewyższa 0,23 μSv/h, oraz poniesie koszty oczyszczania z mułu którego aktywność osiąga 8000Bq/kg. Postanowiono również wytypować priorytetowe miejsca dekontaminacji.

( Grudzień 2011)Sprawdzanie dachu fabryki w Naraha, prefektura Fukushima ,  przed rozpoczęciem pełnej  dekontaminacji. (Copyright The Asahi Shimbun  Company Jun Kaneko)  

Dekontaminację (eksperymentalną) wybranych obiektów rozpoczęto 18 listopada 2011. Wstępnie oczyszczono 4 budynki władz regionalnych Do dekontaminacji powołano 900 wyspecjalizowanych zespołów. Do oczyszczenia przewidziano 110 000 budynków i oczekuje się na zgodę właścicieli na jej przeprowadzenie. Mobilne zespoły dekontaminacyjne są wyposażone w przewoźne urządzenia dozymetryczne pozwalające sprawdzać, czy pracownicy zespołów nie zostali skażeni (tzw liczniki skażeń całego ciała), oraz urządzenia do dekontaminacji odzieży ochronnej. W całej skażonej okolicy, od chwili awarii, (w promieniu 30 km od centrum źródła skażeń tzn. od elektrowni Fukushima Daiichi), prowadzone są systematyczne pomiary poziomu promieniowania powietrza, gleby, oraz wód. Obserwowana jest wyraźna tendencja spadkowa. Tym niemniej w wątpliwych rejonach szkoły pozostają zamknięte i wszędzie zostały dostarczone dozymetry. Władze lokalne rozpoczęły i prowadzą badania tarczycy 360 000 młodzieży do lat 18 zamieszkałej w prefekturze Fukushima. Przebadane osoby pozostaną pod obserwacją do końca życia. Od chwili awarii przebadano około 2 000 000 ludzi w miastach i wioskach nawet w promieniu do 50 km od elektrowni Fukushima Daiichi. Nie stwierdzono poważniejszych przypadków napromieniowania (97 % badanej populacji była narażona na dawkę poniżej 5 mSv). Podjęto obserwację i badania 25 000 dzieci urodzonych w tym rejonie w tym czasie, które pozostaną pod obserwacją do osiągnięcia dojrzałości. Publikowane są regularnie mapy pokazujące rozprzestrzenienie się różnych izotopów pierwiastków Cs, J, Pu, Sr, Cu, Te, które były wykryte w glebie wokół Fukushimy. Obecnie zabrania się upraw ryżu w tych rejonach. Prowadzone są stałe badania żywności, monitorowane są hodowle bydła, zbiorniki wody pitnej, lasy oraz wody przybrzeżne. Rząd Japonii postanowił w ciągu kilku lat (do 2015) rozmieścić na dnie oceanu w najbardziej prawdopodobnych miejscach występowania trzęsień ziemi, podwodne czujniki sejsmiczne, oparte o hydrociśnieniowe detektory, tzw. czujniki tsunami. Docelowo planowane jest okrążenie całej Japonii podobnymi czujnikami umieszczanymi nawet 400 km od jej brzegu. Najwięcej tych czujników znajdzie się w okolicy prefektur Miyagi i Fukushima. Należy podkreślić, że ogrom prac organizacyjnych, naukowych (rozwiązanie problemu oczyszczania wody w elektrowni), technologicznych, legislacyjnych, oraz kontrolnych, który został wykonano od czasu awarii jest imponujący. Obecnie przed Rządem Japonii stoi nowe, niezwykle trudne wyzwanie powtórnego przekonania społeczeństwa do energetyki jądrowej. Dyskutowana jest ustawa ograniczająca wydawanie licencji na eksploatację elektrowni jądrowej do 40 lat z ograniczoną możliwością przedłużenia. Rozpoczęto również kontrolę wszystkich japońskich elektrowni jądrowych. Kontrole mają być ukończone do końca marKwartalnik  popularnonaukowy  Luty— Marzec  2012 


Elektrownie Jądrowe

91

ca 2012. W chwili obecnej z uwagi na ograniczona liczbę pracujących reaktorów w niektórych rejonach odczuwane są braki energii. Prowadzone są też dyskusje i wstępne prace nad uniezależnieniem się od energetyki jądrowej

03.02.2012 Zmniejszanie dawki promieniowania poprzez zbieranie kurzu i małych odłamków na parkingu przed głównym  gmachem elektrowni jądrowej Daiichi.  Kompletny system oczyszczania (Źródło: materiały prasowe TEPCO)  Obniżenie radiacji                PRZED                                                                                      PO  oczyszczeniu z kurzu  

Źródła artykułu:   Japan Atomic Industrial Forum  Jaff.org.jp.english   Factsanddetails.com.php  TEPCO Bulle ns 

                                                                                                Kwartalnik  popularnonaukowy  Luty—Marzec  2012 


EKOATOM NR04 02/03-2012  

Prezentujemy już czwarty numer kwartalnika EKOATOM, jednocześnie dziękując za zainteresowanie poprzednimi. Dotychczas stronę EKOATOM odwiedz...

Read more
Read more
Similar to
Popular now
Just for you