__MAIN_TEXT__

Page 1

NAUKA TECHNOLOGIE GOSPODARKA CZŁOWIEK

NR 3(6)MARZEC ‘11

Tor zamiast uranu? Wikipedia: mądrość zbiorowa kooperacja online


38


SPIS TREŚCI:

4 5 6 8 12 13 16 22 26 31 32 38 42

WYDARZENIA

WYDARZENIA

WYDRUKUJ MI ROWER TATO

IBM - PIĘĆ INNOWACJI NA PRZYSZŁE 5 LAT

KOMENTARZ

WCZORAJ I DZIŚ ENERGETYKI JĄDROWEJ BUDOWA ELEKTROWNI JĄDROWYCH W POLSCE BĘDZIE KONIECZNA? FUKUSHIMA A SPRAWA POLSKA URANU NAM NIE ZABRAKNIE

O TORZE W REAKTORZE

SPECJALISTA OD PROMIENIOWANIA

MĄDROŚĆ TŁUMU - WIKIPEDIA

* Skąd ta nazwa – Teberia? …Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pamiętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony. I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przysłuży się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informacji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilość wiedzy i to nie tylko górniczej, to czemu nie teberia. Jerzy Kicki Przewodniczący Komitetu Organizacyjnego Szkoły Eksploatacji Podziemnej

Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupionych wokół Szkoły Eksploatacji Podziemnej jako portal tematyczny traktujący o szeroko rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,teberia” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie. Adres redakcji: Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie pawilon C1 p. 322 A al. Mickiewicza 30 30-059 Kraków tel. (012) 617 - 46 - 04 fax. (012) 617 - 46 - 05 e-mail: redakcja@teberia.pl www.teberia.pl” www.teberia.pl Redaktor naczelny: Jacek Srokowski (jsrokowski@teberia.pl) Z-ca redaktora naczelnego: Tomasz Siobowicz (tsiobowicz@teberia.pl) Dyrektor Zarządzający Projektu Teberia: Artur Dyczko (arturd@min-pan.krakow.pl) Biuro reklamy: Małgorzata Boksa (reklama@teberia.pl) Studio graficzne: Pigment design&media (www.pigment-art.com) Wydawca: Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie prezes: Jerzy Kicki f-agh@agh.edu.pl www.fundacja.agh.edu.pl NIP: 677-228-96-47 REGON: 120471040 KRS: 0000280790

NIECH MOC BĘDZIE Z WAMI

PUK PUK ...OTWARTE !!

Konto Fundacji: Bank PEKAO SA ul. Kazimierza Wielkiego 75 30-474 Kraków nr rachunku: 02 1240 4575 1111 0000 5461 5391 SWIFT: PKOPPLPW IBAN; PL 02 1240 4575 1111 0000 5461 5391 Redakcja nie odpowiada za treść ogłoszeń. (C)Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone. Żaden fragment niniejszego wydania nie może być wykorzystywanyw jakiejkolwiek formie bez pisemnej zgody wydawcy.

MARZEC 2011




WYDARZENIA

Microsoft & Nokia: małżeństwo z rozsądku?

Na r y nku systemów urządz eń mobi lnych rządzą dziś niep o dzielnie Apple i G o og le z e swoim Androidem. Z b oku przyg ląda się im z zaz drością Microsoft, któr y zw iązał się z najw iększy m pro ducentem telefonów komórkowych, fińską Nok ią, która rów nież nie p otrafi o dnaleź ć się na r y nku, zwłasz cza r y nku smar tphonów. Kiedy przed kilkoma tygodniami kupowałem dziecku telefon komórkowy u jednego z operatorów, pytanie jaki to ma być telefon, było wtórne do tego pod jakim systemem ma on działać. Dla mojego 10letniego syna takie nazwy jak iPhone czy Android nie stanowią żadnej tajemnicy, wie doskonale czego może się spodziewać po tychże platformach. Jego stara, ulubiona Nokia poszła w odstawkę. Bo po co mu Nokia skoro on chce mieć w telefonie Angry Birdsa i inne ulubione gry? Wybór padł więc na jeden z smartponów z systemem Android, bo iPhone stanowił, powiem to szczerze, zbyt duży wydatek. Apple przewrócił rynek do góry nogami, definiując na nowo pojęcie smartfonu i przyciągając producentów oprogramowania do zamkniętego, ale bardzo silnego ekosystemu. Sukcesowi Apple`a pozazdrościł Google, który stworzył równie sprawny ekosystem Android dedykowany smartphonom, a ostatnio także tabletom. Ekosystem to dziś słowo kluczowe. Obejmuje nie tylko urządzenie i jego system, ale także producentów oprogramowania, aplikacje, e-handel, reklamę, wyszukiwanie, aplikacje społecznościowe, usługi lokalizacyjne, zunifikowaną komunikację i wiele innych rzeczy. To czym wygrywają z konkurentami Apple i Google, to potęga App Store (ponad 400 tys. dostępnych aplikacji) i Android Market (300 tys. aplikacji). Zauważył to Stephan Elop, nowy szef Nokii. Nasi rywale nie odbierają nam rynku za pomocą urządzeń, odbierają nam udziały w rynku za pomocą całych ekosystemów. To oznacza, że musimy zdecydować, jak zbudować, przekształcić albo przyłączyć się do któregoś z ekosystemów – napisał przed kilkoma tygodniami Elop zwracając się do pracowników fińskiego koncernu. System operacyjny Nokii, Symbian okazał się zbyt trudnym środowiskiem dla programistów (nie udała się także jej platforma MeeGo),



więc szefostwo fińskiego koncernu postanowiło związać się z Microsoftem. Koncern z Redmond, poza sukcesem konsoli do gier Kinecta, ma za sobą serię znaczących porażek: telefony Microsoft Kin (wycofane z rynku po zaledwie trzech miesiącach sprzedaży!), odtwarzacz Zune, system operacyjny Windows Vista. Microsoft musi odwrócić złą passę i żeby wrócić do ścisłej czołówki potrzebuje spektakularnego sukcesu na rynku urządzeń mobilnych, bo to on dziś wyznacza kierunki. Jego system Windows Phone 7 i budowany wokół niego ekosystem (Marketplace z 10 tys. aplikacji) posiada zaledwie kilka procent udziału w rynku, głównie dzięki sprzedaży telefonów HTC wyposażonych w ten system. Żeby ten udział wzmocnić, Microsoft również potrzebował Nokii, największego producenta telefonów komórkowych w świecie. 11 lutego, Nokia i Microsoft na wspólnej konferencji w Londynie ogłosiły strategiczną współpracę – Finowie zastąpią Symbiana Windowsem Mobile 7. Wprawdzie Nokia była kuszona także przez Google, ale ostatecznie zdecydowała się na współpracę z Microsoftem. Złośliwi twierdzą, że to zasługa faktu, iż Elop był do niedawna menadżerem w koncernie z Redmond. Mało tego, jest akcjonariuszem Microsoftu. Trudno się więc dziwić, że pojawiło się wiele teorii spiskowych mówiących, że Microsoft przejmuje powoli Nokię. W istocie Microsoft zapłaci Nokii ponad 1 miliard dolarów za promocję i rozwój urządzeń opartych na systemie z Redmond. Jednocześnie Nokia oszczędzi około 1,2 mld dolarów rocznie obcinając wydatki na R&B (badania i rozwój) w zakresie softwaru. Z kolei Nokia płacić będzie Microsoftowi opłaty licencyjne za korzystanie z Windows Phone 7. Według informacji Bloomberga, Microsoft uzyska także dostęp do portfolio niektórych patentów Nokii, chodzi głównie o technologię geolokalizacji (Nokia Navteq). Jeszcze nie wiadomo, kiedy pojawi się pierwsza Nokia z systemem Windows Phone 7. Prawdopodobnie nie nastąpi to wcześniej niż za rok. Problem jednak w tym, że rok czasu na rynku smartphonów to cała epoka. Kto wie, jak ten rynek będzie wyglądał w 2012 r. Michał Jakubowski

MARZEC 2011


WYDARZENIA

Bariera inna niż wszystkie Barierę drogową, która redukuje skutki uderzenia samochodu nawet do 90 proc. opracowali polscy naukowcy. Teraz szukają producentów gotowych do wdrożenia ich - obsypanego nagrodami - wynalazku. 6 luty, na pierwszym odcinku specjalnym rajdu Ronde di Andora, o godz. 8.30 samochód prowadzony przez Roberta Kubicę uległ wypadkowi. Skoda fabia uderzyła lewą stroną w barierę ochronną która nie wytrzymała uderzenia i zadziałała jak gilotyna tnąc karoserię samochodu. Polski kierowca rajdowy doznał licznych obrażeń - zmiażdżona dłoń, zgruchotana noga. Lekarze twierdzą, że Kubica tylko cudem ocalał. Bariery ochronne, które zwykle chronią kierowców, mogą w skrajnych przypadkach być przyczyną śmierci kierowców. Wypadek Kubicy tylko to potwierdza. Polscy wynalazcy i naukowcy z Centrum Badawczo-Rozwojowego EPAR w Kowarach (Dolnośląskie) opracowali barierę drogową, która może zapobiec w przyszłości takim sytuacjom. Technologią zainteresowana jest też Europejska Agencja Kosmiczna. Innowacyjna bariera działa w oparciu o technologię EPAR. Twórcami bariery są: Lucjan Łągiewka, Przemysław Łągiewka oraz prof. Stanisław Gumuła. - Od istniejących obecnie na świecie zabezpieczeń polska bariera różni się tym, że znacząco redukuje siłę bezwładności działającą na

pasażerów pojazdu - wyjaśnia Przemysław Łągiewka. - Pochłania więcej energii zderzenia, dlatego mniej deformuje pojazd i samą siebie. Przy tej samej masie ma dużo większą wytrzymałość na uderzenia od innych barier. Jak przyznaje Łągiewka, bariera będzie droższa od zabezpieczeń, które są ustawiane wzdłuż zwykłych autostrad. - Tego typu bariery są już tak tanie, jak tylko się da. Tańszych od nich i tak nie da się już zrobić - wyjaśnia. Nowe bariery będą jednak tańsze od zabezpieczeń, które teraz montuje się w miejscach szczególnie niebezpiecznych: na wiaduktach, w tunelach czy tzw. czarnych punktach. - W bariery stawiane w miejscach niebezpiecznych montuje się złożone układy, które powodują, że nie mogą się one przewrócić. Przy barierach wykorzystujących technologię EPAR układy te nie muszą już być tak złożone, bo część energii pochłaniana jest od razu przez akumulator – tłumaczy Łągiewka. Samą technologię EPAR Lucjan Łągiewka opracował jeszcze w la-

MARZEC 2011

tach 90. XX wieku. Jej działanie oparte jest na zamianie znacznej części energii kinetycznej obiektów zderzających się na energię kinetyczną specjalnego przetwornika akumulacyjno-rozpraszającego. Jak zapew-

niają twórcy technologii, zastosowanie metody EPAR umożliwia redukcję skutków zderzeń nawet o 90 proc. Podczas zdarzenia energia zamiast zamieniać się na pracę niszczącą obiekt, zostaje przekazana do mechanicznych akumulatorów. - Akumulatory - 3-kilogramowe walce ze stali - są częścią bariery i są zazwyczaj umiejscowione w jej głowni lub podstawie. To bardzo proste układy, które są w stanie zaabsorbować połowę energii uderzenia - wyjaśnia Łągiewka. Obecnie analizowane są różnorodne możliwości wdrożenia tej metody EPAR w przemyśle kolejowym, stoczniowym, lotniczym, górniczym i maszynowym. Technologią EPAR zainteresowana jest również z Europejska Agencja Kosmiczna. Chodzi o zabezpieczenia dokowań na orbicie, m.in. bezzałogowych kapsuł zaopatrzeniowych. Technologia mogłaby też znaleźć zastosowanie jako systemy amortyzacji lądowania w lądownikach sond międzyplanetarnych. Trzecie zastosowanie to układy amortyzujące przy rozkładaniu m.in. paneli słonecznych. Twórcy drogowej bariery choć znaleźli już producentów, którzy chcą ją wdrożyć w Szwecji i Niemczech, wciąż szukają polskich przed-

siębiorców nią zainteresowanych, tak by bezpieczne bariery pojawiły się najpierw w kraju. Technologia zyskała uznanie na międzynarodowych giełdach i targach wynalazczych. Na podstawie materiału PAP Nauka w Polsce




TECHNOLOGIE

To co wydarzyło się w XVIII wieku za sprawą rewolucji przemysłowej zmieniło gospodarkę i społeczeństwo w sposób niewyobrażalny dla ludzi tamtego czasu. Masowa produkcja dóbr dała początek nowej ekonomii – ekonomii skali. A teraz za sprawą nowej technologii – druku 3D – łatwo i tanio można wytworzyć zarówno jeden jak i tysiące egzemplarzy danego przedmiotu. To podkopuje fundamenty ekonomii skali i może mieć tak znaczący wpływ na nasz dzisiejszy świat jaki miało powstanie pierwszych fabryk. A działa to tak. Najpierw na ekranie komputera przywołany zostaje szkic. Następnie manipuluje się nieco przy jego kształcie i kolorze tam gdzie uzna się to za konieczne. A następnie naciska przycisk „Drukuj”. Drukarka zaczyna swoje ciche warczenie i powoli buduje przedmiot albo deponując

materiał ze swoich dysz albo selektywnie utwardzając cienką warstwę plastiku lub metalu przy pomocy maleńkich kropli kleju lub mocno zogniskowanego promienia. Przedmioty są więc budowane stopniowo poprzez dodawanie nowego materiału warstwa po warstwie – stąd nazwa technologii: produkcja addytywna (przyłączeniowa). W końcu pojawia się produkt – część zamienna do samochodu, abażur do lampy lub skrzypce. Całe piękno tego procesu polega na tym, że nie potrzebna jest do tego cała fabryka. Niewielkie przedmioty mogą powstać dzięki maszynom wielkości drukarki biurowej. Do produkcji większych obiektów – takich jak ramy do rowerów, części do samolotów – potrzeba nieco większych urządzeń. I więcej przestrzeni. W tej chwili do produkcji mogą być wykorzystane tylko niektóre materiały, takie jak plastik, żywice lub metale. A dokładność wykonania oscyluje wokół dziesiątych części milimetra. Tak jak komputery w latach 70. ubiegłego wielu, w chwili obecnej cała ta zabawa w produkcję jest obecnie domeną kilku akademickich i przemysłowych enklaw. I tak jak z komputerami w ubiegłych dziesięcioleciach druk 3D szybko się rozpowszechnia, jego technologia ulepsza a koszty spadają. Prosta drukarka 3D, znana również jako fabrykator, kosztuje w tej chwili mniej niż drukarka laserowa kosztowała w 1985 roku. Spróbujmy pomyśleć o zaletach tego nowego modelu produkcji. Przede wszystkim koszty – są niższe ponieważ nie ma linii produkcyjnych. Odpadków jest o niebo mniej zatem i materiału zużywa się mniejsze ilości. Można wykonać części i kształty nie do pomyślenia tradycyjnymi me-

Wydrukuj mi rower tato... 

MARZEC 2011


TECHNOLOGIE

todami. Pojedynczy przedmiot może zostać wykonany szybko i tanio – a zaraz po wykonaniu jego projekt może zostać udoskonalony. Od lat już korzysta się z dobrodziejstw drukarek 3D w produkcji prototypów, głównie na potrzeby przemysłu lotniczego, medycznego i motoryzacyjnego. W momencie gdy zostaje ukończony projekt następuje przejście do skali linii produkcyjnej gdzie produkcja i montaż części i podzespołów postępuje już tradycyjnie. Ale druk 3D został udoskonalony już do tego stopnie, że zaczyna być wykorzystywany do wytwarzania gotowych obiektów. Już teraz jest konkurencyjny w stosunku do form wtryskowych z plastiku dla partii około 1000 sztuk gotowych przedmiotów. Te liczby i obszary, gdzie stanie się konkurencyjny, będą się powiększać wraz z dojrzewaniem tej technologii. Proszę zwrócić uwagę na następujący fakt – ponieważ każdy jeden przedmiot jest wytwarzany indywidualnie, bez matrycy, za każdym razem może zostać częściowo zmodyfikowany bez absolutnie żadnych dodatkowych kosztów. Stąd tylko krok od masowej produkcji do masowego produkcji dostosowanej do potrzeb wszelkiego rodzaju produktów. Spójrzmy na całe zagadnienie z jeszcze innej perspektywy. Technologia druku 3D pozwala obniżyć wiele barier i poprzeczek stojących przed wszystkimi, którzy chcą wejść w produkcję. Tak więc jest to ogromne pole do popisu dla wszystkich innowatorów, którzy od szkicu mogą teraz coraz łatwiej i taniej przejść do gotowego obiektu. Wystarczy coś zaprojektować i jak z kapelusza pojawia się obiekt. Można przejść do czynności biznesowych – wydrukować kilka tuzinów i zobaczyć jak reaguje na nie rynek. Wydrukować kilka kolejnych tuzinów – jeśli faktycznie znajdą się nabywcy – modyfikując projekt tak jak sugerują to użytkownicy. To prawdziwe dobrodziejstwo dla wynalazców i start-upów – testowanie nowych produktów stanie się dzięki tej technologii mniej ryzykowne i mniej kosztowne. Tak jak w przypadku współpracy programistów nad oprogramowaniem typu open-source – inżynierowie zaczynają już współpracować nad projektami typu open-source dla różnego rodzaju przedmiotów i części maszyn i urządzeń. Spróbujmy zastano-

wić się jakie konsekwencje dla gospodarki i procesów produkcji może mieć ta technologia? A gdyby tak decentralizacji uległa całość procesów biznesowych? Gdyby zatrzymany i odwrócony został proces urbanizacji towarzyszący industrializacji? Skoro nie będą potrzebne fabryki – każda wieś i mieścina może mieć własny fabrykator, który wyprodukuje to czego potrzebują użytkownicy. Oczywiście nie do końca – ale możliwości dopiero się otwierają. Pomyślmy nad całym tym zagadnieniem jeszcze od innej strony – tej, która tak mocno napędza obecny model masowej produkcji. Chodzi o tanią siłę roboczą. Druk 3D jest w stanie znacznie zredukować potrzebę istnienia licznych załóg produkcyjnych co może spowodować przesunięcie mocy produkcyjnych z krajów trzeciego świata na powrót do krajów rozwiniętych. Oczywiście rynek azjatycki również przyswoi nowe technologie więc nie musi to być aż tak oczywiste. Zatem wizja nowych miejsc pracy przy produkcji w krajach rozwiniętych nie koniecznie się ziści. Zwłaszcza, że bez względu na miejsce wytwarzanie druk 3D wymaga dość niskich nakładów pracy. Oprócz dystrybucji kapitału i pracy nie do pominięcia jest również wpływ na prawa do własności intelektualnej. Piractwo obiektów opisanych w pliku to rzecz banalna. Wystarczy zerknąć na doświadczenia przemysłu muzycznego. Gdy tylko plik z nowym wzorem zabawki czy sportowego buta wycieknie do Internetu straty jego właściciela mogą być znaczne. Na pewno powstaną nowe uregulowania prawne dotyczące tej technologii. I podobnie jak z oprogramowaniem typu open-source zaistnieją nowe nie komercyjne modele działalności rynkowej. Jak to zwykle w takiej sytuacji naciski będą zmierzały albo w stronę obostrzenia istniejących przepisów (co może zdusić innowacyjność) lub ich liberalizacji (co może zachęcać do piractwa). Na te kolejne zawiłości już na pewno cieszą się prawnicy. Historia dała nam wiele przykładów zmian, których wpływ na losy ludzkości był niewyobrażalny w chwili ich zaistnienia w realnym świecie. Czy to prasa drukarska w 1450, czy silnik parowy w 1750, czy tranzystor w 1950. Na dziś dzień trudno powiedzieć cokolwiek o przyszłości i wpływie jaki może mieć druk 3D. Jedno jest pewnie – jej wpływ będzie nie do przecenienia i wszyscy od firm i korporacji, przez przedsiębiorców i wynalazców aż po ustawodawców i sprzedawców powinni zacząć o tym myśleć na poważnie. Jak w przypadku każdej zmiany i ta będzie miała w krótkim czasokresie swoich tryumfatorów i pokonanych. Lecz w dłuższej perspektywie na pewno pozwoli nam poszerzyć granice zarówno przemysłu jak i wyobraźni. Tomasz Siobowicz Na podstawie: The Economist

MARZEC 2011




TRENDY

IBM: Pięć innowacji na przyszłe pięć lat Hologramy 3-D w telefonach, baterie wykorzystujące tlen do zasilania urządzeń elektronicznych, sensory dostarczające informacji, spersonalizowane podróże, centra przetwarzania danych, które zasilają miasta w energię elektryczną – to pięć innowacji technologicznych, które zmienią styl życia ludzi. No, przynajmniej według ekspertów IBM. IBM zaprezentował swoją coroczną listę pięciu innowacji. Lista “Next 5 in 5” stworzona została w oparciu o trendy rynkowe i społeczne oraz technologie stworzone w laboratoriach IBM na całym świecie. Hologramy 3-D w telefonach

ciągłą, tak w podobny sposób zniekształcane są informacje, które tworzymy w dużych ilościach wraz z zaawansowaniem informacji, która staje się inteligentniejsza, np. elektroniczny foto album. Aktualnie zdjęcia są geotagowane, Internet jest w stanie zsynchronizować informacje pochodzące z różnych urządzeń a interfejsy komputerowe stają się coraz powszechniejsze.

Baterie wykorzystają tlen do zasilania urządzeń elektronicznych Czy kiedykolwiek zdarzyło Ci się marzyć o baterii do laptopa, która nie wymagałaby ładowania przez cały dzień? Albo telefonie komórkowym, który ładuje się poprzez noszenie go w kieszeni? W ciągu najbliższych pięciu lat, postęp naukowy w technologii tranzystorów i baterii przedłuży zdolność funkcjonowania urządzeń

W ciągu następnych pięciu lat interfejsy 3-D, takie jak te, które widzimy w filmach, pozwolą na interakcję z hologramami 3-D naszych przyjaciół w czasie rzeczywistym. Kina i stacje telewizje już od jakiegoś czasu stosują technologię 3D. Wraz ze wzrostem stopnia zaawansowania i miniaturyzacji interfejsów 3-D i kamer holograficznych w telefonach komórkowych, zyskamy możliwość zupełnie nowego rodzaju interakcji na poziomie zdjęć, przeglądania Internetu, studiowania, pracy i utrzymywania kontaktów towarzyskich z przyjaciółmi. Naukowcy szukają sposobów przekształcenia video chatów w holograficzne lub w „teleobecność 3-D”. Technologia ta wykorzystuje

wiązki światła, jakimi promieniują obiekty i rekonstruuje je w formie zdjęcia lub przedmiotu na wzór techniki wykorzystywanej przez ludzkie oko do wizualizacji otoczenia. W przyszłości rekonstrukcja wizerunku naszych przyjaciół w 3-D nie będzie jedyną możliwością. Tak jak płaska mapa Ziemi jest zniekształcona na biegunach, co powoduje, że schemat lotu nie jest linią



10-krotnie. A nawet, w niektórych przypadkach, baterie mogą zupełnie zniknąć z małych urządzeń. Zamiast ciężkiej litowo-jonowej baterii używanej obecnie, naukowcy pracują nad bateriami, które wykorzystają powietrze, którym oddychamy do procesu reakcji z metalem o dużej gęstości energii eliminując kluczowy czynnik hamujący stworzenie baterii o dłuższej wytrzymałości. Jeśli badania się powiodą, stworzony zostanie lekki akumulatorek o dużej mocy przystosowany do zasilania szerokiego spektrum urządzeń - od elektrycznych samochodów do urządzeń elektronicznych. A co powiecie na możliwość całkowitego pozbycia się baterii? Analizując podstawowy moduł konstrukcyjny urządzeń elektronicznych - tranzystor - IBM ma na celu zredukowanie energii czerpanej przez tranzystor do mniej niż 0,5 V. Tak niskie zapotrzebowanie na energię umożliwi pozbycie się baterii w niektórych urządzeniach jak telefony komórkowe lub czytniki elektroniczne. W ten sposób powstałyby bezbateryjne urządzenia elektroniczne ładowane za pomocą techniki zwanej „energy scavenging”. Aktualnie wykorzystują ją niektóre zegarki na rękę - nie wymagają uzwojenia a ładują się poprzez ruch ręki. Ta sama koncepcja mogłaby zostać wy-

MARZEC 2011


TRENDY

korzystana do ładowania telefonów komórkowych, np. w sposób „potrząśnij i wybierz numer”.

Sensory dostarczą informacji Może nie jesteś fizykiem, ale na pewno jesteś chodzącym czujnikiem. Za pięć lat, czujniki w twoim telefonie, samochodzie, portfelu a nawet na Twitterze będą w stanie gromadzić dane, które posłużą naukowcom do stworzenia obrazu twojego otoczenia w czasie rzeczywistym. Będzie można wykorzystać te dane do walki z globalnym ociepleniem, ocalenia wymierających gatunków lub wyśledzenia roślin i zwierząt stanowiących zagrożenie dla ekosystemów na całym świecie. W ciągu najbliższych pięciu lat powstanie klasa „naukowców obywateli” wykorzystujących proste czujniki do gromadzenia zestawów danych, które następnie zostaną wykorzystane w badaniach. Proste informacje, takie jak np. kiedy w mieście następuje pierwsza odwilż, kiedy pojawiają się pierwsze komary, jeśli nie ma bieżącej wody to gdzie można znaleźć źródło - wszystkie te informacje stanowią cenne dane dla naukowców. Dane, których aktualnie nie posiadają. Nawet twój laptop może spełniać funkcję czujnika wykrywającego

drogowy, alternatywne opcje transportu takie jak kolej czy prom, dostępność miejsc parkingowych i pogoda. Na przykład, łącząc analitykę przewidywania z informacją w cza-

sie rzeczywistym na temat aktualnego ruchu drogowego uzyskiwaną z czujników i w oparciu o inne dane, system mógłby zasugerować lepsze sposoby na dotarcie do celu takie jak najkrótsza trasa do najbliższego węzła komunikacyjnego, dostępność miejsc parkingowych przy stacji kolejowej. Nowe systemy mogą opierać się na regularnych wzorcach podróżowania, aby następnie integrować dostępne dane i przewidywania, aby wyznaczyć najlepszą możliwą trasę dojazdu.

Centra przetwarzania danych przyczynią się do zasilania miasta w energię elektryczną

aktywność sejsmiczną. Dzięki odpowiednim ustawieniom i połączeniu z siecią innych komputerów twój laptop może zobrazować sytuację po trzęsieniu ziemi szybko, przyspieszając pracę służb ratowniczych i potencjalnie ocalając życie ludzkie.

Innowacje w dziedzinie komputerów i centrów danych umożliwiają wykorzystanie nadwyżki ciepła i energii generowanej przez urządzenia do ogrzewania budynków zimą i zasilania klimatyzacji latem. Czy możesz sobie wyobrazić, że energia, jaką konsumują centra danych na całym świecie, mogłaby zostać ponownie wykorzystana na potrzeby miasta? Do 50% energii wykorzystywanej przez nowoczesne centra danych przeznaczane jest na chłodzenie urządzeń. Większość ciepła jest marnowana, ponieważ ulatnia się do atmosfery. Nowe technologie, takie jak nowoczesne chipowe systemy chłodzenia wodą stworzone przez IBM umożliwiają ponowne wykorzystanie energii cieplnej z klastra procesora komputerowego do podgrzewania wody w biurach i w domach. Pilotażowy projekt przeprowadzony w Szwajcarii wykorzystujący system komputerowy wyposażony w taką technologię ma zaoszczędzić do 30 ton emisji dwutlenku węgla rocznie, co jest równe 85 procentowi redukcji tzw. śladu węglowego. Nowatorska sieć mikrostrumienio-

Dojazdy do pracy będą spersonalizowane Wyobraź sobie, że dojeżdżasz do pracy niezakorkowanymi autostradami, niezatłoczonym metrem, bez opóźnień spowodowanych robotami drogowymi i nie martwiąc się o spóźnienie do pracy. W ciągu następnych pięciu lat, zaawansowana technologia analityczna zapewni uzyskanie spersonalizowanych rekomendacji, które znacznie skrócą czas dojazdu do pracy. Systemy adaptacyjne ruchu drogowego będą intuicyjnie przyswajały wzorce podróżowania i zachowania osób, aby zwiększyć bezpieczeństwo podróży i szybciej wyznaczyć trasę podróży. Wykorzystując nowe modele matematyczne i analityczne technologie przewidywania IBM, naukowcy poddadzą analizie całościowej wiele różnych scenariuszy, które mogą mieć wpływ na ustalenie optymalnej trasy codziennego przejazdu do pracy uwzględniając wiele różnych czynników takich jak wypadki drogowe, lokalizacja dojeżdżających do pracy, aktualne i planowane prace drogowe, dni tygodnia o najbardziej nasilonym ruchu drogowym, oczekiwane godziny rozpoczęcia pracy, lokalne wydarzenia, które mogły mieć wpływ na ruch

MARZEC 2011

wych modułów wewnątrz radiatora jest przyczepiona do powierzchni każdego chipa w klasterze komputerowym, co umożliwia pompowanie wody do wewnątrz mikronów półprzewodników. Przepływ wody blisko każdego chipa umożliwia bardziej skuteczne schładzanie. Woda podgrzana do 60oC jest następnie przepompowywana poprzez wymiennik ciepła w celu skierowania ciepła w inne miejsce.




NAUKA W POLSCE

Laser tani i przenośny

Sposób na mikrouszkodzenia...

Naukowcy z Instytutu Chemii Fizycznej PAN i Wydziału Fizyki Uniwersytetu Warszawskiego rozpoczęli prace nad skonstruowaniem nowatorskiego lasera, w którym zostanie wykorzystana wyjątkowa metoda wzmacniania światła. Uczeni liczą, że zacznie on działać na początku 2012 r. W kompaktowym urządzeniu, dzięki wspomnianej metodzie, pojedyncze impulsy laserowe osiągną moc dziesiątków terawatów przy - rekordowych w skali świata - parametrach wzmocnienia.

Urządzenie do wibrotermograficznej detekcji uszkodzeń materiałów, w tym głównie kompozytów, opracował zespół naukowców z Akademii Górniczo-Hutniczej w Krakowie. Metoda pozwala na błyskawiczne wyszukiwania mikrouszkodzeń np. w poszyciach samolotów. Jak poinformował kierownik zespołu badawczego prof. Tadeusz Uhl, jest to pierwsza tego typu technologia opracowana w Polsce. Podobne rozwiązania wdrożyły firmy niemieckie i amerykańskie.

W większości laserów generujących ultrakrótkie impulsy wzmocnienie światła następuje dzięki klasycznej technologii z użyciem kryształów szafiru. Kryształy laserowe mają jednak wiele wad, na przykład silnie się nagrzewają i zniekształcają przekrój wiązki światła. Alternatywą są specjalne wzmacniacze parametryczne. - Nasz cel jest prosty. Chcemy zbudować najbardziej efektywny i kompaktowy parametryczny wzmacniacz światła na świecie - deklaruje dr Yuriy Stepanenko z IChF PAN. Technologię optycznego wzmacniacza parametrycznego NOPCPA (Noncollinear Optical Parametric Chirped Pulse Amplifier) od kilku lat rozwija w Centrum zespół prof. Czesława Radzewicza. Polega ona na efektywnym przekazywaniu energii bezpośrednio z wiązki lasera pompującego do wiązki wzmacnianej. Ponieważ we wzmacniaczu parametrycznym energia nie jest nigdzie gromadzona, nie pojawiają się szkodliwe efekty termiczne, a wzmocnione impulsy mają doskonałe parametry. Wzmacniacz NOPCPA ma przy tym kompaktowe rozmiary: już na długości kilku centymetrów wzmocnienie może sięgnąć setek milionów razy. - Mamy wszelkie podstawy przypuszczać, że nasza metoda wzmacniania światła może w przyszłości pomóc konstruować stosunkowo tanie lasery do akceleracji protonów, na dodatek na tyle zwarte, że byłyby w zasadzie urządzeniami przenośnymi - mówi dr Stepanenko. Lasery o tak dużych mocach można dziś znaleźć tylko w kilku ośrodkach naukowo-badawczych na świecie.

- Nasza metoda jest tak samo dokładna, jak inne dostępne w tym zakresie. Jej podstawowe zalety to, w porównaniu z klasyczną metodą ultradźwiękową, bardzo krótki czas pomiaru wynoszący od kilku do kilkunastu sekund oraz możliwość badania całych konstrukcji bez konieczności demontażu ich na mniejsze elementy - zaznaczył prof. Uhl. Wibrotermograficzna metoda detekcji uszkodzeń bazuje na pomiarze temperatury na powierzchni badanego obiektu przez wysokiej klasy kamerę termowizyjną. Informacja diagnostyczna opracowywana jest przez specjalizowane oprogramowanie komputerowe na podstawie serii zmierzonych obrazów termograficznych. Naukowcy z AGH opracowali dwa typy urządzenia: stacjonarne do użytku w warunkach laboratoryjnych i mobilne do badania dużych konstrukcji, w tym np. samolotów. Wersja finalna urządzenia, która pomyślnie przeszła testy w Polskich Zakładach Lotniczych w Mielcu. Jego rynkowa cena wyniosłaby około 500 tys. zł, podczas gdy urządzenia zagraniczne tego typu kosztują w granicach 1 mln zł.

Dr Yuriy Stepanenko z Instytutu Chemii Fizycznej PAN w Warszawie przy stole optycznym z aparaturą laserową. (Źródło: IChF PAN, Grzegorz Krzyżewski)

…sposób na odporne bakterie Nanomateriały niszczące najbardziej nawet odporne bakterie wywołujące zakażenia wewnątrzszpitalne opracowali naukowcy z Politechniki Wrocławskiej, Akademii Medycznej we Wrocławiu i irlandzkiego University of Limerick. Nowa technologia opracowana przez naukowców polega na pokryciu tkanin nanocząstkami dwutlenku tytanu, które nadają materiałowi właściwości bakteriobójcze. Jak powiedziała dyrektor instytutu inżynierii biomedycznej i pomiarowej na Politechnice Wrocławskiej, prof. Halina Podbielska, pod wpływem światła nanomateriały same z siebie zaczynają niszczyć bakterie. - Gdyby jednak jakaś bakteria nie chciała się odczepić, to pokryty nanocząstkami materiał oczyszczamy w specjalnie przez nas skonstruowanym fotosterylizatorze przy pomocy promieni UV. Oszczędność tego typu działań jest ogromna, bo jednorazowe fartuchy są zużywane w ogromnych ilościach, a nasze tkaniny mogą być używane wielokrotnie - mówiła Podbielska. - Nasz wynalazek może być także wykorzystywany np. do pokrycia ręczników w hotelach i na basenach, krzeseł w gabinetach stomatologicznych, pokrowców siedzeń w samolotach - wyliczała. Prace nad tekstyliami o antybakteryjnych właściwościach prowadzono w ramach konsorcjum realizującego projekt BioElectricSurface, finansowany przez Komisję Europejską. Źródło: PAP - Nauka w Polsce

10

MARZEC 2011


K O M E N TA R Z

Czy jesteśmy w stanie wyobrazić sobie nasze życie bez ropy, gazu i węgla? Paliwa kopalne uruchomiły rewolucję przemysłową i od ponad 200 lat zapewniają nam rosnący komfort codziennego życia. Ten wzrost ma również swoje cienie – towarzyszą mu zmiany klimatu, krajobrazu i życia społecznego. Te z kolei jakość życia zdecydowanie obniżają. Pytanie brzmi, czy można mieć to pierwsze bez tego drugiego? TOMASZ SIOBOWICZ

Oszczędzanie energii nie rozwiąże problemu. Chyba, że towarzyszyć mu będzie zatrzymanie rozwoju gospodarczego. To, co jesteśmy w stanie zaoszczędzić dzisiaj, jutro zostanie pochłonięte przez wzrastający popyt u nas do spółki z popytem w krajach coraz szybciej rozwijających się. Co oczywiście nie oznacza, że nie mamy oszczędzać. Ale to o wiele za mało. Perspektywa świata, w którym ani węgiel, ani ropa, ani gaz nie są już dłużej źródłami energii, nie musi nas jednak przerażać. Taki świat wcale nie musi oznaczać ani droższego ani mniej wygodnego życia od tego, które wiedziemy teraz. Podwaliny pod taki właśnie świat (czy będzie

nowy i wspaniały, to się dopiero okaże) kładą nowatorskie pomysły inżynierów, fizyków i biologów, przybierając realne kształty w ich laboratoriach i projektach w coraz większej skali. Choć wizje świata z bateriami słonecznymi i turbinami wiatrowymi czy elektrycznymi samochodami wydają się nie do końca przekonujące – ci, którzy już niedługo zaczną nas nimi kusić, tym razem mówią serio. Choć wielu z nich korzysta z ekologicznego parawanu, bardziej lub mniej poważnie pochodząc do tego elementu całej układanki, ich prawdziwym motorem działania jest ekonomia. I mając na uwadze rynkowy wymiar swoich działań wiedzą doskonale, że aby te alternatywne scenariusze mogły się ziścić, muszą być przynajmniej równie tanie i łatwe w zastosowaniu, jak w modelu, który próbują zastąpić. Należy też pamiętać, że szalę ekonomicznej opłacalności na korzyść alternatywnych źródeł energii zacznie wkrótce coraz mocniej przechylać „podatek” od elektryczności produkowanej z węgla. Opłaty naliczane za emisje dwutlenku węgla na pewno nie pozostaną bez wpływu na jego cenę, która wówczas może zdetronizować „czarne złoto” jako króla taniego prądu. Jednym ze sprzyjających czynników rozwoju nowych technologii i szansą dla nowych producentów jest rosnący popyt na energię. Im większy popyt, tym większy rynek i tym łatwiej znaleźć na

12

nim miejsce nowym, konkurencyjnym technologiom. Drugim czynnikiem jest długi już okres, dzięki któremu udało się przecedzić przez sito gospodarki wiele pomysłów i opcji na „technologie jutra”. Nikt na razie nie traktuje poważnie scenariusza rozwoju energetyki jądrowej opartej na syntezie jądrowej. Niemniej kolejne generacje reaktorów już niedługo staną się awangardą nowego renesansu jądrowego. Entuzjazm dla silników wodorowych również powoli opada. Ale za to postępy w technologiach pozyskiwania energii ze słońca i wiatru, w postaci na przykład elementów mikrosieci energetycznej, zaczynają być coraz bardziej realne i kuszące. Już dziś całe rzesze inżynierów pracują nad ulepszaniem tych oraz innych technologii wykorzystania alternatywnych źródeł energii, które staną się początkiem przewrotu może nawet większego niż rozwój technologii informacyjnych pod koniec XX wieku. Czy ten przewrót nastąpi dostatecznie szybko, by zapobiec poważnym zmian ziemskiego klimatu, jeszcze nie wiadomo. Wiadomo natomiast, że bez alternatywnych źródeł energii raczej się to nie uda. Można oczywiście mieć zastrzeżenia, bo w końcu słońce świeci tylko od świtu do zmierzchu i tylko gdy na niebie nie ma chmur, a zmienność wiatru jest przysłowiowa. Ta zmienność pogody w systemach energetycznych musi być brana pod uwagę i wspierana tzw. elektrowniami rezerwowymi, które uzupełnią w sieci energię, gdy wiatr ucichnie lub słońce schowa się za chmury. Te elektrownie, w kraju tak nieobdarzonym górskimi rzekami, jak nasz i polegającym na produkcji rolniczej na cele spożywcze, raczej nie będą elektrowniami wodnymi lub opalanymi biomasą. Aby ekonomicznie móc uzupełniać kaprysy aury, potrzebne jest coś pewniejszego. A żeby móc to robić ekologicznie, dobrze by było nie emitować przy okazji zbyt dużych ilości dwutlenku węgla. Przy tak okrojonych możliwościach wybór mamy niewielki. Dlatego nie „opłaca się” obrażać ani na alternatywne (do kopalnych) źródła energii, ani na energetykę jądrową. Bo może się okazać, że podczas szukania wiatru w polu, zawieje on nam w oczy dwutlenkiem węgla z elektrowni rezerwowych. A gdy będziemy czekać na to, by elektrownie atomowe podjęły wyzwanie rosnącego popytu, może się okazać, że nasze szanse na spowolnienie zmian klimatu przeminą z wiatrem. Energetyka to potężny interes. Obecnie ludzkość pochłania około 15 terawatów energii rocznie, czyli mniej więcej tyle, ile może wyprodukować prawie 3400 elektrowni wielkości naszego Bełchatowa. Oznacza to w przybliżeniu 6 bilionów dolarów, a według ostrożnych prognoz ilość terawatów, które zużyjemy w 2050 roku, ma się mniej więcej podwoić. Tak więc jest wiele terawatów do wytworzenia i wiele pieniędzy do zarobienia. Jeśli przy okazji uda się uratować planetę – tym lepiej.

MARZEC 2011


FAKTY

Za początkowy moment historii energetyki jądrowej uważa się, trochę przypadkowe zresztą, rozszczepienie jąder uranu dokonane przez Otto Hahna i Fritza Strassmana w grudniu 1938 roku. Energię jądrową pozyskuje się głównie w wyniku rozszczepienia jąder atomowych w reaktorach jądrowych w elektrowniach jądrowych i na okrętach jądrowych. Reakcje te mają charakter łańcuchowy - produkty reakcji (w tym głównie neutrony) mogą zainicjować kilka następnych. Aby uniknąć lawinowego wzrostu szybkości reakcji, reaktor dzieli się na strefy wypełnione na przemian paliwem, chłodziwem oraz moderatorem, czyli substancją spowalniającą neutrony. Szybkość reakcji kontrolowana jest m.in. przez zmianę wzajemnego położenia lub proporcji tych składników, a także przez wprowadzanie dodatkowych substancji po-

chłaniających lub spowalniających neutrony, zawartych w tzw. prętach regulacyjnych (służących do normalnej regulacji parametrów reakcji) oraz prętach bezpieczeństwa (stosowanych do awaryjnego wyłączania reaktora). W chwili obecnej na świecie pracuje blisko 440 reaktorów energetycznych o łącznej mocy elektrycznej ponad 370 GW, wśród nich nieco ponad 60% stanowią reaktory typu PWR, trochę ponad 20% reaktory BWR, ok. 10% reaktory HWR oraz po ok. 4% od dawna nie budowane reaktory brytyjskie gazowo – grafitowe i post radzieckie reaktory wodno – grafitowe.


FAKTY

Pierwszy reaktor (uranowo-grafitowy) zwany CP-1 zbudowany został na Uniwersytecie w Chicago pod kierunkiem włoskiego uczonego Enrico Fermiego. Pierwsza kontrolowana reakcja łańcuchowa została w nim zapoczątkowana 2 grudnia 1942.Pierwsze reaktory składały się właśnie z cylindrycznych kawałków uranu wprowadzanych do dużych bloków grafitu, który służył jako moderator.Początkowo rozwój techniki reaktorowej dokonywał się, niestety, pod-

kątem jej wykorzystania do celów militarnych.

Reaktor ZIP, w pobliżu Idaho Falls jako pierwszy w świecie dostarczył energii elektrycznej. 20 grudnia 1951 r. o godz. 13.23 zapaliły się pierwsze cztery 200 W żarówki. Obecnie ilość energii elektrycznej wyprodukowanej w elektrowniach jądrowych stanowi 16% ÷ 17% całkowitej produkcji elektryczności na świecie, choć są kraje, w których bloki z reaktorami jądrowymi dostarczają większość tej energii, np. we Francji blisko 80%, w Słowacji zaś po-

nad 50%. Najwięcej energii elektrycznej uzyskuje się z energetyki jądrowej w USA (rocznie 527 TWh, 103 reaktory) i Francji (260 TWh, 59 reaktorów). Potęgami są tu również Japonia (55) i Rosja (31). Największy udział energetyki jądrowej w produkowanej energii elektrycznej mają obecnie[1]: Francja (78%), Belgia (54%), Korea Południowa (39%), Szwajcaria (37%), Japonia (30%), USA (19%), Rosja (16%).

W zdecydowanej większości elektrowni jądrowych energia rozszczepienia wzbogaconego uranu jest odbierana przez wodę, która w zależności od reaktora: odparowuje (reaktory wrzące BWR) lub nie (jeśli jest pod wysokim ciśnieniem - reaktory ciśnieniowe PWR i WWER).


FAKTY

W przyszłości naukowcy planują wykorzystywać jako paliwo jądrowe tor. W wyniku rozszczepienia toru powstają

jądra atomowe o mniejszej masie niż przy rozszczepieniu uranu lub plutonu i jest wśród nich więcej jąder trwałych.

Obecnie w budowie znajduje się prawie 50 reaktorów energetycznych o łącznej mocy ponad 40 GW, co świadczy o widocznym „renesansie” energetyki jądrowej. Do

2030 przewiduje się wzrost mocy elektrowni jądrowych na świecie do 473 GW (w wariancie optymistycznym nawet do 748 GW).


Budo wa elek trow ni jądro wych w Po lsce będz ie koni eczn a?


Fuku shim a a spr awa pols ka


RAPORT

Awaria w japońskiej elektrowni jądrowej Fukushima doprowadziła do dyskusji na temat zasadności rozwoju energetyki jądrowej w Polsce. Gdyby nie polityka energetyczna Unii Europejskiej elektrownie jądrowe nie musiałyby w Polsce szybko powstawać. Niewiele jest rzeczy, co do których zgadzałaby się wszystkie partie zasiadające w parlamencie. Jedną z nich jest rozwój energetyki jądrowej. W „Programie dla elektroenergetyki”, przyjętej w marcu 2006 r. przez rząd Kazimierza Marcinkiewicza, jest mowa o tym, że do nowych technologii, które zmniejszą oddziaływanie energetyki na środowisko i poprawia sprawność wytwarzania (i które zostaną przeanalizowano pod kątem możliwości ich zastosowania w Polsce) należy także wytwarzania energii elektrycznej w elektrowniach jądrowych. Kolejny premier z PiS, Jarosław Kaczyński, także wprost mówił o potrzebie rozwoju energetyki jądrowej w Polsce. Drogą jądrową poszła także koalicja PO z PSL. W listopadzie 2009 r. Rada Ministrów przyjęła „Politykę energetyczną Polski do 2030 roku”, gdzie wśród 6 podstawowych kierunków polskiej polityki energetycznej znalazła się także dywersyfikacja struktury wytwarzania energii elektrycznej poprzez wprowadzenie energetyki jądrowej. Po co Polsce atom?

Polska należy do czołówki krajów Unii Europejskiej jeśli chodzi o poziom bezpieczeństwa energetycznego. Blisko 95 proc. energii elektrycznej wytwarzanej jest z krajowych surowców energetycznych (głównie węgiel kamienny i brunatny, w znacznie mniejszym stopniu biomasa, elektrownie wodne i wiatrowe), także ok. 30 proc. zużywanego gazu ziemnego pochodzi z krajowego wydobycia. Struktura wytwarzania energii elektrycznej, oparta na krajowych paliwach, mogłaby być w Polsce jeszcze długo utrzymana gdyby nie polityka energetyczna Unii Europejskiej. Jednym z głównych celów polityki energetycznej jest zmniejszenie wpływy energetyki na środowisko naturalne, a w tym redukcja emisji gazów cieplarnianych. Jako, że energetyczne wykorzystywanie węgla, przy wykorzystaniu obecnie dostępnych technologii, jest bardziej emisyjne niż np. produkcja energii z innych źródeł, oznacza to, że w praktyce polityka energetyczna UE uderza bezpośrednio w węgiel. Ostatnim przejawem tej polityki jest przyjęta przez Komisję Europejską marca br. Mapa drogowa, która proponuje zmniejszenie emisji gazów cieplarnianych przez Unię Europejską o 80-95 proc. do roku 2050 w porównaniu z poziomem z roku 1990. Z wyliczeń KE wynika, że stworzenie nowej, unijnej gospodarki

18

niskoemisyjnej będzie wymagało w ciągu nadchodzących 40 lat dodatkowych inwestycji rocznych sięgających 1,5 proc. PKB UE, czyli 270 mld euro, poza bieżącymi inwestycjami wynoszącymi 19 proc. PKB. Obawiając się politycznego wpływu na wytwarzanie energii elektrycznej z węgla koncerny energetyczne rezygnują stopniowo z tego typu inwestycji. Także w Polsce ta tendencja jest widoczna, wiele inwestycji w bloki węglowe, które jeszcze niedawno zapowiadano, nie

powstanie. Zamiast tego coraz częściej mówi się o budowie bloków gazowych - takie inwestycje planują m.in. Polska Grupa Energetyczna, Tauron, Energa i Fortum. Jeszcze niedawno jako niskoemisyjną alternatywę dla węgla postrzegano także energetykę jądrową.

Czy jest się czego bać?

Po awarii w elektrowni Fukushima uaktywnili się przeciwnicy energetyki jądrowej, zarówno ze środowisk ekologicznych jak i z samej energetyki. Przekonują, że wydarzenia w Japonii są dowodem, że nie ma czegoś takiego jak bezpieczna elektrownia jądrowa, że awarie w elektrowniach jądrowych są tylko kwestią czasu. Dlatego też w Polsce nie powinny być budowane elektrownie jądrowe. Zwolennicy energetyki jądrowej przekonują dla odmiany, że elektrownie jądrowe są bardzo bezpieczne, a awaria w elektrowni Fukushima była spowodowana wyjątkowymi okolicznościami. - Nie ulega wątpliwości, że możliwość podobnego zdarzenia w Polsce jest całkowicie wykluczona ze względu na warunki lokalizacyjne, możliwe do zastosowania technologie a także opracowane przez rząd nowe przepisy bezpieczeństwa jądrowego - zapewnia Ministerstwo Gospodarki. Resort gospodarki zapewnia, że przy budowie pierwszej polskiej elektrowni jądrowej zastosowana będzie - bez względu na wybór dostawcy - nowa generacja reaktorów III lub III+. Różnią się one zasadniczo od eksploatowanych już od ok. 40 lat w Fukushimie reaktorów II generacji. Nowe typy reaktorów charakteryzuje uwzględnienie już na etapie projektowania nawet najmniej prawdopodobnych awarii. Na

rynku są dostępne m.in. technologie wyposażone w tzw. pasywne systemy bezpieczeństwa, które w przypadku awarii nie potrzebują zasilania w energię elektryczną, gdyż większość procesów koniecznych do wyłączenia reaktora i schłodzenia rdzenia odbywa się z wykorzystaniem naturalnych zjawisk przyrody takich jak grawitacja, konwekcja

MARZEC 2011


MIEJSCA ROZWAŻANE NA LOKALIZACJĘ POLSKIEJ ELEKTROWNI ATOMOWEJ 1 BEŁCHATÓW, woj, łódzkie 2 CHEŁMNO, woj. kujawsko-pomorskie 3 CHOCZEWO, woj. pomorskie 4 CHOTCZA, woj. lubelskie 5 DĘBOGÓRA, woj. zachodniopomorskie 6 GOŚCIERADÓW, woj. lubelskie 7 KAROLEWO, woj. kujawsko-pomorskie 8 KOPAŃ, woj. pomorskie 9 KOZIERNICE, woj. mazowieckie 10 KRZYMÓW, woj. zachodniopomorskie 11 KRZYWIEC, woj. zachodniopomorskie 12 LISOWO, woj. zachodniopomorskie 13 LUBATOWO-KOPALINO, woj . pomorskie 14 MAŁKINIA, woj. mazowieckie

8 22 19 18 5 10

21

15 NIESZAWA, woj. kujawsko-pomorskie 16 NOWE MIASTO, woj. mazowieckie 17 PĄTNÓW, woj. wielkopolskie 18 PNIEWO, woj. zachodniopomorskie 19 PNIEWO-KRAJNIK, woj. zachodniopomorskie 20 POŁANIEC, woj. świętokrzyskie 21 STEPNICA 1, woj. zachodniopomorskie 22 STEPNICA 2, woj. zachodniopomorskie 23 TCZEW, woj. pomorskie 24 WARTA-KLEMPICZ, woj. wielkopolskie 25 WIECHOWO, woj. zachodniopomorskie 26 WYSZKÓW, woj. mazowieckie 27 ŻARNOWIEC, woj. pomorskie 28 ? (w trakcie lokalizacji), woj. podlaskie

13 27 3 23

11 12 25

2

28 15

24

7

17

16

26

14

9 4

1

6

20

lokalizzacje z lat 80. XX wieku nowe propozycje

MARZEC 2011

19


RAPORT

naturalna czy różnice ciśnień. Według Ministerstwa Gospodarki, gdyby reaktory elektrowni Fukushima I zostały zaprojektowane według obowiązujących dziś standardów, do obserwowanych tam awarii najprawdopodobniej w ogóle by nie doszło. Jednym skutkiem trzęsienia ziemi i tsunami byłoby automatyczne, planowe wyłączenie reaktorów, po którym nastąpiłoby stopniowe schłodzenie rdzeni. Dodatkowo Polska, w przeciwieństwie do Japonii, jest krajem wolnym od zagrożeń o charakterze sejsmicznym. Resort gospodarki przypomina, że trzęsienie ziemi w Japonii miało 9 stopni w skali Richtera,

było wydarzeniem bez precedensu w historii nowoczesnej cywilizacji technicznej. Przeciwnicy energetyki jądrowej oceniają jednak, że technologie jądrowe generacji III lub III+ są niesprawdzone. - Na świecie nie ma jeszcze ani jednego działającego reaktora generacji III+. Pierwsze reaktory tego typu są dopiero w trakcie budowy: Olkiluoto 3 w Finlandii i Flamanville 3 we Francji. Fiński regulator ds. bezpieczeństwa atomowego STUK wykrył ponad 3 tys. naruszeń zasad bezpieczeństwa w Olkiluoto 3, przez co budowa opóźnia się już o ponad trzy lata i przekroczyła planowany budżet o miliardy euro. Podobnie sprawa wygląda we Francji - mówi Jan Haverkamp, ekspert

20

Greenpeace ds. energetyki atomowej. Bloki Olkiluoto 3 i Flamanville 3 zostaną wyposażone w reaktory EPR, oferowane przez francuski koncern Areva. Ten typ reaktora jest także jednym z trzech, który może zostać wykorzystany w pierwszej polskiej elektrowni jądrowej. Dwa pozostałe reaktory, jakie mogą być wykorzystane w Polsce, to AP 1000 oferowany przez Westinghouse Toshiba i ESBWR produkcji GE Hitachi.

Nikt nic nie wie

Zgodnie z rządowymi planami pierwszy blok jądrowy w Polsce ma zostać oddany do eksploatacji w roku 2020. Nie wiadomo jednak gdzie ten blok miałby powstać, jaką technologię ma wykorzystywać i ile ma kosztować. Polska Grupa Energetyczna, która ma wybudować pierwszą elektrownię jądrową w Polsce już zawarła z wszystkimi trzema dostawcami porozumienia o współpracy. Każdy z potencjalnych dostawców zapewnia, że możliwe jest wybudowanie w Polsce elektrowni jądrowej do 2020 r. w oferowanej przez nich technologii. Muszą być jednak spełnione określone warunki, takie jak m.in. wdrożenie kompleksowych przepisów dotyczących energetyki jądrowej, niezwłoczne utworzenie dozoru jądrowego czy wybudowanie sieci przesyłowych. Te zastrzeżenia sugerują, że termin oddania pierwszego bloku jądrowego w 2020 r. jest bardzo mało realny i nastąpi to kilka lat później. Rząd i PGE szacują, że łączne nakłady na budowę elektrowni jądrowej o mocy ok. 3000 MW wyniosą ok. 35-55 mld zł. Niższa kwota jest jednak całkowicie nierealna. Realne szacunki, podawane przez ekspertów, mówią, że 1000 MW elektrowni jądrowej będzie kosztować ok. 4,5-4,7 mld euro. Licząc 4,5 mln euro za 1 MW, mnożąc razy 3 tys. MW otrzymujemy 13,5 mld euro. Licząc za 1 euro 4 zł. otrzymujemy kwotę ok. 54 mld zł. Jacek Sanocki

MARZEC 2011


5 etapów rozwoju energetyki jądrowej w Polsce teraz - 30 czerwca 2011 r. przyjęcie „Programu polskiej energetyki jądrowej” przez rząd oraz uchwalenie i wejście w życie przepisów prawnych niezbędnych do rozwoju i funkcjonowania energetyki jądrowej

1 lipca 2011 r. – 31 grudnia 2013 r. ustalenie lokalizacji i zawarcie kontraktu na budowę pierwszej elektrowni jądrowej

1 stycznia 2014 r. – 31 grudnia 2015 r. wykonanie projektu technicznego i uzyskanie wymaganych prawem uzgodnień

1 stycznia 2016 r. – 31 grudnia 2020 r. wydanie pozwolenia na budowę i budowa pierwszego bloku pierwszej elektrowni jądrowej, rozpoczęcie budowy kolejnych bloków/elektrowni

1 stycznia 2021 r. – 31 grudnia 2030 r. kontynuacja i rozpoczęcie budowy kolejnych bloków/elektrowni jądrowych

MARZEC 2011

21


Uranu nam nie zabraknie

(tak szybko jak węgla) Rozmowa z doc. dr inż. Andrzejem Strupczewskim, przewodniczącym Komisji Bezpieczeństwa Jądrowego Instytutu Energii Atomowej w Świerku, wiceprezesem Stowarzyszenia Ekologów na Rzecz Energii Nuklearnej SEREN


Wybiegnijmy w przyszłość – skąd na naszym globie będziemy czerpać energię za 20, 50, 100 lat? Do połowy XXI wieku dominującą rolę będzie nadal grał węgiel i gaz, chociaż uważam, że paliwa organiczne – ropa, gaz, węgiel powinny pozostać na dalsze setki lat jako cenne źródła surowców chemicznych. Rola energetyki jądrowej i energii odnawialnych będzie rosła, ale nadal będą one dawały mniej energii niż surowce organiczne. W perspektywie drugiej połowy XXI wieku – energetyka jądrowa jako źródło energii pracujące w podstawie obciążenia, z wprowadzeniem IV generacji reaktorów i zamkniętym cyklem paliwowym, energetyka odnawialna wykorzystywana w tak dużym stopniu jak można. W dalszej perspektywie – energia z reakcji syntezy, ale nie sądzę, by zastosowania na skalę przemysłową były możliwe przed drugą połową XXI wieku.


RAPORT

A jakie jest najbardziej wydajne – i równocześnie opłacalne

– źródło energii, którym dysponujemy?

Odpowiedź jest prosta – energia rozszczepienia, dziś z uranu, jutro także z toru. Węgiel byłby jeszcze przez dziesiątki lat konkurencyjny w pewnych rejonach ziemi, ale przy płaceniu opłat za emisję CO2 jest za drogi. Ponadto, jeśli weźmie się pod uwagę koszty zewnętrzne, czyli koszty strat zdrowia ludzi i uszkodzeń środowiska, energia jądrowa jest najtańsza nawet bez uwzględniania opłat za emisję CO2.

W

przypadku węgla sprawa jest prosta – spalając go otrzymujemy ciepło. A na czym polega „tajemnica” energii pochodzącej z pierwiastków radioaktywnych, takich jak uran czy tor? Skąd ona się po prostu bierze? I jak zamienia się w elektryczność, która dociera do naszych domów? Energia uzyskiwana przy rozszczepieniu uranu to skutek przemiany masy w energię, bo przy rozszczepieniu jądra uranu powstają dwa jądra lżejszych pierwiastków i neutrony o łącznej masie mniejszej niż masa jądra uranu. Kolejne fazy przemian tej energii są następujące: Po rozszczepieniu jądra uranu jądra lżejszych pierwiastków oddalają się od siebie z ogromną prędkością, hamują uderzając o inne jądra paliwa i oddają w ten sposób swoją energię tym innym jądrom, czyli powodują ich szybszy ruch, czyli podgrzewają materiał paliwowy. Ciepło od paliwa przejmuje woda, która następnie odparowuje. Para płynie do turbiny, rozprężając się powoduje obroty wirnika turbiny, wirnik powoduje obracanie się rotora generatora elektrycznego, a te obroty rotora powodują wytwarzanie prądu elektrycznego w cewce

stawiają zarzut, że energetyka jądrowa nie jest doskonała, chociaż wcale nie żądają doskonałości od innych źródeł energii. Przykładów jest wiele, wymienię tylko jeden – sprawę subwencji. Gdy państwo np. daje gwarancje dla energetyki jądrowej, przeciwnicy mówią, że jest to nieuczciwa konkurencja, chociaż w całej półwiekowej historii w żadnym państwie te gwarancje nie spowodowały żadnych kosztów dla społeczeństwa (Czarnobyl to osobna i zupełnie inna historia). Natomiast, gdy państwo daje subwencje dla energetyki odnawialnej, powodujące dwukrotny lub trzykrotny wzrost kosztu energii naprawdę płaconego przez społeczeństwo, wtedy uważa się to za naturalne i w pełni słuszne. Tymczasem energetyka jądrowa daje szansę na obniżenie kosztu energii – a energia odnawialna oznacza wzrost tych kosztów. Istotną trudność w dyskusji stanowi również element strachu – przeciwnicy energetyki jądrowej straszą ludność czymś nieznanym. Ci, którzy mają bliższy kontakt z energetyką jądrową nie boją się jej – stąd poparcie społeczne w pobliżu pracujących elektrowni jądrowych, natomiast ludzie mieszkający daleko dają sobie wmówić, że „atom to rak”. Walka ze strachem za pomocą argumentów racjonalnych jest bardzo trudna.

T

RAPORT

o weźmy pod uwagę racjonalność i realizm – jaki procent krajowego zapotrzebowania na energię jesteśmy w stanie zaspokoić w perspektywie najbliższych 10 lat z mających powstać elektrowni jądrowych? Nie wiem, czy pierwsza elektrownia powstanie w ciągu 10 lat. Raczej potrwa to dłużej. Optymistycznie można założyć, że do roku 2030 zbudujemy cztery bloki po 1500 MWe, każdy z nich wytwarzać będzie 12 TWh energii elektrycznej rocznie. Całkowite przewidywane zapotrzebowanie na energię elektryczną około roku 2030 to ponad 200 TWh, już po uwzględnieniu oszczędzania energii. Tak więc cztery bloki jądrowe po 1500 MWe będą dostarczały około 22–25 proc. energii zużywanej w Polsce.

T

o wszystko jednak kosztuje – ogromne są koszty wybudowania nowego reaktora, którego paliwem jest uran, za który też przecież trzeba płacić. Nie należy też zapominać o kosztach i prawnych ograniczeniach związanych z przewozem i utylizacją odpadów radioaktywnych. Podsumowując – ile to wszystko kosztuje?

uzwojenia w statorze generatora. Proces ten jest podobny jak w przypadku elektrowni węglowej.

K

ażde źródło energii wiąże się jednak z określonymi problemami. W przypadku węgla chodzi o zanieczyszczenie powietrza i emisję dwutlenku węgla, przy energii odnawialnej – słonecznej czy pochodzącej z wiatru – nie sposób nie wspomnieć o kłopotach z ciągłością dostaw. A jakie problemy przemysłu jądrowego są najtrudniejsze do rozwiązania? Problemy techniczne są rozwiązane, albo możliwe do rozwiązania. Natomiast najtrudniejszym problemem jest uzyskanie akceptacji społecznej. Nadzieję stwarza fakt, że ta akceptacja jest najwyższa w rejonach wokoło elektrowni jądrowych, gdzie ludzie widzą, że elektrownie są dobrymi sąsiadami, dającymi prąd przy zachowaniu czystego powietrza, wody i gleby. Natomiast dyskusja ogólna z przeciwnikami energetyki jądrowej jest trudna, bo elektrownie jądrowe, jak i wszystkie inne dzieła człowieka, mają nie tylko zalety, ale i wady. W toku dyskusji zwolennicy energetyki jądrowej wzywają – rozważajmy zalety i wady na tle zalet i wad innych źródeł energii. Natomiast przeciwnicy

24

Koszty dla reaktora uranowego III generacji, zabezpieczonego przed wszelkimi awariami, łącznie z atakiem terrorystycznym przy użyciu samolotów, to obecnie 3,25 mln euro za MWe. Dla porównania, dla elektrowni węglowej koszty inwestycyjne to 1,8 mln euro/MW. Natomiast koszty paliwowe dla elektrowni węglowej o mocy 1000 MWe to 150 mln euro rocznie plus 250 mln euro za opłaty za emisję CO2. Dla elektrowni jądrowej o tej samej mocy koszty paliwa wraz z kosztami unieszkodliwiania odpadów i likwidacji elektrowni to około 56 mln euro/rok. Różnica to około 340 mln euro na korzyść elektrowni jądrowej. Koszty unieszkodliwiania odpadów są już w to wliczone – wynoszą one około 1 euro za MWh.

P

ojawia się jednak problem nie tylko lokalizacji tych elektrowni, ale także tego, gdzie mogłoby być składowane paliwo do nich oraz odpady po wypaleniu w reaktorach? Czy te lokalizacje będą konsultowane ze społeczeństwem? Obecnie w Polsce zgłoszono 28 miejscowości, które chcą mieć elektrownie jądrowe. Największe szanse ma Żarnowiec, ale i pozostałe mają gorących orędowników. Paliwo dla elektrowni jądrowej to zaledwie 20 ton dla bloku 1000 MWe przez rok, składowane jest więc bez trudu w samej elektrowni, również odpady po wypaleniu paliwa są tam początkowo składowane. Oczywiście wszystkie lokalizacje są i będą konsultowane ze społeczeństwem. Docelowo paliwo wypalone w elektrowni będzie przesyłane do recyklingu, to jest będzie z niego oddzielany uran, pluton, ameryk i inne aktynowce, a pozostałe materiały

MARZEC 2011


RAPORT

– czyli produkty rozszczepienia, jak cez czy stront – będą unieszkodliwiane i przesyłane na składowisko. Takie składowisko pracuje od 50 lat w Różanie, a kontrole prowadzone przez dwie różne i niezależne od producenta organizacje wykazały, że nie ma zanieczyszczenia powietrza, wody ani gleby, a ludzie są zdrowi.

W

podwojenie kosztu uranu nie spowoduje zauważalnego wzrostu ceny energii elektrycznej. Nasze złoża należą wprawdzie do ubogich, ale niektóre z nich (Wambierzyce, Grzmiąca, Okrzeszyn) mają szczególną zaletę. Są to złoża pokładowe, o w miarę jednolitym charakterze, co umożliwia ich regularną eksploatację przez dziesiątki lat.

szystkie czynności związane z budową, działaniem i likwidacją elektrowni atomowej ktoś musi wykonać. Czy mamy w Polsce odpowiednio wykształconą na potrzeby budowy i eksploatacji elektrowni atomowej kadrę fachowców?

dyby miał Pan zarekomendować polskiemu rządowi rozwiązanie z zakresu energetyki jądrowej, to poleciłby...?

Nie, nie mamy, ale możemy i musimy wykształcić odpowiednią liczbę inżynierów i techników. Ponadto mnóstwo Polaków pracuje na budowach elektrowni jądrowych zagranicą, np. w Olkiluoto na 4000 pracowników budujących reaktor EPR aż 3000 to Polacy! I to z kierownikiem budowy włącznie.

Reaktory EPR i AP 1000 są różne, ale zapewniają podobny poziom bezpieczeństwa. Zaleciłbym rządowi przeprowadzenie przetargu i zawarcie umowy z Francją lub USA w zależności od wyników przetargu, obejmujących nie tylko cenę, ale i gwarancje udziału polskiego przemysłu w dostawach dla elektrowni.

W

energetyce ważną kwestią jest samowystarczalność państwa. Jak długo bylibyśmy w stanie zaspokajać nasze krajowe zapotrzebowanie na energię korzystając z reaktorów, których paliwem byłby uran? Czy w przypadku energetyki jądrowej można mówić o niezależności energetycznej Polski? Uranu na świecie wystarczy przy obecnej technologii na ponad 200 lat, a przy uwzględnieniu postępu technologicznego – na dziesiątki tysięcy lat. W skali całej Polski łączne zasoby rozpoznane i prawdopodobne to około 100 000 ton uranu naturalnego, a więc dość dla każdego przewidywalnego programu nuklearnego w naszym kraju. Obecnie wydobycie tego uranu byłoby nieopłacalne, bo tańszy uran możemy kupić z wielu krajów, np. z Australii, Kanady czy Namibii, ale w dyskusji aspektów strategicznych warto zdawać sobie sprawę, że Polska może mieć własny uran. Wielkość składowej uranowej w cenie elektryczności z elektrowni jądrowej jest mała – około 5 proc., a więc nawet

MARZEC 2011

G

P

odsumowując – jak odpowiedziałby Pan na pytanie Kowalskiego: „No dobrze, ale co ja będę miał z tej energii atomowej?” Tanią energię elektryczną po gwarantowanej cenie przez 60 lat, a przy tym czyste powietrze, czystą wodę i glebę. A poza tym ważne jest zachowanie surowców organicznych dla naszych wnuków. Uran przydaje się tylko do rozszczepienia, a więc zużywając go w elektrowni jądrowej robimy to, co zrobią z nim także i moje wnuki. Natomiast węgiel czy gaz to cenne surowce dla chemii, farmakologii itd. Nie wolno ich bezmyślnie spalać! Odtworzenie tych zasobów będzie bardzo kosztowne i trudne. Rozmawiał: Tomasz Siobowicz

25


TEKST: TOMASZ SIOBOWICZ


NAUKOWO

„Epoka atomu posuwa się naprzód w takim tempie, że każdy obywatel świata powinien mieć pewne zrozumienie, a przynajmniej ogólne wyobrażenie, co do stopnia tego rozwoju o tak ogromnym znaczeniu dla każdego z nas.” Fragment przemówienia Dwighta D. Eisenhowera “Atomy dla pokoju” wygłoszonego przed Zgromadzeniem Ogólnym Narodów Zjednoczonych na temat Pokojowego Wykorzystania Energii Atomowej, Nowy Jork, 8 grudnia 1953. W momencie gdy prezydent Eisenhower wygłaszał tą mowę wykorzystanie technologii jądrowej zdążyło już przeżyć wzloty zachwytów nad samowystarczalnością energetyczną i niską ceną elektryczności i upadki militarnego użycia i katastrofy w elektrowni zapadając w świadomość opinii publicznej. W chwili obecnej na naszych oczach energetyka atomowa odradza się w kolejnym renesansie swojej popularności. Dziś priorytetem nie jest walka z wrogim

mocarstwem i dążenie do utrzymania przewagi militarnej. Najważniejszą bieżącą kwestią jest nie dopuścić do rozprzestrzenienia się broni jądrowej, podnieść wydajność obecnie istniejących instalacji i wykorzystywanych w nich procesów, zredukowanie istniejących arsenałów nuklear-

MARZEC 2011

nych oraz znalezienie sposobu na zmniejszenie ilości powstających odpadów radioaktywnych. Te nowo wytyczone cele to jednocześnie trendy w projektowaniu reaktorów nowych generacji. Ich rozwój jest wspierany między innymi przez Międzynarodowe Forum IV Generacji (MFG), w którego skład wchodzą Stany Zjednoczona, Argentyna, Brazylia, Wielka Brytania, Kanada, Chiny, Francja, Japonia, Rosja, Południowa Afryka, Korea Południowa, Szwajcaria oraz Euratom – europejska organizacja zajmująca się współpracą w dziedzinie technologii jądrowych. MFG sporządziło listę sześciu najbardziej obiecujących projektów, które obejmują unowocześnione wersje istniejących reaktorów ale także zupełnie inne rozwiązania. Pierwsze cywilne reaktory jądrowe weszły do użycia w latach 50 ubiegłego wieku. Były one oparte na projektach reaktorów wojskowych skonstruowanych z myślą o produkcji materiału rozszczepialnego na potrzeby zbrojeniowe oraz jako napęd dla jednostek pływających. Te generatory „I generacji” były reaktorami wodnymi, ciśnieniowymi (typu PWR – pressurised water reaktor) i na nich wzorowano się przy budowie reaktorów „II generacji”, które stanowią większość z pośród reaktorów pracujących obecnie. W cyklu pracy większości z tych reaktorów paliwo jest wykorzystywane w rdzeniu reaktora jednokrotnie a pozostałości po jego „wypaleniu” są usuwane i umieszczane na składowisku. Odpady promieniotwórcze stanowią problem w związku z czasem potrzebnym do zaniku ich szkodliwości dla otoczenia ale kryją w sobie też pewne możliwości. Wykorzystane w cyklu reaktorowym paliwo w dalszym ciągu zawiera znaczne ilości uranu oraz pluton, który uformował się w rdzeniu reak-

„Mam nadzieję, że dzięki naszemu projektowi państwo Kowalscy będą mogli korzystać z tańszej energii elektrycznej wytwarzanej w polskich reaktorach energetycznych” - przekonuje profesor Stefan Chwaszczewski, kierownik „Thorium Project”.

tora podczas reakcji jądrowych. Jaki ma to związek a nowymi modelami elektrowni jądrowych i przyszłością tych już istniejących? Najbliższa przyszłość, w odniesieniu do ilości pracujących obecnie elektrowni atomowych, bę-

27


NAUKOWO

dzie należała w dalszym ciągu do reaktorów typu PWR. Ale już w niedługim czasie zacznie funkcjonować coraz więcej reaktorów „generacji III” i „generacji III+”. Są one modyfikacjami reaktorów „II generacji” jednak w ich konstrukcji i działaniu poprawiono kwestie związane z efektywnością termiczną, bezpieczeństwem oraz ekonomiką wykonania. Co więcej w cyklu paliwowym mogą one wykorzystywać jako domieszkę również uran i pluton wyekstrahowany z ‘przepracowanego’ paliwa. Jednak i ta technologia nie pozostaje bez wad, jak uważają jej krytycy, wskazując na wysokie koszty ekstrakcji uranu i plutonu z ‘wypalonego’ paliwa oraz towarzyszące temu ryzyko związane z możliwością rozprzestrzeniania materiału do produkcji broni jądrowej. Stąd sześć najbardziej obiecujących projektów nowej „IV generacji” wskazanych przez (MFG) spośród początkowej listy ponad 100 propozycji odchodzi zdecydowanie od modeli, w których paliwo przechodzi przez jednokrotny cykl reaktorowy, dominujących w pracujących w tej chwili elektrowniach. Istniejące obecnie reaktory wykorzystują reakcje zachodzące w rdzeniu reaktora do podgrzania wody krążącej w pierwotnej pętli (obieg I – primary loop) reaktora. Podgrzewa ona następnie wodę krążącą w pętli wtórnej (obieg II – secondary loop), doprowadzając ją do wrzenia. Para wyprodukowana w tej pętli (obieg II) napędza turbiny, które obracając się wytwarzają prąd elektryczny. W tej konstrukcji woda jest wykorzystywana w obydwóch pętlach – w pętli wtórnej (obieg II) jako czynnik chłodzący (chłodziwo)

oraz w pętli pierwotnej (obieg I) jako czynnik spowalniający neutrony (moderator). A oto jak różnią się zaproponowane modele reaktorów „IV generacji”. Pierwszy z nich to reaktor, który różni się od „klasycznego” tym, że mamy w nim do czynienia z wodą w stanie nadkrytycznym (SCWR – supercritical water-cooled reaktor), tzn. wodą o wysokiej temperaturze (ponad 374 stopnie Celsjusza) oraz pod wysokim ciśnieniem (ponad 22 MPa). Zaletą tego rozwiązania jest możliwość

28

wyeliminowania obiegu wtórnego, co dzięki prostocie budowy pozwala obniżyć koszty a także osiągnąć wysoką sprawność cieplną. Wadą jest

konieczność opracowania nowych materiałów do budowy rdzenia i obiegów reaktora, które byłyby w stanie podołać panującym w nich warunkom ciśnienia i temperatury. Drugi z projektów to reaktor, który jako chłodziwo (obieg II) wykorzystuje hel, a jako moderator grafit. Pracuje przy zdecydowanie wyższych temperaturach niż model „klasyczny” (rzędu 1000 stopni Celsjusza) i osiąga bardzo wysoką sprawność (ponad 50%). Od wysokiej temperatury bierze zresztą swoją nazwę (VHTR – Very High Temperature Reactor). Stąd zresztą wynikają również wady tego projektu – potrzeba materiałów będących w stanie wytrzymać pracę przy tej temperaturze. Kolejne trzy rozwiązania to tak zwane reaktory prędkie (w których reakcja rozszczepiania wywoływana jest przez tzw. neutrony prędkie), które

nie zawierają moderatora. Jako medium chłodzące wykorzystują sód (SFR – sodium-cooled Fast reaktor), hel (GFR – Gas-cooled Fast Reactor) lub ołów (LFR – lead-cooled fast reaktor). Te trzy modele są w stanie wykorzystywać do wytwarzania energii „wypalone” paliwo co przyczynia się do powstawania mniejszej ilości odpadów. W stosunku do tych rozwiązań poważnym zastrzeżeniem jest możliwość uzyskiwania w cyklu eksploatacyjnym plutonu, co rodzi obawy związane z rozprzestrzenieniem broni jądrowej.

MARZEC 2011


NAUKOWO

W ostatnim, szóstym z proponowanych reaktorów, paliwo jest rozpuszczone w roztworze fluorków a ten działa jako chłodziwo. Moderatorem w tym układzie grafit. Zaletą tego rozwiązania jest możliwość ciągłego uzupełniania paliwa, co pozwala na wykluczenie przerw w pracy reaktora potrzebnych na wymianę paliwa. Zaletą jest również możliwość wykorzystania toru w cyklu paliwowym reaktora. Do tego by reaktor ten mógł pracować w oparciu o tor, pierwiastek ten musi być najpierw napromieniowany i ulec przemianie w uran by móc służyć jako paliwo. Z tym ostatnim rozwiązaniem, w którym wykorzystuje się jako paliwo tor wiąże się spore nadzieje. Jest to rozwiązanie, od zastosowania którego dziali nas jeszcze dość dużo czasu – przewiduje się możliwość budowy takich systemów od około 2025 roku. Zatem jest to jeszcze dość odległa przyszłość energetyki jądrowej. Pomimo tego, że Polska nie jest atomowym potentatem, z tym przyszłościowym rozwiązaniem, jakim jest wykorzystanie toru w reaktorze jądrowym, stykamy się już dziś. W Instytucie Energii Atomowej POLATOM w dzielnicy Otwocka – Świerku w kwietniu ubiegłego roku rozpoczęły się prace w ramach projektu „Analiza efektów wykorzystania toru w jądrowym reaktorze energetycznym”. A zaczęło się: „...od spotkania i dyskusji z wiodącymi naukowcami amerykańskiej firmy Thorium Power, którzy przedstawili nam zalety oraz także wady stosowania toru w energetyce jądrowej” – mówi profesor Stefan Chwaszczewski, kierownik „Thorium Project” prowadzonego w Instytucie. „Pierwsze próby wykorzystania toru w reaktorze jądrowym rozpoczęto w 1966 r. w USA uruchamiając wysokotemperaturowy reaktor chłodzony helem (HTGR – High Temperature Gas cooled Reactor) – Peach Bottom. Jednocześnie, w tym samym roku w RFN uruchomiono reaktor podobnego typu AVR. Paliwem tych reaktorów był uran i tor. W 1969 roku, w USA, zastosowano tor w projekcie reaktora na stopionych solach. Problemy materiałowe, związane z korozją układów reaktora poddanych działaniu fluorków uranu i fluorków toru z wysoką temperaturą spowodowały zamknięcie tego projektu. W 1977 roku w USA uruchomiono energetyczny reaktor HTGR – Fort St-Vrain, a w 1985 reaktor HTGR – THTR (Thorium High Temperature Reactor), z wykorzystaniem toru jako materiału paliworodnego. Reaktor Peach Bottom został wyłączony z eksploatacji w 1975 roku natomiast reaktory AVR, Fort St-Vrain i THTR zostały wyłączone z eksploatacji w latach 1987 – 1989 w wyniku załamania się programu energetyki jądrowej po katastrofie reaktora w Czarnobylu. Obecnie, program wykorzystania toru w energetyce jądrowej jest intensywnie rozwijany w Indiach, dysponujących dużymi złożami toru. Tor jest wykorzystywany razem z paliwem uranowym w zmodyfikowanych, ciężkowodnych rektorach reaktorach energetycznych. Jako wielkie osiągnięcie ogłoszono, że osiągnięto w tych reaktorach 75% wytwarzanej energii w paliwie wy-

MARZEC 2011

tworzonym z przemian jądrowych toru. Ostatnio, w Federacji Rosyjskiej trwają prace (finansowane przez amerykańską firmę Thorium Power) nad wykorzystaniem toru w reaktorach energetycznych VVER.” Projekt torowy realizowany w Świerku ma przynieść odpowiedzi na wiele pytań, które stawiają sobie obecnie uczeni i firmy energetyczne na całym świecie. Pozwoli on, jak twierdzi profesor Chwaszczewski, znaleźć odpowiedź na pytanie: „Czy zastosowanie toru w reaktorach energetycznych zmniejszy koszt wytwarzania energii w reaktorach energetycznych a także czy nie pogorszy charakterystyk bezpieczeństwa reaktora.” Zadaniem profesora Chwaszczewskiego prawdopodobnie nie będzie można eksploatować reaktorów tylko z paliwem wytwarzanym w cyklu torowym, który polega na wytwarzaniu rozszczepialnego izotopu uranu 233 w wyniku przemian jądrowych toru 232. Jednakże przewidywany jest coraz większy udział toru w energetyce jądrowej. Należy pamiętać, że w Polsce wykorzystanie energetyki jądrowej, nawet w wersji ‘klasycznej’ – uranowej, pozostaje na razie w sferze planów. O zastosowaniu toru jak dotąd w tych planach się nie mówi. Nie mniej w projektach takich jak ten realizowany w Instytucie będzie można udowodnić zarówno aspekt bezpieczeństwa jądrowego jak i korzyści ekonomiczne wykorzystania toru w eksploatowanych w Polsce reaktorach energetycznych. To jeden z celów prowadzonego projektu. Po jego zakończeniu naukowcy, energetycy i politycy dostaną do ręki raporty, w których odnajdą interesujące ich kwestie. Ale jak skorzystają na tym państwo Kowalscy? Tą kwestię profesor ujmuje stwierdzeniem: „Mam nadzieje, że dzięki

naszemu projektowi państwo Kowalscy będą mogli korzystać z tańszej energii elektrycznej wytwarzanej w polskich reaktorach energetycznych.” Tani prąd to nie jedyne co może się spodobać polskiej rodzinie dziś i za kilkadziesiąt lat. Nie do pominięcia jest aspekt ekologiczny związany z rozwojem, zarówno uranowej jak i torowej energetyki jądrowej. Jak stwierdza profesor Chwaszczewski: „Energetyka jądrowa jest rozwiązaniem proekologicznym: nie emituje szkodliwych substancji do środowiska, istniejące technologie umożliwiają bezpieczne odizolowanie odpadów promieniotwórczych od ich przeniknięcia do środowiska. Nie emituje również dwutlenku węgla, który jest postrzegany jako przyczyna zmian klimatu, choć w ostatnim okresie opinie na ten temat nie są już jednoznaczne.”

Projekt torowy, realizowany w Świerku pozwoli znaleźć odpowiedź na pytanie: „Czy zastosowanie toru w reaktorach energetycznych zmniejszy koszt wytwarzania energii w reaktorach energetycznych, a także czy nie pogorszy charakterystyk bezpieczeństwa reaktora.”

29


NAUKOWO

Ciekawość nie pozwoliła nie zagadnąć o dotychczasowe wyniki prowadzonego projektu – o to na jakim etapie są teraz wykonywane w nim prace: „Jesteśmy na półmetku opracowania i testowania systemu programów numerycznych do analiz kampanii paliwowych wodno ciśnieniowych reaktorów energetycznych, posiadamy duży zestaw informacji o konstrukcji rdzenia reaktora (konstrukcja kaset paliwowych, rozkłady wzbogacenia paliwa, wypalające się trucizny, elementy regulacyjne itp.), przeprowadziliśmy szereg napromieniań próbek toru w reaktorze MARIA, prowadzone są analizy zawartości produktów reakcji jądrowych w tych próbkach.” Pracy jest jeszcze dużo. Jej rezultaty pomogą politykom i

energetykom podjąć decyzję co do przyszłości i kierunku rozwoju energetyki jądrowej w Polsce. Zdaniem profesora Chwaszczewskiego rada na przyszłość dla naszego rządu jest prosta – profesor poleciłby: „Oczywiście budowę pierwszych reaktorów energetycznych w Polsce w oparciu o sprawdzone rozwiązania. A także zaangażowanie krajowego potencjału przemysłowego i badawczego w opracowanie i wytwarzanie elementów reaktorów energetycznych nowej generacji oraz perspektywicznych paliw jądrowych. Rynek energetyki jądrowej będzie rozwijał się bardzo dynamicznie. Przewiduję, że wartość rocznych zamówień na nowe jądrowe bloki energetyczne w latach trzydziestych przekroczy wartość 120 mld dolarów, a rynek paliw jądrowych przekroczy wartość 60 mld dolarów. A reaktory budowane w latach trzydziestych i czterdziestych będą na pewno inne, niż obecnie budowane reaktory energetyczne. Będą to reaktory wysoko temperaturowe do zasilania ciepłem procesów techno-

logicznych oraz reaktory powielające chłodzone gazem (helem), ciekłym sodem, ciekłym ołowiem lub eutektyką ołów-bizmut. Mam nadzieję, że będzie również powrót do reaktorów na stopionych solach oferujących maksymalne wykorzystanie paliw jądrowych. Dla porównania, w obecnie

30

budowanych reaktorach energetycznych do wytworzenia 1 TWh energii elektrycznej (obecnie w Polsce wytwarzamy rocznie nieco ponad 150 TWh energii elektrycznej) niezbędne jest wydobycie ze środowiska około 22 ton uranu naturalnego. Tę samą ilość energii elektrycznej wytwarza reaktor na stopionych solach wykorzystując 60 kg uranu naturalnego i 60 kg toru!” Istnieje wiele korzyści, które są niejako produktami ubocznymi pracy w projekcie torowym czy innych podobnych w Instytucie. Ogromną korzyścią dla naszych przyszłych kadr, które będą zajmowały się nadzorowaniem pracy elektrowni atomowych, jest według profesora Chwaszczewskiego: „Zaangażowanie młodych naukowców w tematykę energetyki jądrowej, zdobycie przez nich kompetencji w tej dziedzinie.” Dzięki uczestnictwu w tym projekcie będą oni mogli także tworzyć i testować: „narzędzia do analiz kampanii paliwowych reaktorów energetycznych, takie ja: system programów obliczeniowych umożliwiających symulowanie procesu wytwarzania energii cieplnej w całym obszarze rdzenia reaktora w okresie miedzy przeładunkami paliwa, wyznaczanie charakterystyk wyładowanego z reaktora wypalonego paliwa.” Dla pokrzepienia serc wątpiących w intencje osób pracujących nad przyszłością energetyczną w Polsce, oraz tym, którym ochrona środowiska i bezpieczeństwo zdrowotne są bardzo bliskie przytoczmy raz jeszcze słowa prezydenta Eisenhowera wypowiedziane ponad pół wieku temu: „Kto

może wątpić w to, że gdyby wszyscy naukowcy i inżynierowie na świecie posiadali odpowiednią ilość materiału rozszczepialnego, z użyciem którego mogliby wdrażać i sprawdzać swoje idee, okazja ta nie przekształciłaby się w powszechne, wydajne i oszczędne jego wykorzystanie?” W świetle powyższego problemy, o których wspomina profesor Chwaszczewski, takie jak pełne wykorzystanie paliwa jądrowego, będące celem długoletniego programu Unii Europejskiej w zakresie energetyki jądrowej, którego hasłem jest „dzisiejsze wypalone paliwo jest paliwem jutra”, wydają się raczej wyzwaniem niż zagrożeniem. Należy mieć taka nadzieję. Wszak przyszłość energii jądrowej w Polsce ma miejsce już dziś. Tomasz Siobowicz

MARZEC 2011


K R E AT Y W N I

– Zajmuję się rzeczami, którymi zajmuje się jedynie garstka ludzi. Prawników, księgowych czy managerów są miliony, a fizyków mało – mówi o swojej pracy naukowej Krzysztof Wojciech Fornalski, doktorant w Instytucie Problemów Jądrowych w Świerku. Wśród fizyków niewielu zajmuje się zaś wpływem promieniowania jonizującego na organizmy żywe. Krzysztof Fornalski ukończył II liceum w Ostrowcu Świętokrzyskim znane z wysokiego poziomu nauczania fizyki i matematyki. Ten fakt, jak również to, że rodzice są „ścisłowcami” – jego Mama uczyła fizyki, a Tata jest energetykiem – sprawił, że pójście w kierunku nauk ścisłych wydawało mu się oczywiste. W swoich planach początkowo miał studiowanie informatyki – dopiero w klasie maturalnej zmienił zdanie i zdecydował się na fizykę. „Raczej pod wpływem impulsu i chęci robienia czegoś niecodziennego, nieprzeciętnego” jak twierdzi. W 2002 roku rozpoczął studia na Wydziale Fizyki Politechniki Warszawskiej, a zaraz po ich ukończeniu podjął studia doktoranckie w Instytucie Problemów Jądrowych imienia Andrzeja Sołtana w Świerku koło Otwocka. Obecnie jest studentem IV roku studiów doktoranckich w Instytucie Problemów Jądrowych w Świerku. Jego praca doktorska będzie dotyczyła zagadnienia wpływu niskich dawek promieniowania jonizującego na organizmy żywe. Zajmie się w niej między innymi danymi dotyczącymi otrzymywanych dawek oraz ryzyka wystąpienia chorób nowotworowych wśród pracowników instytutu, w którym pracuje. Opracował całkowicie nowy, autorski model odpowiedzi komórek na dawkę promieniowania. Wykorzystał w nim podejście czysto probabilistyczne w oparciu o mechanizmy, które wyniósł ze swoich studiów na Politechnice. Choć techniczne aspekty programowania nie zawsze są najprostsze ma jednak nadzieję, że uda mu się w przyszłości jeszcze bardziej rozwinąć swój autorski model odpowiedzi na promieniowanie. Praca w tak poważnym ośrodku jakim jest Instytut Problemów Jądrowych pozwoliła mu również bardzo pokornie spojrzeć na rozmiar wiedzy, którą dysponujemy – poświadczyć znaną nie od dziś tezę, że tak naprawdę wiemy bardzo mało. Działanie w grupie i możliwość wymiany myśli, poglądów oraz dyskusji pozwalają mu przekonać się jak ważne i wartościowe jest poznanie opinii i zdania innych osób. Świadomość dokładania malutkiej cegiełki – wkładu w rozwój naszej cywilizacji - daje mu ogromne poczucie spełnienia. W swojej pracy ceni sobie możliwość rozwoju oraz swobodę działania. Nie lubi stania w miejscu i wykonywania czegoś odtwórczego – to właśnie praca twórcza jest dla niego najbardziej pociągająca. Daje mu to

MARZEC 2011

ogromną satysfakcję oraz poczucie, że to co robi jest ważne i jest jednocześnie możliwością budowania opinii o sobie. Mimo tak wielu satysfakcjonujących czynników ma świadomość, iż po skończeniu studiów doktoranckich trudno będzie w Polsce otrzymać dobrze płatną posadę w nauce. Być może fakt ten zmusi go w przyszłości do imania się wielu innych, nie zawsze związanych z pracą, zadań. – Nie zawsze udaje się robić to co się lubi i jednocześnie dobrze na tym zarabiać – wyznaje szczerze. Krzysztof nie zamierza się jednak poddawać – w dalszym ciągu dąży do realizacji swojego

twórczego potencjału choć ma też świadomość związanych z tym trudności. Żyje nie tylko pracą. Ma różne inne pasje i zainteresowania. Od ponad 10 lat pisze wiersze, które były publikowane w wielu czasopismach, m.in. „Akant” lub w pokonkursowych monografiach. Za tą swoją twórczość był wielokrotnie wyróżniany i nagradzany, m.in. na Grudniowym Akademickim Przeglądzie Artystycznym (aż cztery razy). Pośród swoich zainteresowań ma również genealogię (posiada obszerne drzewo genealogiczne swojej rodziny tworzone pieczołowicie od lat) i heraldykę. Udziela się również społecznie – jest członkiem Korporacji Akademickiej Sarmatia, Związku Szlachty Polskiej, Koła Naukowego Fizyków przy Politechnice Warszawskiej oraz członkiem-założycielem Polskiego Towarzystwa Genealogicznego. Jego podporą jest również ukochana Rodzina: żona Kasia i malutka córeczka Natalia. ts

31


10 lat temu, jako projekt pomocniczy nieistniejącej już Nupedii, powstała Wikipedia – wielojęzyczna internetowa encyklopedia, która w całości składa się z otwartej treści. Powstaje dzięki niezależnym działaniom milionów użytkowników. Niezależna encyklopedia, utrzymuje się z datków użytkowników

i kontrybutorów treści. Podczas zeszłorocznej zbiórki przeszło pół miliona osób ofiarowało na rozwój wolnej encyklopedii 16 milionów dolarów. Pieniądze zostaną wykorzystane na rozwój Wikipedii. Obecnie serwis odwiedzany jest przez 400 mln internautów miesięcznie. Mają oni dostęp do ponad 17 mln artykułów napisanych w 270 językach. Polska Wikipedia została otwarta 26 września 2001 roku i obecnie jest czwartą pod względem liczby artykułów (prawie 800 tysięcy) edycją językową. I pomyśleć, że Wielka Encyklopedia PWN posiada zaledwie 156 tysięcy haseł. Wikipedia zawdzięcza swój potencjał pasji zapaleńców. - Czy ja oszalałem? - tak o sobie zdaje czasami myśleć Paweł Drozd, znany jako użytkownik Drozdp. Bo jak inaczej myśleć o kimś, kto na każdym kroku ogląda się za bezprzewodowym internetem, tylko po to by zalogować się do panelu administracyjnego Wikipedii. Paweł Drozd, stateczny przedsiębiorca z Chorzowa zaczął swoją

34

przygodę z Wikipedią sześć lat temu podczas... choroby. Chcąc dowiedzieć się czegoś o swoim schorzeniu sięgnął do internetu i tym sposobem trafił na Wikipedię. Pan Paweł pokochał Wikipedię bezwarunkowo. Chciał się dzielić swą wiedzą, ale może przede wszystkim, chciał wiedzę zdobywać. - Wtedy było cudowanie, bo na polskiej Wikipedii było zaledwie 50 tysięcy haseł. Można było więc pisać prawie o wszystkim – wspomina. – Początkowo wydawało mi się, że ja coś wiem i mogę się podzielić swoją wiedzą, ale wnet okazywało się, że tak naprawdę wiem niewiele. Wikipedia nauczyła mnie pokory. Jego pierwszym artykułem był colt (rewolwer). To efekt zainteresowania bronią czarnoprochową. Do napisania tego hasła posłużył się... Wikipedią, tyle, że anglojęzyczną. W połowie 2010 przekroczył już liczbę 15 tys. edycji, z czego ponad 10 tysięcy w przestrzeni głównej. Pan Paweł ma też na swoim koncie kilkaset artykułów, pisanych od podstaw. - Moje zainteresowania to podróże po świecie, więc zamieszczam

MARZEC 2011


SOCIAL 2.0

informacje i grafiki z miejsc w których byłem np. Santa Fe (Nowy Meksyk), a jeżeli już są (informacje) a można coś dodać, to dodaję. Dziś Paweł Drozd jest już członkiem Stowarzyszenia Wikimedia Polska. Znalazł naśladowców w rodzinie. Wnuczka też jest edytorem,

opracowuje hasła związane z Rodem Stewartem. Wikipedia wniosła do jego życia wiele dobrego, ale była też przyczyną upokorzeń. Niemiłym zaskoczeniem była dla niego postawa wielu znajomych, którzy gdy tylko dowiedzieli się o jego współpracy z Wikipedią zaczęli się z niego najzwyczajniej naśmiewać. - U nas jest zupełnie inaczej niż w Europie Zachodniej. Na jednym ze spotkań Wikipedystów we Frankfurcie, nocowałem w schronisku młodzieżowym wraz z grupą redaktorów z Europy. Nade mną nocował profesor z Bazylei, a o łóżko obok docent z Freiburga. Tam współpraca z Wikipedią jest czymś nobilitującym, nawet dla naukowca. Polacy deprecjonują Wikipedię, naśmiewają się z nas, jej twórców, a jednocześnie korzystają z niej masowo, jest ich podstawowym źródłem informacji i to jest paradoksem – zauważa nasz rozmówca. Popularność Wikipedii znajduje odzwierciedlenie nie tylko w liczbie artykułów. Po 10 latach obecności w Internecie Wikipedia stała się uniwersalnym źródłem informacji na prawie każdy temat. W czasie prezydenckiej kampanii wyborczej dziennikarze wychwycili, że Bronisław Komorowski miał w ręku wydruk z Wikipedii o Biurze Bezpieczeństwa Narodowego. Według statystyk zbieranych przez ComScore Wikipedia jest w pierwszej dziesiątce najczęściej odwiedzanych stron, będąc jednocześnie jedyną stroną non-profit w czołówce. Korzystają z niej zarówno uczniowie i studenci, jak i nauczyciele akademiccy. Artykuły pochodzące z Wikipedii są cytowane oraz podawane jako źródło w pracach naukowych, książkach i pismach. A jednak środowisko naukowe niechętnie przyznaje się do korzystania z z Wikipedią, a tym bardziej naukowcy niechętnie mówią o współpracy. Do tej pory korzystanie z internetowej encyklopedii przez wykładowców i nauczycieli uznawane było za obciach i zakazywano jej używania. Na wyższych uczelniach promotorzy wciąż ostrzegają swoich podopiecznych przed cytowaniem tego źródła w autorskich pracach dyplomowych. Sytuację tą może zmienić inicjatywa naukowców z Politechniki Warszawskiej, którzy postanowili sprawdzić poprawność niektórych haseł znajdujących się w Wikipedii.

MARZEC 2011

Wikipedia jest niezwykle popularnym źródłem wiedzy – głównie dzięki szybkości i prostocie dostępu do informacji. Dlatego próby wyeliminowania z procesu edukacji tej internetowej encyklopedii są z góry skazane na niepowodzenie – podkreśla dr inż. Andrzej Zalewski, kierownik Studiów Podyplomowych Zarządzanie Projektami na Politechnice Warszawskiej. – Dużo lepszym i ciekawszym rozwiązaniem jest merytoryczne wsparcie Wikipedii. Ponieważ zależy nam na jak najwyższym poziomie informacji tam zawartych, postanowiliśmy wykorzystać naszą wiedzę w procesie ich redagowania. Na początek poszły hasła z zakresu zarządzania projektami. Naukowcy Politechniki zweryfikowali kilkadziesiąt najważniejszych haseł już istniejących. Dodatkowo uzupełnili listę o kolejne hasła, których w tej chwili nie ma w bazie Wikipedii. Prawdopodobnie później rozszerzymy obszar naszych zainteresowań poza tę tematykę – szczególnie że na Wikipedii brakuje haseł związanych z tematyką zarządzania zasobami IT, która w ostatnim czasie budzi spore zainteresowanie – dodaje. Paweł Zienowicz ze Stowarzyszenia Wikimedia Polska przyznaje, że taka akcja nie miała precedensu. Według niego jest to dobry znak, że polscy naukowcy zaczynają uważać Wikipedię za użyteczne źródło informacji. Metoda tworzenia Wikipedii jest bowiem radykalna. Przeciwstawia mądrość tłumu kultowi eksperta. W sytuacji, gdy każdy z każdym na całym świecie może się łatwo komunikować, a najnowsze technologie ułatwiają nie tylko wymianę zdań, ale także gromadzenie doświadczeń, okazuje się często, że najlepszy nawet ekspert dysponuje mniejszą wiedzą niż rzesza skomunikowanych amatorów. Według badań szacownego tygodnika naukowego „Nature”, porównujących jakość artykułów z Wikipedii i z Britanniki okazało się, że owszem w encyklopedii internetowej jest nieco więcej błędów niż w tradycyjnym, wzorcowym kompendium, ale i Britannica nie jest nieomylna. Pewnym problemem, na co zwracają uwagę sami Wikipedyści są hasła sprawiające na pierwszy rzut oka wrażenie napisanych popraw-

nie i fachowo, ale zawierających celowo wprowadzoną nieprawdę. W latach 2004 – 2006 internauci stworzyli fikcyjną postać działacza komunistycznego Henryka Batuty. Napisanie tego rodzaju hasła wymaga jednak dość sporo wysiłku, wiedzy i sprytu, a osób, które gotowe są w ten sposób wandalizować Wikipedię, jest znikoma liczba – uważają twórcy Wikipedii. Dziś Wikipedyści prowadzą „Bezwzględną Akcję Troskliwego Uźródławiania Tysięcy Artykułów” (nomen omen pod kryptonimem

35


SOCIAL 2.0

36

„Batuta”). W kolejnej już edycji akcji chcą zmierzyć się z artykułami, które nie posiadają źródeł i zazwyczaj oszpecone są szablonami z komunikatami domagającymi się źródeł. Druga kwestia to indywidualne wybory dziedzin wiedzy, w których brakuje źródeł, a którymi część z nas nie zajmowała się z powodu innych prac w Wikipedii. Po trzecie chcą położyć większy i skuteczniejszy nacisk na to, aby nowe hasła w Wikipedii miały źródła. Są bowiem trzy podstawowe zasady dotyczące treści artykułów w Wikipedii. Jedną z nich jest weryfikowalność (temu właśnie mają służyć źródła). Inne to neutralny punkt widzenia oraz brak twórczości własnej, gdyż Wikipedia w założeniu ma być źródłem wiedzy wtórnej a nie pierwotnej. Artykuł, który znajdzie się w Wikipedii musi być

dostępu do niej z określonych adresów IP. Jest to jednak środek ostateczny, który w polskiej Wikipedii jest stosowany jak najrzadziej. Wikipedia, jak zauważa publicysta Edwin Bendyk, okazała się wielkim laboratorium społecznym i kulturowym, w którym wolne jednostki odkrywają, że bezinteresowna praca dla wspólnego dobra może być źródłem przyjemności i spełnienia, i wypracowują normy zgodnego i efektywnego współdziałania. Ale, który wywołuje też wiele obaw i pytań o przyszłość kultury. Model Wikipedii nie tylko doprowadził do stworzenia wielkiego zasobu wiedzy. Jednocześnie podkopał podstawy bytu wielu sprawdzonych instytucji kultury. Wydawcy encyklopedii mają problem z przetrwaniem, a nawet National Science Foundation która w 2001 r.

skądś zaczerpnięty, choćby z gazety. Najlepiej jednak, żeby źródło było poważne. Wikipedia jako pospolite ruszenie posiada hierarchiczną strukturę twórców i redaktorów, zapewniająca skuteczną, społeczną kontrolę nad jakością publikowanych treści. Bo jak przyznają osoby redagujące polską Wikipedię powszechnym zjawiskiem są tzw. wandalizmy. Zjawisko to nasila się zwłaszcza kiedy młodzież ma ferie, bo z nudów, dla zabicia czasu, korzystając choćby z szkolnych pracowni wandalizują artykuły w Wikipedii. Sposobem na wandalizmy i wulgaryzmy było wprowadzenie tzw. stron przejrzanych. Informuje ona o tym, że któryś z regularnie edytujących wikipedystów z odpowiednimi uprawnieniami przejrzał daną wersję i oznaczył ją jako wolną od widocznych gołym okiem wandalizmów. W przypadku dokonania edycji przez osobę bez uprawnień do oznaczania wersji jako „przejrzana”, musi ona zostać przejrzana przez drugą osobę z uprawnieniami. Wyszukiwaniem wulgaryzmów zajmują się także boty (specjalne programy, które wykonują pewne czynności w zastępstwie człowieka). Zastosowanie botów ma także szerszy zakres, tworzą one m.in. interwiki, łączące artykuły pomiędzy poszczególnymi edycjami językowymi. Boty wyszukują także martwe linki do stron zewnętrznych, a nawet dokonują edycji. To właśnie MastiBot jest najbardziej aktywnym edytorem polskiej Wikipedii pod względem liczby kliknięć przycisku Zapisz. W polskiej Wikipedii można znaleźć jedyną bazę wszystkich polskich miejscowości. Zrobił to bot, zaciągając bazę urzędu statystycznego. Zresztą podobnie było we Francji czy Norwegii. Niewielka liczba szczególnie upartych osobników psujących naszą pracę, może być odcięta od Wikipedii dzięki możliwości blokowania

zaczęła robić fantastyczną Digital Library (poszło na ten projekt blisko 200 mln dolarów) narzeka dziś, że prawie nikt nie korzysta z tych zasobów – zauważa Bendyk. Wikipedia stworzyła jednocześnie jedno, wielkie zjawisko Wiki. Na całym świecie powstają setki mniejszych projektów gromadzących specjalistyczną wiedzę. Jak choćby wikinezka - polska encyklopedia dotyczącą Pokémonów, licząca prawie 3 tys. haseł. Ale też jednym z projektów stworzonym w systemie wiki okazała się strona Wikileaks, która jakże namieszała w globalnej polityce. Sensem Wikipedii jest dążenie, by każdy człowiek mógł mieć dostęp do całości wiedzy wytworzonej przez ludzkość – wyjaśnia jej twórca Jimmy Wales. W ten sposób spełnia się dążenie Walesa, by każdy człowiek mógł mieć dostęp do całości wiedzy, a także informacji wytworzonej przez ludzkość, nawet w tak radykalnej formie. Jacek Srokowski

MARZEC 2011


10 lat polskiej Wikipedii w liczbach 1 Reguła Titiusa-Bodego był pierwszym artykułem w polskiej Wikipedii. 4 polska edycja pod względem liczby artykułów ustępuje jedynie wersji angielskiej, niemieckiej i francuskiej. 7 według statystyk Alexy Wikipedia zajmuje siódme miejsce w Polsce wśród popularności stron www. 10 tyle lat liczy najmłodszy polski wikipedysta... 87 ...a tyle lat liczy najstarszy polski wikipedysta. 95,67 tak procentowo wygląda poprawność artykułów (nie mylić z jakością) w polskiej Wikipedii (bez prostych wandalizmów). 6700 Moda na sukces to najczęściej edytowany w polskiej Wikipedii artykuł. 337 323 tyle razy przeglądany był artykuł Polska, najczęściej przeglądany w polskiej Wikipedii. 469 830 MastiBot to najbardziej aktywny edytor polskiej Wikipedii pod względem liczby kliknięć przycisku Zapisz. Niemniej ranking ten obejmuje nie tylko wikipedystów z krwi i kości, ale także boty, IPki i skrypty serwera. 520 000 tyle bajtów liczy gramatyka języka fińskiego” najdłuższa strona w polskiej Wikipedii. 762 427 tyle na koniec grudnia 2010 było artykułów w polskiej Wikipedii. 9 235 900 to ilość użytkowników polskiej Wikipedii.


Niech moc będzie z Wami


Nie musisz być Einsteinem, żeby przysłużyć się nauce. Wystarczy, że poprzez internet udostępnisz naukowcom moc obliczeniową swojego komputera. Najbardziej ambitni internauci mogą też w sieci udostępnić naukowcom bystrość swojego umysłu. Internetowe projekty społecznościowe dają nauce mocnego kopa.


NAUKOWO

Najszybszym komputerem na świecie jest komputer, którego fizycznie nie ma. SETI@ home na próżno szukać na liście Top 500 najszybszych komputerów świata. SETI@home to przedsięwzięcie zainicjowane przez naukowców Uniwersytetu Kalifornijskiego w Barkley, w ramach którego powstało oprogramowanie i platforma współpracy, umożliwiające milionom użytkowników połączenie zasobów obliczeniowych w jeden potężny komputer. Według szacunków z listopada 2009, SETI@home miał możliwość obliczania z prędkością 769 teraflops. Dla porównania Cray Jaguar, który był wtedy najszybszym superkomputerem (również superdrogim) osiągał 2,331 teraflops. Szybkość obliczeniowa SETI@home zapewniało mu ponad 278 832 aktywnych komputerów w systemie, rozsianych po 234 krajach. Łącznie jednak w projekcie uczestniczyło 2,4 miliona komputerów!

A to tylko wygaszacz! Każdy użytkownik biorący udział biorący udział w projekcie musi pobrać zaledwie niewielki wygaszacz ekranu. Kiedy komputer przestaje być aktywny, włącza się wygaszacz, który pobiera zadania do obliczenia i rozwiązuje je. SETI@ home pomaga w poszukiwaniu inteligencji pozaziemskiej, ale na podobnej zasadzie działa już wiele innych projektów skupionych wokół platformy BOINC. BOINC pozwala na bezkolizyjną pracę teoretycznie nieograniczonej ilości projektów przetwarzania rozproszonego na jednym komputerze. W grze internetowej fold it internauci rywalizują w rozwiązywaniu przestrzennych łamigłówek. W ten sposób pomagają badać sposoby, w jakie może zwijać się skomplikowana cząsteczka białka.

40

Jest to możliwe dzięki ujednoliconej strukturze wszystkich projektów. Co więcej, każdy użytkownik może w łatwy sposób ustalić, ile czasu jego komputer poświęci na pracę z poszczególnymi projektami. BOINC potrafi także zmagazynować dane wejściowe i wyjściowe, aby pracować bez przerw, gdy połączenie z serwerem projektu jest niemożliwe. Projekty BOINC (jest ich już kilkadziesiąt) pozwalają naukowcom m.in. lepiej poznać naturę wszechświata (projekt LHC wspiera budowę akceleratora cząsteczek w CERN), wynaleźć leki na AIDS, raka (WCG), a także na wiele innych chorób (projekty białkowe - Rosetta, SIMAP, Predictor, TANPAKU). Mogą być źródłem lepszego przewidywania zmian globalnego klimatu (CPDN, SAP), uzyskania dalszych dowodów na poprawność teorii względności (Einstein, LHC), rozwoju matematyki (ABC, RCN, Sztaki, Prime-

Grid, Riesel Sieve), rozwoju chemii i nanotechnologii (QMC, Spinhenge, NanoHive). W sierpniu 2006 roku powstał pierwszy polski projekt BOINC nazwany Nagrzewanie Stali@ home. Projekt został uruchomiony w ramach pracy magisterskiej studenta informatyki. Projekt działał przez niecały tydzień, gromadząc w tym czasie ponad 130 uczestników z całego świata. W lecie 2007 roku powstał projekt Enigma@ Home mający na celu wspomożenie innego projektu próbującego złamać zaszyfrowaną Enigmą wiadomość z okrętu podwodnego. Od stycznia 2009 roku w ramach projektu PrimeGrid działał podprojekt AP26, wykorzystujący algorytm opracowany przez Polskiego naukowca, dr. Jarosława Wróblewskiego, do znajdowania liczb pierwszych będących wyrazami ciągów arytmetycznych. Uczestnicy projektów mogą się zrzeszać w zespoły rywalizując z sobą, kto lepiej przysporzy się nauce. Za czas przeznaczony na prace z projektami przyznawane są użytkownikom punkty kredytowe, które pozwalają na współzawodnictwo. Polish National Team – Polska Drużyna Narodowa zajmujemy aktualnie 18 miejsce w rankingu międzynarodowym na 90,891 drużyn z 272 krajów.

Mózg lepszy od komputera Jednak komputery pod wieloma względami wciąż nie dorównują naszym mózgom i nie pomoże na to nawet najliczniejsza armia maszyn. – Komputer są znakomite, ale wszystkiego nie potrafią zrobić. W przypadku analizy obrazu komputery wciąż są mniej wydajne od człowieka – przekonuje dr. Lech Mankiewicz, dyrektor Centrum Fizyki Teoretycznej PAN. W internecie została właśnie udostępniona polska wersja kolejnego społecznościowego projektu naukowego – „The Milky Way Project”. W najnowszym przedsięwzięciu zespołu Zooniverse użytkownicy internetu mogą wspierać astronomów w klasyfikacji i pomiarach Drogi Mlecznej. Zadaniem internatów jest odnajdowanie i opisywanie tajemniczych baniek na fotografiach wykonanych w podczerwieni przez Kosmiczny Teleskop Spitzera. Naukowcy przekonują, że ludzki mózg o wiele lepiej radzi sobie z rozpoznawaniem wzorów niż jakikolwiek komputer. Można napisać program do dzielenia galaktyk na kategorie, jednak taki program niewątpliwie nie uwzględni galaktyk niezwykłych, dziwnych ani cudownych. Dlatego potrzebują wsparcia internatów. „The Milky Way Project” to kolejny społecznościowy projekt naukowy, który powstał po sukcesie kilku odsłon „Galaktycznego Zoo”. Łącznie w projektach tego typu przygotowanych na platformie Zooniverse wzięło udział już blisko 400 tysięcy internautów, w tym ponad 30 tysięcy Polaków. Na platformie działają też wcześniejsze, już dostępne w polskiej wersji językowej projekty:

MARZEC 2011


NAUKOWO

„Galaktyczne ZOO - Hubble”, w którym internauci mogą pomagać naukowcom klasyfikować galaktyki, oraz „Polowanie na supernowe” i „Zrozumieć kosmiczne zderzenia”. W dwóch ostatnich projektach internauci wspomagają uczonych w poszukiwaniu niezwykłych, gwałtownych kosmicznych procesów. - Dzięki takim projektom nawet nauczyciel-

Niestety, regularne obserwacje meteorologiczne to w dziejach cywilizacji rzecz stosunkowo nowa. Sięgając w archiwach już kilkadziesiąt lat wstecz, natrafimy na spore luki w pogodowej historii świata, a lata poprzedzające rok 1920 to już istna parada białych plam na klimatycznej mapie globu. Dlatego bezcenne dla dzisiejszych uczonych są dane meteorologiczne sprzed niemal stu lat, Zadaniem internatów w projekcie „The Milky Way Project” jest odnajdowanie i opisywanie tajemniczych baniek na fotografiach wykonanych w podczerwieni przez Kosmiczny Teleskop Spitzera.

ka muzyki z Holandii mogła się w istotny sposób przysłużyć naukom astronomicznym – mówi dr. Lech Mankiewicz. Jego zdaniem astronomia mogłaby się rozwijać bez projektów społecznościowych, ale one dają nauce wielkiego kopa. – Wprawdzie nie udało się jeszcze odkryć pozaziemskiej cywilizacji przy pomocy internautów, ale za to udało się odkryć sporo supernowych. Powstało też kilka ważnych prac naukowych, dzięki tym projektom – wylicza naukowiec. – Niestety, tylko ułamek promila internautów uczestniczy w dyskusji wyników, a szkoda. Istotne jest złamanie bariery językowej. Staramy się zatem tłumaczyć strony angielskie na język polski. Wkrótce będzie dostępna w internecie polska strona kolejnego projektu: Planet Hunters. Internauci pomagają badać nie tylko zagadki kosmosu. Wspomagają też w istotny sposób klimatologów. W projekcie Old Weather internauci proszeni są o przeglądanie autentycznych dzienników pokładowych okrętów Royal Navy z początku XX w. Aby rozwijać modele klimatologiczne i lepiej zrozumieć ziemski klimat, uczeni desperacko potrzebują danych empirycznych.

MARZEC 2011

jakie zachowały się w dziennikach pokładowych okrętów wszechobecnej Królewskiej Marynarki Wojennej. Ludzki mózg radzi sobie także świetnie z myśleniem przestrzennym czy rozwiązywaniem złożonych problemów. Wykorzystali to naukowcy z Uniwersytetu Washington, którzy postanowili problemy naukowe przerobić na grę, która uzależni tysiące internautów na całym świecie. Gracze trenują programy rozpoznające grafikę i systemy sztucznej inteligencji, a także pomagają badać sposoby, w jakie może zwijać się skomplikowana cząsteczka białka. W tym ostatnim przypadku projekt ma postać gry internetowej fold it, w której ludzie rywalizują w rozwiązywaniu przestrzennych łamigłówek. Większość wspomnianych projektów ma jeszcze jedną niewątpliwą cechę, nikt nikomu nie płaci za udział w projekcie. Nagrodą jest możliwość udziału w powszechnie dostępnej nagrodzie za rozwiązanie problemu naukowego. Michał Jakubowski

41


wa O t rt

‌ k

e!

! k , p u p

u


Wiele ciekawych rzeczy dzieję się dziś w nierzeczywistym świecie. Rozwija się kultura i sztuka, kwitnie biznes. Powstają dzieła sztuki, literatury, filmy oraz narzędzia służące ich produkcji. Otwarta współpraca (open collaboration) jest kolejnym trendem po otwartym oprogramowaniu (open software) i otwartej treści (open content).


K U LT U R A

Stoi za tym nie tylko coraz obszerniejsza literatura. To również efekt przedsięwzięć, w których powstają usługi oraz produkty w sposób tak dobrze zorganizowany i nakierowany na cel jak to ma miejsce w przypadku ich licencjonowanych i opatrzonych korporacyjnym logo odpowiedników. Powinno nas to dziwić, gdyż projekty otwartego oprogramowania powstające we współpracy on-line (skróćmy to sobie do OOWwO) zależą przecież w dużej mierze od luźno skoordynowanych wysiłków grupy ochotników. A przecież ten model produkcji był do niedawna postrzegany jako niekonkurencyjny w starciu z wysoce zorganizowanymi zespołami inżynierów i deweloperów, zarządzanych przez profesjonalistów w projektach komercyjnych. OOWwO z sukcesem

Jednak projekty OOWwO zaczęły odnosić sukcesy co przyciągnęło zarówno naukowe jak i przemysłowe kręgi do zagadnienia otwartej innowacji sensu lato – czyli każdego procesu, w którym w powstawaniu innowacji wszelkiego rodzaju otwarcie się uczestniczy oraz nad którymi współpracuje więcej niż jedna osoba. W centrum takich działań znajduje się zwykle użytkownik, który nie jest już ograniczony do roli konsumenta dóbr, ale jest w stanie aktywnie brać udział w procesie tworzenia innowacji. Tak rodzi się coś co zwie się demokratyzacją innowacji. Proces ten nie jest czymś unikalnym dla OOWwO, choć to właśnie w kręgach i społecznościach współpracujących nad oprogramowaniem znajdu-

44

je swoich najbardziej żarliwych orędowników i praktyków. Demokratyzacja przy okazji tworzenia oprogramowania zrodziła kolejne swe formy znane i powszedniejące dziś w innych formach produkcji – tworzeniu dóbr kultury lub takich, które posiadają wartość rozrywkową – co znane jest pod postacią tak ogromnie popularnych serwisów jak Wikipedia, Flickr, YouTube czy wiele innych społeczności internetowych, które obrały sobie za cel produkcję i komunikację treści multimedialnych – w odróżnieniu od tak jednostronnie zorientowanych na element społecznościowy jak MySpace czy Facebook. Podobnie jak w przypadku OOWwO, społeczności skupione wokół tworzenia dóbr z zakresu kultury czy rozrywki są napędzane wkładem użytkowników oraz rosnącymi umiejętnościami artystów profesjonalnych i amatorów to komunikacji bezpośredniej z ich publicznością w sieci. To dość znaczący krok, który pomija tradycyjne kanały dystrybucji i reklamy. Powstają całe tomy nowych zagadnień związanych z licencjonowaniem, udziałem oraz zachowaniami użytkowników, który uczestniczą w produkcji treści multimedialnych dostępnych następnie w otwartej przestrzeni rynkowej ery post-Web 2.0. Powodzenie projektów spod znaku OOWwO doprowadziło do skonstatowania i szerokiej aklamacji dla faktu, że dostęp do kodu źródłowego oraz możliwość współpracy użytkowników o różnym stopniu umiejętności przy tworzeniu i rozbudowie tegoż kodu prowadzi do powstania lepszego oprogramowania. A wynika to z prostego faktu, że zarówno umiejętności jak i wiedza na temat potrzeb są rozproszone wśród użytkowników. Podobnie w przypadku demokratyzacji procesu produkcji dóbr kulturalnych i rozrywkowych nakładają się dwa czynniki – rozproszenie umiejętności oraz gustów wśród odbiorców.

Made in network

Nie sposób sobie wyobrazić jak projekty spod znaku OOWwO mogłyby odnieść sukces gdyby nie współpraca na duże odległości w ogromnej skali, możliwa dzięki Internetowi oraz powstaniu w nim społeczności. Nie istnieje nawet jeden użytkownik, czy nawet profesjonalny programista, który dysponowałby pełną wiedzą z zakresu technik programowania, projektowania, interfejsów czy języków programowania jakiej wymaga stworzenie nowoczesnej, złożonej aplikacji. Aby stanąć na wysokości zadania jakim jest stworzenie takiego oprogramowania duże, specjalistyczne firmy, zaangażowane w dostarczanie takich rozwiązań, zatrudniają, bądź częściej wynajmują i organizują współpracę licznych deweloperów w rozproszonych po świecie zespołach. Jest to konieczne by móc rozbić wysiłek potrzebny na stworzenie tych rozwiązań na mniejsze zadania, którymi można łatwiej zarządzać. Nie mniej nawet gdy uda im się pozyskać

MARZEC 2011


K U LT U R A

znakomitych inżynierów oraz talenty w dziedzinie projektowania oprogramowania, nawet te firmy mogą stanąć przed faktem znalezienia się ich flagowych produktów stających w rynkowe szranki łeb w łeb z wysokiej jakości produktami stworzonymi w ramach OOWwO. Sytuacja nabiera dodatkowych rumieńców i przysparza kolejnych wrzodów sprzedawcom produktów komercyjnych w związku z tym, że rezultaty działania OOWwO są dostępne za darmo i stale udoskonalane przez zespoły ochotników, pośród których znajdują się niejednokrotnie bardzo zdolni programiści. Nie bez znaczenia jest również fakt, że poprzez otwartą współpracę i dostępność kodu źródłowego współuczestnicy takich projektów są w stanie uczyć się jedni od drugich i w ten sposób rozwijać swoje umiejętności. Podobnie ma się rzecz ze zdolnościami twórczymi – nie są one równomiernie rozproszone wśród ludzi ani też nie są skupione jedynie w małej garstce jej przedstawicieli. Tak samo ma się rzecz z oryginalnymi pomysłami i rozwiązaniami. Nie ulega wątpliwości, że niektóre osoby są bardziej „utalentowane” niż większość – w tym sensie, że potrafią osiągnąć więcej przy mniejszym nakładzie wysiłku jak również dotrzeć na wyższy poziom kreatywności przy takim samym wkładzie pracy i koncentracji. Nawet mimo to zaskakująca popularność wyprodukowanych przez użytkowników mediów pod postacią filmów video ze skeczami, występami karaoke czy ciętą satyrą dają świadectwo mocy jakie drzemią w amatorskiej kreatywności oraz entuzjazmu jaki napędza produkcje takich treści. Najwidoczniej jest dość znaczne zapotrzebowanie na treści, które niektórzy z nas uznaliby za bezwartościowe. Internet okazuje się być najwydajniejszym jak dotąd medium równoważącym popyt i podaż i możliwości dla stale rosnącej liczby użytkowników, którzy wykorzystują do tego serwisy społecznościowe zarówno dla znalezienia publiczności jak i możliwości poddania ich wytworów ocenie, a także znalezienia podobnych sobie użytkowników, którzy posiadają umiejętności, talenty i wiedzę, mogące stanowić dla nich uzupełnienie.

Mix online

Nikomu nie trzeba chyba przedstawiać takich serwisów jak YouTube, Revver czy Friendster natomiast dobrym przykładem opisywanego trendu korzystania w ten właśnie sposób z sieci jest społeczność Kompoz.com. W tym serwisie użytkownicy udostępniają pojedyncze ścieżki np. gitary, które nagrali i szukają innych muzyków, którzy byliby zainteresowani dodaniem swoich ścieżek basu, perkusji, wokalu aby stworzyć wspólny mix. I podobnie jak miało to miejsce w przypadku społeczności skupionych wokół OOWwO tutaj również niektórzy z użytkowników będą podejmowali próby wyprodukowa-

MARZEC 2011

nia lepszych wersji istniejących ścieżek tak by pomysł nabrał nowego blasku dopełniającego muzyczny mix. W ten sposób internauci mogą nie tylko stworzyć wirtualny odpowiednik zespołu muzycznego, ale potencjalnie również dodać do swoich nagrań setki wirtualnych członków zespołu, którzy udostępnią różne fragmenty utworu nagrane tak jak właśnie oni umieją najlepiej. Przez ostatnie lata pojawiło się więcej społeczności skupionych wokół muzyki, takich jak EM411, last.fm czy Soundclick. Pojawiły się również niezależne wytwórnie takie jak CDBaby, Magnatune czy Jamendo oraz takie, które jak Kompoz mają za zadanie ułatwić kreatywne korzystanie z udostępnianego materiału jak chociażby Splice, ccMixter, Yourspins, Jamglue czy Acid Planet. Większość z użytkowników, zgodnie z wiodącym trendem, praktykuje remixowanie, lub bardziej ogólnie kreatywne, ponowne wykorzystanie elementów wcześniej stworzonych dzieł i utworów. Jest to obecnie szeroko stosowana praktyka w sztukach plastycznych (nazywane tu kolażem) lecz także w nauce i technice – w przypadku wspomnianych serwisów można obserwować powstawanie utworów i dzieł niemal w czasie rzeczywistym w związku z niespotykaną do tej pory dostępnością zarówno skończonych opracowań jak i meta-danych na kontach użytkowników. Nie tylko proces produkcji oraz ilość materiału stanowią różnicę w porównaniu z tym co było dostępne i praktykowane wcześniej. Ruch w stronę od tradycyjnych kanałów transmisji, takich jak radio i telewizja i fizycznie dystrybuowanych mediów (CD, DVD) do dystrybucji w Internecie zmienił również naturę samego medium. Dla przykładu – aktorzy, którzy mogą nigdy nie stać się gwiazdami wielkiego ekranu sięgają jednak po jej nawet niewielki ekwiwalent w sieci poprzez krótkie produkcje, którym rozpędu i popularności przydaje tzw. wiralna (zaraźliwa) dystrybucja poprzez polecenia na forach, blogach oraz społecznościowe ocenianie a także strony z doniesieniami wygenerowanymi przez użytkowników takie jak Digg.com czy znany wszem i wobec Twitter.

Kultura 2.0

Przejście od pełnometrażowych filmów i profesjonalnego sprzętu nagrywającego do krótkich video klipów w niskiej rozdzielczości z wykorzystaniem kamer internetowych lub telefonów komórkowych pozwoliło niektórym utalentowanym jednostkom odkryć, że są w stanie wyprodukować bardzo atrakcyjne, zabawne i oryginalne krótkie produkcje. Nie dotarłyby one do publiczności, do której są skierowane przed erą Web 2.0. Innymi słowy otwarcie możliwości produkcji treści związanych z kulturą przez użytkowników Internetu stworzyło popyt na nowe umiejętności – lub może trafniej ujmując – stworzyło

45


użytkownikom okazję zaprezentowania swoich umiejętności, które nie nadawałyby się lub nie zostałyby uznane za wystarczająco atrakcyjne aby dostać się do tradycyjnej dystrybucji kinowej lub innych, uznanych form kulturalnej konsumpcji. To w dużym stopniu przypomina zadowolenie, jakie musiało być udziałem deweloperów OOWwO, które odczuwali gdy po raz pierwszy zdali sobie sprawę, że oni także są w stanie włożyć swój wkład w rozwój ważnych i złożonych projektów programistycznych nie ruszając się ze swoich foteli. Najprawdopodobniej dopiero teraz zaczynamy sobie zdawać sprawę z tego co agencje wyszukujące talenty, wydawcy i wytwórnie płytowe doświadczyły na własnej skórze – powodzenie w przemyśle, w którym liczy się kreatywność, jest w równej mierze sprawą talentu jak szczęścia i osiągnięcia odpowiedniego progu popularności. Może się okazać, że Ci spośród nas, którzy nie są w stanie osiągnąć sławy w klasycznym rozumieniu jako pisarze, aktorzy czy muzycy mogą mimo to mieć możliwość wyprodukowania czegoś co będzie przedstawiało określoną wartość dla jakiejś szczególnej rzeszy odbiorców. Tu problem jest zwykle taki sam – chodzi o to by dotrzeć do odbiorcy, który oceni naszą produkcję na tyle wysoko, że będzie chciał pomóc w jej promocji, a może też wesprze twórczy wkład finansowo – bezpośrednio (np. przez mikro płatności) lub pośrednio przez wygenerowanie przychodów z reklamy. Innym z istotnych aspektów całego zagadnienia jest również fakt, że nie konsumujemy funkcjonalnych (np. oprogramowania) i kulturalnych (np. utwór muzyczny) dóbr jednakowo. Społeczeństwo w sensie ogółu nie będzie czerpało przyjemności z samego faktu istnienia wielu wersji tego samego funkcjonalnej innowacji – wersji oprogramowania – natomiast istnienie wielu interpretacji popularnej piosenki na ogół jest obiektem zainteresowania. Czyli choć otwarta innowacja i otwarta kultura są jednako produktem współpracy i źródłem większego wyboru, co jest z korzyścią dla użytkownika, jednakże wielość dostępnych wersji jest na ogół bardziej pożądana w tej drugiej. Ponadto sama natura procesu produkcji jest jakościowo inna. Aby wyprodukować wysokiej klasy narzędzia potrzebne są społeczności deweloperów, które posiadają zbliżoną wizję funkcjonalności, jaka ma być składową tychże narzędzi oraz zgodności co do tego

jak jej poszczególne elementy mają ze sobą pracować. W produkcji kulturalnej chodzi niemal o coś dokładnie przeciwnego – to różnice w wizji twórczej powodują jej rozwój i dają w efekcie bogactwo wyrazowe dzieła. Tak więc kluczową kwestią dla otwartej innowacji jest wspomaganie dzielenia się wiedzą i umiejętnościami podczas gdy w otwartej treści kulturalnej chodzi o pewien intuicyjny traf. Dzięki temu trafowi zostają odkryte nowe melodie, tematy muzyczne, efekty dźwiękowe, które stają się pożywką dla kolejnych eksperymentów – niezamierzone lub nieprawidłowe użycie jakiejś techniki lub środka wyrazu może stać się językiem spustowym uruchamiającym we współpracujących umysłach nowe spojrzenie, wersję, która stanie się przekazem budzącym zachwyt i zyskującym popularność. Jak to ujął jeden z artystów nowych mediów: „Inżynierom chodzi o kontrolowanie i nie dopuszczanie do wypadków, natomiast w sztuce jesteśmy nimi jak najbardziej zainteresowani”. Pośród tych różnic i podobieństw w procesie produkowania oraz w użytkowaniu otwartych dóbr wyłania się obraz bezprecedensowej jakości dostępnej dzięki masie krytycznej rozproszonych po odległych zakamarkach ziemi użytkowników. Wielość możliwości zarówno konsumpcji jak i produkcji treści, które internauci współdzielą, stwarza okazję dostosowania zarówno tego co tworzą jak i tego jak i czym uczestniczą w życiu w wymiarze zawodowym i poza nim. Pytanie czy będziemy w stanie w tej nieustannej wymianie i dokładaniu naszych 3 groszy dostrzec jeszcze indywidualny wymiar i unikalność naszych pomysłów i rozwiązań jak również gustów i możliwości. Na szczęście wielość kombinacji i kolejnych remixów pozwala mieć nadzieję, że każdy znajdzie to co przypadnie mu do gustu – choćby do następnego zamknięcia okna na wirtualną rzeczywistość, które każdego dnia oferuje miriady możliwości włączenia się w proces tworzenia i odkrywania. Dopóki istnieje Internet drzwi do tego świata pozostają otwarte. Tomasz Siobowicz


Jednym z projektów, które powstały w otwartej współpracy jest BB 2.0 (dostępny pod adresem: http://www.inbflat.net/). Zaproponowany przez Darrena Solomona z zespołu Science for Girls jest kolażem muzyki i słowa mówionego współtworzonym i rozwijanym z wykorzystaniem wkładu ze strony internautów. W swojej formie jest zbiorem video klipów, które mogą być w dowolnej liczbie odtwarzane równocześnie. Każda ścieżka będzie współgrała z resztą a powstający mix może być dostrajany za pomocą suwaków głośności każdego z nich. Skąd wziął się pomysł? Otóż pewnego dnia Darren pracował nad stroną, na której były zagnieżdżone klipy video z YouTube. W pewnym momencie zdał sobie sprawę, że można odtwarzać kilka klipów równocześnie. Zaczął się zastanawiać czy istnieje możliwość wykorzystania tego fakty w jakiś sposób w muzyce. Zaczął nagrywać kilka instrumentów i w ten sposób powstało BB v1. Sam nagrał kilka ze ścieżek do obecnego projektu – między innymi gitarę, pianino i bass. Resztę otrzymał od użytkowników, których zaprosił do współpracy drogą mailową. Stworzył stronę internetową i na niej również zamieścił zaproszenie do przesyłania ścieżek dźwiękowych od użytkowników. Podał przy tym kilka prostych wskazówek: należy śpiewać lub grać w tonacji B-dur, ma to być prosta tekstura bez własnego tempa z dużą ilością pauz pomiędzy poszczególnymi frazami, ma trwać 1 – 2 minuty, należy nagrywać w cichym otoczeniu z możliwie małą ilością szumów pochodzących z tła itp. W związku z taką formą powstania tego projektu muzycznego nie da się wprost odpowiedzieć na pytanie kto napisał, skomponował w nim muzykę. Tradycyjna koncepcja autorstwa nie ma tu zastosowania. Każdy z uczestników napisał do niego muzykę – aby móc określić, przypisać komuś autorstwo należałoby najprawdopodobniej napisać „muzyka: inbflat.net”.


48

MARZEC 2011

Profile for Fundacja dla Akademii Górniczo-Hutniczej im S. Sta

teberia 6  

magazyn o technologiach i innowacjach

teberia 6  

magazyn o technologiach i innowacjach

Profile for teberia24
Advertisement