Issuu on Google+

NAUKA TECHNOLOGIE GOSPODARKA CZŁOWIEK

NR 5(8)LIPIEC ‘11

i nn ow acj

en

a sz

la ku

HiMountain w drodze na szczyt Lotnisko przyszłości: w jaki sposób oszczędzić nerwów pasażerom? Trident, czyli takiego wała... powodzi Energia z biomasy: energia nie całkiem zielona


16


SPIS TREŚCI:

4 5 6 9 10 12 16 22 27 28 30 32 40 46

LIPIEC 2011

POTĘŻNY ZEUS

KOMENTARZ

Wiatr, słońce, gaz ziemny i energia

Parada supersamolotów

Co z tej Magmy powstanie?

trident,czyli takiego wała...powodzi

TREKKING ZAAWANSOWANY TECHNOLOGICZNIE

HiMountain: iść na szczyt bez presji

Wycieczka szyta na miarę

Z sieci na szlak

Carpooling: oszczędność w portfelu i atmosferze Lotnisko przyszłości, czyli bliżej pasażera Jak bardzo zielone jest...zielone

* Skąd ta nazwa – Teberia? …Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pamiętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony. I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przysłuży się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informacji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilość wiedzy i to nie tylko górniczej, to czemu nie teberia. Jerzy Kicki Przewodniczący Komitetu Organizacyjnego Szkoły Eksploatacji Podziemnej

Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupionych wokół Szkoły Eksploatacji Podziemnej jako portal tematyczny traktujący o szeroko rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,teberia” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie. Adres redakcji: Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie pawilon C1 p. 322 A al. Mickiewicza 30 30-059 Kraków tel. (012) 617 - 46 - 04 fax. (012) 617 - 46 - 05 e-mail: redakcja@teberia.pl www.teberia.pl” www.teberia.pl Redaktor naczelny: Jacek Srokowski (jsrokowski@teberia.pl) Z-ca redaktora naczelnego: Tomasz Siobowicz (tsiobowicz@teberia.pl) Dyrektor Zarządzający Projektu Teberia: Artur Dyczko (arturd@min-pan.krakow.pl) Biuro reklamy: Małgorzata Boksa (reklama@teberia.pl) Studio graficzne: Pigment design&media (www.pigment-art.com) Wydawca: Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie prezes: Jerzy Kicki f-agh@agh.edu.pl www.fundacja.agh.edu.pl NIP: 677-228-96-47 REGON: 120471040 KRS: 0000280790 Konto Fundacji: Bank PEKAO SA ul. Kazimierza Wielkiego 75 30-474 Kraków nr rachunku: 02 1240 4575 1111 0000 5461 5391 SWIFT: PKOPPLPW IBAN; PL 02 1240 4575 1111 0000 5461 5391

Wirtualne planowanie sukcesu Redakcja nie odpowiada za treść ogłoszeń. (C)Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone. Żaden fragment niniejszego wydania nie może być wykorzystywanyw jakiejkolwiek formie bez pisemnej zgody wydawcy.




WYDARZENIA

Superkomputer „Zeus” z Akademickiego Centrum Komputerowego CYFRONET Akademii Górniczo-Hutniczej znalazł się na 80. miejscu prestiżowej listy Top 500 - najpotężniejszych komputerów na świecie. Pierwsze miejsce w zestawieniu zajął japoński superkomputer K. Na opublikowanej 16 czerwca w Hamburgu prestiżowej liście TOP 500 - najpotężniejszych komputerów na kuli ziemskiej - superkomputer CYFRONETU krakowskiej AGH awansował z 84. na 80. miejsce na świecie. Oznacza to, że jest on nadal najwydajniejszym tego typu urządzeniem w Polsce i jedynym komputerem z naszego kraju, sklasyfikowanym w pierwszej setce listy. Krakowski superkomputer posiada aktualnie 11 694 rdzenie obliczeniowe o łącznej mocy 104,77 Tflops (teraflopsów), 20 TB (terabajtów) pamięci operacyjnej RAM oraz pamięć dyskową

o pojemności 1,8 PB (petabajta). Klaster Zeus zbudowany jest z ponad tysiąca pojedynczych serwerów typu blade firmy Hewlett-Packard, połączonych ze sobą za pomocą superszybkiej sieci Infiniband o prędkości 40 Gb/s. Część serwerów wyposażona jest w karty GPGPU firmy Nvidia, które umożliwiają przyspieszenie niektórych algorytmów używanych w aplikacjach naukowych. Klaster pracuje pod kontrolą systemu operacyjnego Scientific Linux. Dzięki sukcesywnej rozbudowie Zeusa naukowcy z całej Polski mają możliwość wykorzystywania jego olbrzymiej mocy do rozwiązywania coraz bardziej złożonych problemów obliczeniowych. Dostęp do zasobów jest bezpłatny dla wszystkich osób prowadzących działalność na-



ukową. „Zeus” wykorzystywany jest np. do modelowania projektów energetycznych związanych z pracami nad Węzłem Wiedzy i Innowacji czy obliczeń w pracach nad fizyką wysokich energii m.in. w pracach CERN-u. Używa się go również do lokalizacji obliczeń Klastra LifeScience, a także skomplikowanych obliczeń z dziedziny chemii, biologii czy nanotechnologii. W prowadzonym od 1993 roku rankingu, aktualizowanym dwa razy w roku znalazły się jeszcze trzy polskie komputery. 163.miejsce zajął gdański komputer „Galera Plus” (65,59 Tflops), na 364. pozycji uplasował się superkomputer „Nasza Klasa” (46,55 Tflops), a na 480. miejscu zanotowano komputer QXL Poland sp z o.o. (40,76 Tflops). Wśród kryteriów oceny superkomputerów na liście TOP 500 pod uwagę brana jest m.in. liczba i typ rdzeni, rok produkcji (lub ostatniej większej zmiany), maksymalna wydajność osiągnięta w teście LINPACK, teoretyczna wydajność szczytowa oraz moc całego systemu mierzona w kilowatach. Najszybszym superkomputerem na świecie został japoński K zbudowany przez Fujitsu, którego moc przekracza 8 Pflops, co oznacza 548,352

rdzenie. Na liście TOP500 wyraźnie dominują superkomputery z USA (256 jednostek, 51,2%). Na kolejnych miejscach znajdują się Chiny (62 jednostki, 12,4%) i Niemcy (30 jednostek, 6%). Polska znajduje się na 12 miejscu w rankingu krajów, ex aequo z Arabią Saudyjską i Szwajcarią. mj Pełna lista najpotężniejszych komputerów na świecie jest dostępna na stronie: http://www. top500.org/list/2011/06/100

LIPIEC 2011


K O M E N TA R Z

Doprawdy trudno mi zrozumieć fobię Niemców na punkcie energetyki jądrowej. Trwa ona od dłuższego czasu, jednak obawy naszych zachodnich sąsiadów przed skutkami awarii reaktorów jądrowych nasiliły się jeszcze bardziej po niedawnej katastrofie w japońskiej Fukushimie. Społeczne nastroje zmusiły niemiecką kanclerz Angele Merkel do przyjęcia planu rezygnacji Niemiec z energii jądrowej do końca 2022 r. Czy fakt, że Niemcy pozbędą się własnych elektrowni atomowych czyni ich bardziej bezpiecznymi? Wystarczy spojrzeć na mapę, ich zachodni sąsiedzi, Francuzi korzystają praktycznie wyłącznie z elektrowni atomowych. Jeśli Europę miałby nawiedzić kataklizm porównywalny z tym, jaki kilka miesięcy temu spotkał Japonię to i tak nic to nie da Niemcom, że na ich terenie nie będzie już reaktorów jądrowych. I choćby z tego punktu widzenia decyzja Merkel jest nieracjonalna. Ale w polityce wiele nieracjonalności przybiera racjonalne odsłony. Kiedy przed kilkoma miesiącami ponad 200 tysięcy osób demonstrowało na ulicach niemieckich miast przeciwko energii atomowej, domagając się od władz wyłączenia elektrowni jądrowych w Niemczech, do protestów przyłączyli się politycy opozycyjni, którzy ostro skrytykowali politykę energetyczną chadecko-liberalnego rządu kanclerz Angeli Merkel. Szef Socjaldemokratycznej Partii Niemiec (SPD) Sigmar Gabriel powiedział, że tak liczne demonstracje są dowodem, że mieszkańcy Niemiec chcą rezygnacji z energii atomowej. „Najstarsze elektrownie jądrowe muszą być natychmiast i ostatecznie wyłączone” - powiedział Gabriel. Merkel musiała wziąć to pod uwagę, tym bardziej, że po raz pierwszy w historii jej partia przegrała wybory w BadeniiWirtembergii z Zielonymi. Merkel postanowiła zagrać więc vabank i ogłosiła nową strategię energetyczną. W ramach tej strategii Niemcy dążyć będą poza rezygnacją z energii jądrowej - również do ograniczenia emisji CO2 do atmosfery o 40 proc. i podwojenia do 35 proc. udziału energii opartej na źródłach odnawialnych w ilości wytwarzanego

LIPIEC 2011

prądu. Zdaniem Merkel nowa koncepcja energetyczna jest wyzwaniem, ale i szansą. „Wierzymy, że możemy być pionierem na drodze do ery energii odnawialnej, a zarazem pierwszym dużym krajem uprzemysłowionym, który dokona takiej transformacji energetycznej” - stwierdziła Merkel. Ambitne wyzwania, jakie stawiają sobie Niemcy nie pozostaną pewnie obojętne na naszą politykę energetyczną (o ile my takową mamy). 1 lipca Polska objęła przewodnictwo Unii Europejskiej w związku z czym to nam przypadnie „zaszczyt” reprezentowania Unii podczas grudniowej konferencji klimatycznej w Durbanie (RPA). No i tu się rodzi problem. Wiele wskazuje na to, że stanowisko UE dotyczące redukcji CO2 będzie sprzeczne z interesami Polski. O konieczności większego ograniczenia emisji dwutlenku węgla mówi otwarcie unijna komisarz ds. klimatu Connie Hedegaard. Pani komisarz chciałaby, żeby Unii zadeklarowała w Durbanie, że unijne zobowiązania dotyczące redukcji dwutlenku węgla wyniosą nie 20 a 30 proc. do 2020 r. Tymczasem Polska opowiada się za utrzymaniem dotychczasowego poziomu redukcji emisji - 20 proc. Na unijnej radzie ministrów ochrony środowiska szef resortu środowiska Andrzej Kraszewski zablokował przyjęcie konkluzji w sprawie „mapy drogowej” gospodarki niskowęglowej. Przedstawiła ją Komisja Europejska. Zgodnie z „mapą” do 2050 r. UE powinna zmniejszyć emisję CO2 o 80 proc. „Mapa” zawiera też harmonogram redukcji: w 2030 r. emisje powinny spaść o 40 proc., w 2040 r. - o 60 proc. Ale najwięcej emocji wzbudził pierwszy krok - zmniejszenie emisji o 25 proc. już do 2020 r. Wydaje się, że polska energetyka oparta na węglu kamiennym i brunatnym nie ma wielkiego manewru paliwowego. Oparcie naszej energetyki o odnawialne źródła energii to niemały wydatek na który Polski nie stać, przynajmniej licząc to po obecnych kosztach. W tym kontekście nowa strategia energetyczna Niemiec wydaje się kluczowa. Niemcy wyznaczając zielony kierunek w energetyce będą dążyć do tego, by ich śladem poszła cała Europa, bo tylko to pozwoli im zrównoważyć koszty własnej rewolucji energetycznej. Jeśli niemiecka gospodarka ma być konkurencyjna w świecie nie może odstawać od reszty. Można się więc spodziewać, że niemiecka zielona rewolucja rozleje się po Europie, chyba, że Merkel najzwyczajniej blefowała.

JACEK SROKOWSKI




WYDARZENIA

Wiatr, słońce, gaz ziemny i energia

Innowacyjny projekt elektrowni pozwoli na większe wykorzystanie wiatru, słońca i gazu ziemnego w procesie produkcji energii.

Pierwsza na świecie elektrownia typu IRCC (zintegrowana elektrownia energii odnawialnej w cyklu skojarzonym) powstanie w Turcji. Elektrownia powstaje w oparciu o nową technologię GE FlexEfficiency. Elektrownia FlexEfficiency 50 IRCC została zaprojektowana tak, aby w elastyczny sposób korzystać z Turbiny Gazowej 50 Hz 9FB najnowszej generacji, turbiny parowej, generatora mocy, turbin wiatrowych GE o łącznej mocy 22 MW oraz technologii skoncentrowanej wieży słonecznej firmy eSolar. Całość zintegrowana została w systemie kontroli elektrowni GE Mark* VIe. - Kiedy niedawno ogłaszaliśmy opracowanie przełomowej technologii FlexEfficiency, kładliśmy nacisk na możliwość lepszej integracji zasobów odnawialnych z gazem ziemnym, umożliwiającej produkcję bardziej ekologicznej, niezawodnej i tańszej energii - wyjaśniał Paul Browning, prezes działu produktów cieplnych GE Energy. Urządzenia pracują zarówno w częstotliwościach 50 Hz jak i 60 Hz, co pozwala na zastosowanie w sieciach energetycznych większości krajów świata. Mieszana konstrukcja elektrowni pozwala również na manewrowanie źródłami energii tak, aby jej cena była konkurencyjna i cały kompleks energetyczny nie musiał korzystać z rządowych subsydiów dla energii odnawialnej, co zaburza kalkulacje przy planowaniu

turbina parowa 

generator LIPIEC 2011


WYDARZENIA

inwestycji. To daje szanse na szybsze wprowadzenie energii odnawialnej w świecie, które dziś nie jest w stanie na szerszą skalę funkcjonować bez wsparcia publicznego. Nowa elektrownia składa się ze zmodyfikowanego systemu pozyskiwania energii ze światła słonecznego DSS (Distributed Solar Systems). W rozwiązaniu tym kilka luster lub luster-soczewek, jest ustawianych automatycznie tak, aby podążały za ruchem Słońca na nieboskłonie. Lustra lub soczewki koncentrują całe pozyskane światło na relatywnie małej przestrzeni, gdzie znajdują się kolektory ogrzewające i sprężające parę. Cały system paneli słonecznych jest przy tym modułowy, łatwy do zamontowania i modernizacji. Inżynierowie z eSolar zastosowali system sprężania pary, tak że może ona wytwarzać więcej energii. Para ta o wysokiej temperaturze, po sprężeniu trafia do nowego typu wysokowydajnej turbiny parowo-gazowej z wielowarstwowym wirnikiem i układem wtórnego odzyskiwania energii ze spalin opracowanej przez inżynierów z GE. System komputerowy sterujący elek-

trownią hybrydową, może przełączyć system energetyczny na zasilanie z części wiatrowej, którą stanowi tzw. farma - kilka rotorów wiatrowych podłączonych do generatorów nowego typu. Elektrownia będzie mieściła się w tureckiej miejscowości Karaman, a jej wydajność w panujących tam warunkach ocenia się na 530 megawatów – co wystarcza na zaopatrzenie w energię ponad 600 tys. gospodarstw domowych. Rozpoczęcie działalności elektrowni planowane jest na rok 2015. Według GE projekt ten wyznaczy nowe standardy dla inwestycji energetycznych nowej generacji w miejscach obfitujących w światło słoneczne i wiatr – takich, jak właśnie Bliski Wschód. jac

turbina gazowa LIPIEC 2011




WYDARZENIA

Parada supersamolotów na paryskim Air Show Projekty zaawansowanych pasażerskich samolotów naddźwiękowych i chińska technika lotnicza wkraczająca do Europy - to najważniejsze wydarzenia paryskiego Air Show.



Na 49 edycji International Paris Air Show przedstawiono koncepcje nowych ponaddźwiękowych samolotów pasażerskich, które mają być następcami słynnego francusko-brytyjskiego Concorde. Największym z nich jest Zero Emission Hyper Sonic Transport (ZEHST), autorstwa eurokoncernu aerokosmicznego EADS. ZEHST ma służyć wyłącznie do lotów międzykontynentalnych - na jego pokładzie podróż z Paryża do Tokio, trwająca obecnie 11 godzin miałaby

zdwojonym sterem kierunku, poniżej którego umieszczone są komory silników, miałby latać z prędkością 4 Macha (ok. 5000 km/h). W komorach silnikowych umieszczone byłyby trzy typy silników: klasyczne odrzutowe, rakietowe używane do przyspieszania oraz strumieniowe tzw. ramjet, umożliwiające zachowanie wysokiej prędkości podróżnej. Klasyczne silniki odrzutowe używane przy starcie i lądowaniu zasilane byłyby biopaliwem z alg. Loty odbywałyby się na wysokości ponad 20 tys. metrów. Ze względu na problemy właśnie z tymi silnikami oraz konieczność stworzenia lekkiej, ale bardzo wytrzymałej kompozytowo-metalowej konstrukcji kadłuba ZEHST nie pojawi się wcześniej niż około 2050 roku. Drugi ponaddźwiękowy samolot pasażerski - SonicStar autorstwa firmy technologicznej Hyper Mach jest zbliżony kształtem do Concorde i ZEHST. Zbudowany w układzie kaczki z usterzeniem poziomym z przodu, posiadałby dwa silniki umieszczone w komorach na górze kadłuba przy zdwojonym sterze kierunku. Miałby latać z szybkością około 4000 km na wysokości 18300 metrów i pokonywać drogę z Nowego Jorku do Dubaju w

się skrócić do 2,5 godziny. Samolot z kadłubem przewężonym według reguły pól i zbudowany w układzie latającego skrzydła delta ze

2,2 godziny. Przelotu wokół równikowego dookoła świata miałby dokonywać w 5 godzin i nie generować gromu dźwiękowego poja-

LIPIEC 2011


WYDARZENIA

ki poziom techniczny i niską cenę” zainteresował się tani irlandzki przewoźnik lotniczy Ryanair. Jak powiedział na konferencji prasowej dyrektor wykonawczy Ryanair - Michael O’Leary, przewoźnik zamierza zgłosić opcję aż na 200 tego typu maszyn w wariancie 190 miejscowym - poinformowała agencja Bloomberg. Co najciekawsze Comac C919 jeszcze nie lata - pierwsze loty testowe miałby odbyć się w 2014 roku, zaś maszyna weszłaby na rynek dwa lata później. Ryanair, który w 2013 roku będzie miał flotę składającą się z 300 Boeingów B737 chciał, według O’Leary’ego, „zdywersyfikować swoją flotę pod względem kosztowym i wprowadzić nowsze maszyny”, jako, że Boeingi i Comac będą na „tym samym poziomie technologicznym”. Samolotem Comac interesuje się też inny wielki

wiającego się przy przekraczaniu bariery dźwięku. Ze względu na dość prostą jak na tego typu maszynę konstrukcję i użycie stosowanych już technice lotniczej materiałów, prototyp SonicStar może latać już w czerwcu 2021 roku. Analitycy rynku lotniczego, przypominając los Concorde, twierdzą jednak, że podstawowym problemem będzie pozyskanie funduszy i znalezienie odbiorców na tego typu maszynę. Prawdziwą sensacją 49 edycji International Paris Air Show jest kariera chińskiej maszyny C919. Tym dwusilnikowym 168-190 miejscowym, wąskokadłubowym samolotem pasażerskim produkcji Commercial Aircraft Corp. of China (Comac) , „ze względu na wyso-

LIPIEC 2011

przewoźnik - British Airways - który już zeszłym roku podpisał list intencyjny chińską firmą dotyczący „rozmów na temat maszyn przyszłości i zapotrzebowania na nie”. Chiński koncern twierdzi, że w obecnym roku zbierze zamówienie na 100 maszyn z rodziny C919. PAP - Nauka w Polsce




K R E AT Y W N I

Co z tej Magmy powstanie?

Sukces studentów z Politechniki Białostockiej, którzy z łazikiem marsjańskim MAGMA2 zajęli pierwsze miejsce w prestiżowych, międzynarodowych zawodach University Rover Challenge został szeroko skomentowany przez media. W niektórych z tych relacji pojawiła się kwestia, której w swoich wypowiedziach dużo uwagi poświęcili sami triumfatorzy - wykorzystania potencjału, jaki Polska ma w obszarze technologii kosmicznych.

10

Według ekspertów ds. polityki kosmicznej podczas dyskusji poświęconych rozwojowi astro-

by teraz przedwczesnym krokiem, choć docelowo taka instytucja z pewnością powinna powstać” mówi Mateusz Wolski z Przemysłowego Instytutu Automatyki i Pomiarów (PIAP), który koordynuje konsultacje społeczne programu rozwoju systemów satelitarnych i technologii kosmicznych w Polsce. Jednocześnie eksperci podkreślają, że jest to ostatni moment, w którym Polska ma jeszcze szanse na dołączenie do grupy krajów, w których rozwój technologii kosmicznych napędza gospodarkę. „Chodzi o przystąpienie do Europejskiej Agencji Kosmicznej, do której Polska - choć jest członkiem Unii Europejskiej - nie należy” - mówi Jakub Ryzenko, ekspert z Centrum Badań Kosmicznych Polskiej Akademii Nauk (CBK PAN). „Sukces twórców łazika MAGMA2 to kolejny przykład na to, że nasz kraj ma w wielu obszarach potencjał, by stać się silnym członkiem Agencji. Byłaby to korzyść nie tylko dla nauki i gospodarki, ale także dla każdego z nas” - dodaje Paweł Wojtkiewicz, ekspert z PIAP. Polskie relacje z ESA są obecnie określone w ramach porozumienia PECS (ang. Programme for European Cooperating States), które zostało podpisane w 2007 roku i będzie obowiązywało do roku 2013. Jego celem jest między innymi

nautyki i technologii kosmicznych w Polsce należy zachować zdrowy rozsądek. „Nikt nie powinien się spodziewać, że w naszym kraju w ciągu najbliższych lat zaczniemy budować rakiety, a nawet powołanie Polskiej Agencji Kosmicznej było-

przygotowanie naszego kraju do członkowstwa w Agencji, jednak zakończenie tej procedury sukcesem wymaga podjęcia decyzji o rozpoczęciu negocjacji już dziś. Taki krok miałby według specjalistów głębo-

LIPIEC 2011


K R E AT Y W N I

kie uzasadnienie ekonomiczne. Polska wpłacając składkę do budżetu Unii Europejskiej i tak finansuje europejski program kosmiczny. Po przeliczeniu to zaangażowanie można ocenić na 20 milionów euro rocznie, co oznacza, że jest to kwota wielokrotnie wyższa od kosztów jakie budżet państwa ponosi w związku z PECS. „Problemem jest jednak to, że pieniądze te właściwie nie wracają do Polski, a mogłoby tak być, gdyby Polska była członkiem ESA” - mówi Ryzenko. Obok pieniędzy z Unii Europejskiej, po akcesji do Agencji polskie firmy, instytuty naukowe i placówki badawczo-rozwojowe mogłyby liczyć na co najmniej 80 proc. ze składki członkowskiej, którą Polska płaciłaby do budżetu ESA. „To nie nasze przypuszczenia, a twarde zasady, które dotyczą wszystkich państw członkowskich. A co

rządowej, a także przedstawiciele wszystkich partii politycznych zasiadających w parlamencie, co nie powinno dziwić, jeśli weźmie się pod uwagę jak w wielu obszarach życia są wykorzystywane technologie kosmiczne i systemy satelitarne” podkreśla Ryzenko. „GPS, telewizja satelitarna czy bankomaty, z których korzystamy na co dzień, to dość oczywiste zastosowania” - wymienia Mateusz Wolski. „Znacznie rzadziej pamiętamy, że to że możemy się dzisiaj poddać badaniu EKG, czy to jak dzisiaj wyglądają samochody i samoloty również zawdzięczamy programom kosmicznym” - podkreśla ekspert PIAP. „Są także inne, może mniej oczywiste sposoby wykorzystania technologii satelitarnych, które dla Polski mogą mieć jednak strategiczne znacze-

najważniejsze, każde euro zainwestowane w ten sposób przez budżet państwa może w ciągu kolejnych lat przynieść 4,6 euro zysku” - wyjaśnia Ryzenko, posługując się danymi z badań przeprowadzonych przez Norwegów, którzy od kilkudziesięciu lat są członkami ESA. W negocjacjach z Europejską Agencją Kosmiczną Polskę wyprzedziły już Czechy (które już są członkiem ESA) i Rumunia (w której w styczniu bieżącego roku odbyła się konwencja Agencji, podczas której zostały podpisane umowy o członkostwie i obecnie czekają one już tylko na ratyfikację). „W obu przypadkach chodziło o czysty rachunek ekonomiczny - decyzję o pełnym udziale w europejskich programach kosmicznych można porównać do wskoczenia do pociągu do innowacyjności” - mówi ekspert CBK PAN. W Polsce decyzję o rozpoczęciu negocjacji z ESA może podjąć prezes Rady Ministrów po konsultacjach z ministrami, przede wszystkim gospodarki, nauki i spraw zagranicznych. Pozytywne opinie wszystkich z nich są już na biurku premiera. „Poparcie dla wstąpienia do ESA wyraziło jednak znacznie więcej urzędników administracji

nia” - dodaje Wojtkiewicz. „Dzięki danym zebranym z orbity można ocenić jak dużo dwutlenku węgla jest pochłaniane przez lasy, których mamy przecież w Polsce bardzo dużo. Precyzyjne określenie tych wartości może mieć istotny wpływ na obniżenie kosztów, jakie budżet musi ponosić w związku limitami CO2, co ma już bezpośrednie przełożenie na rozwój polskiej gospodarki.” Właśnie od pozytywnej opinii strażnika budżetu, czyli ministra finansów, zależy obecnie zgoda premiera na rozpoczęcie negocjacji z ESA. „Jesteśmy przekonani, że minister Rostowski dostrzeże, że pieniądze zainwestowane w przystąpienie do ESA oraz składki członkowskie przyniosą Polsce wymierne korzyści” - mówi Ryzenko. „Byłoby wspaniale, gdyby sukces studentów z Politechniki Białostockiej okazał się impulsem do rozpoczęcia negocjacji z Agencją” - dodaje Wolski. CZA

LIPIEC 2011

Łazik marsjański Magma2, zbudowany na Politechnice Białostockiej, zwyciężył w prestiżowych, międzynarodowych zawodach University Rover Challenge (URC) w USA. Jego konstruktorzy to studenci Politechniki Białostockiej: Wojciech Głażewski, Emil Błoński, Piotr Ciura, Bartosz Solnik i Szymon Zimnoch. Dwa inne polskie łaziki zajęły czwarte i szóste miejsce. Jak poinformowali przedstawiciele zawodników, Magma2 pokonał m.in. robota Kanadyjczyków z York University oraz łazik Amerykanów z Oregon State University, którzy w budowie korzystali z pomocy NASA. Zawody URC odbywały się na amerykańskiej pustyni w stanie Utah, w pobliżu symulowanej bazy marsjańskiej Mars Society. Przez trzy dni zautomatyzowane łaziki musiały wykonywać skomplikowane zadania, w tym rozpoznanie terenu, poszukiwanie śladów życia w próbkach gleby oraz dostarczenie pakietu medycznego rannemu astronaucie. Łaziki musiały radzić sobie z wysoką temperaturą i przypominającym warunki marsjańskie pyłem. Magma2 ma relatywnie prostą konstrukcję, a wykonany został z lekkich materiałów. Z podstawowym wyposażeniem robot waży ok. 30 ok. Jak piszą jego konstruktorzy na swojej stronie internetowej, do wykonania każdego zadania na zawodach zaprojektowano osobne wyposażenie: manipulator przegubowy do pobierania próbki skały, manipulator kartezjański do obsługi panelu sterującego, zespół pojemników na apteczki dla rannych astronautów i przede wszystkim dwa heksakoptery – niewielkie urządzenia latające, które służą do obserwacji z powietrza terenu, w którym łazik operuje. Na tegorocznym konkursie Polskę reprezentował ponadto robot Scorpio, zbudowany przez 12osobową grupę studentów z Wydziału Elektroniki oraz Wydziału Mechanicznego Politechniki Wrocławskiej. Zajął czwarte miejsce. Szóste miejsce przypadło łazikowi Copernicus, przygotowanemu przez studentów i absolwenta Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Mikołaja Kopernika.

źródło: PAP - Nauka w Polsce

11


Trident, czyli takie Czy system informatyczny stworzony przez grupę studentów może okazać się lekarstwem na bolączki polskiej profilaktyki przeciwpowodziowej?


ego wała... powodzi


K R E AT Y W N I

Praca

przy odbudowie wałów na Wiśle, położonych wzdłuż miejscowości Koćmierzów (pod Sandomierzem) wre. Za moment na budowę przyjedzie sam premier Donald Tusk. Równo rok po ubiegłorocznej powodzi szef rząd odwiedza tereny popowodziowe w okolicach Sandomierza. - Nie od razu Kraków zbudowano, nie od razu w Polsce powstaną wały o najwyższym standardzie, tak podwyższonym, jak byśmy wszędzie chcieli – zaznaczył premier. Jak dodał, trzeba sobie zdawać również sprawę z tego, że „szczególnie w takich miejscach, któ-

re wymagają nadzwyczajnej, ponadstandardowej ochrony” budowa wałów przeciwpowodziowych jest „rzeczywiście bardzo droga”. Jak powiedział, w miejscu gdzie miała miejsce jego konferencja, „kilkaset metrów” wzmocnionego wału to koszt ponad 20 milionów złotych. Rząd przeznaczył z unijnego programu Infrastruktura i Środowisko ponad 1 mld euro na budowę wałów przeciwpowodziowych. Wśród realizowanych obecnie inwestycji prowadzona jest budowa wałów na Wisłoce w Mielcu, w obrębie Nysy Kłodzkiej czy na Żuławach. Wydawać by się mogło, że wszystko wraca do normy. Punkt widzenia zależy jednak od przysłowiowego punktu siedzenia. Zbigniew Rusak buduje hotel pod Sandomierzem. Zeszłoroczna powódź zalała budowę, a przedsiębiorca poniósł takie straty, że zastanawia się czy jest sens dalej ją prowadzić. Rusak wraz z innymi poszkodowanymi postanowił wystąpić z roszczeniem wobec państwa. Zarówno on, jak i pozostali poszkodowani twierdzą, że ich tragedia była skutkiem zaniedbań służb państwowych. W pozwie szczegółowo opisują błędy dotyczące źle utrzymywanych i zbyt niskich wałów, ale też źle zorganizowanej i spóźnionej akcji ratunkowej. - Powódź jest kataklizmem, siłą wyższą i ani

14

Donald Tusk ani nikt inny nie mógł jej zapobiec, ale gdyby nie zaniedbania nie byłoby aż takich skutków - zaznaczał mecenas Andrzej Kubas z krakowskiej kancelarii wynajętej przez powodzian na czas procesu. Każda wielka powódź, zarówno ta z 2010 roku, jak i wcześniejsza z 1997 roku rodzi pytanie: co zrobić na przyszłość by uniknąć tak wielkich strat liczonych w makro, ale przede wszystkim zwykłych ludzkich dramatów. W ubiegłym roku podczas powodzi tylko w samym Sandomierzu zostało zalanych 11 km2 powierzchni, 820 domów, gospodarstwa rolne w granicach miasta, dwie szkoły i kilka zakładów pracy. A Sandomierz to tylko jedne miejsce w Polsce, gdzie wały przeciwpowodziowe nie wytrzymały pod naciskiem wielkiej wody. W przyszłości podobnych miejsc, gdzie rozgrywać się będą podobne dramaty może być wiele. W Polsce istnieje bowiem ok. 8500 tys. km wałów przeciwpowodziowych głównych rzek, które chronią tereny o powierzchni 1060 tys. ha. Większość z nich została wybudowana jeszcze w okresie zaborów i były kilkakrotnie przebudowywane w okresie międzywojennym i powojennym. Szacuje się, że co najmniej 30 proc. z nich jest w fatalnym stanie technicznym i wymaga modernizacji. W jakim są faktycznie stanie dowiadujemy się gdy wał ulega zniszczeniu w trakcie powodzi. W tej sytuacji system diagnozujący stan wałów w czasie rzeczywistym i symulujący możliwe scenariusze rozwoju wydarzeń w czasie katastrof żywiołowych wydaje się czymś nieodzownym dla wszelkiego rodzaju służb antykryzysowych. Czymś takim jest Trident. Twórcami systemu nie jest żadna z firm technologicznych lecz grupa poznańskich studentów skupionych z zespole Demoscene Spirit. Łukasz Michniewicz, Szymon Majewski, Magdalena Dudarska, Marek Banaszak wraz ze swym opiekunem Tomaszem Gdalą stanowią współczesne wcielenie „doktora Judyma”. Demoscene Spirit już od 4 lat, projektuje rozwiązania ukierunkowane na rozwiązywanie problemów społecznych, wśród nich m.in. LifeTracker (system wspomagający reintrodukcję małych zwierząt np. popielica, przesznica), ISIS (system

mobilnego KTG wiążących lekarzy oraz młode rodziny), Reacto (system wspomagający rehabilitację zaburzeń psychoruchowych). Projekt Trident został podobnie jak wcześniejsze zbudowany na Uniwersytecie im. Adama Mickiewicza (UAM), na Wydziale Matematyki i Informatyki przez grupę ludzi która nie tylko śledziła rozwój wypadków, ale też brała czynny

LIPIEC 2011


K R E AT Y W N I

udział w niesieniu pomocy. Po wielu dyskusjach postanowili zgłosić swój projekt do konkursu organizowanego przez Microsoft Imagine Cup. W kategorii „Interoperacyjność” ich projekt od razu wskoczył na podium (awansowały tylko trzy drużyny z całego świata). Czym przekonali do siebie jury? Podobne rozwiązania - często znacznie bardziej skomplikowane - są testowane np. w Holandii. My postawiliśmy na prostotę. Wykorzystaliśmy czujniki, używane dotąd głównie w rolnictwie, popularne słupki PR2, które nieco zmodyfikowaliśmy na rzecz projektu. Dodatkowo proces instalacji (w zboczu wzgórza zagrożonego osunięciem ziemi, modułowość urządzenia daje żądaną głębokość penetracji) jest znany i nie wymaga zmiany istniejącej infrastruktury, a jedynie ponoszenia kosztów wymiany baterii i koszt obsługi połączenia GSM – opisuje Tomaszem Gdala. - Nazwa Trident wywodzi się od naszego sposobu widzenia zjawisk powodziowych. W swej najprostszej postaci są to trzy fazy. Woda wysoka, woda opada, oraz czas gdzie nie jesteśmy

rwany. Można uzyskać odpowiedź na pytanie co musiałoby się stać (i ile miałbym czasu na ewakuację), aby teren mojej działki został zalany. Można wreszcie w dowolnym momencie wykorzystać wolontariuszy do wzmacniania umocnień. Przy realizacji projektu członkowie zespołu uzyskali pomoc zarówno od przedstawicieli Polskiej Akademii Nauk, włodarzy zabezpieczeń w województwie wielkopolskim, jak i pracowników UAM związanych z hydrologią i ochroną powodziową. Projekt powstał na zasadach non-profit, co dla Demoscene Spirit jest charakterystyczne. - Decydując się ponad rok temu na rozpoczęcie prac postanowiliśmy, że wszystkie wyniki prac, schematy, kody źródłowe uczynimy otwartymi i każdy kto będzie chciał rozwiązanie (albo jego część) wdrożyć uzyska pełen doń wgląd. Jest tak dlatego, że rozwiązanie problemu nie może być odkładane. My pokazaliśmy, że jest to możliwe – mówi Tomaszem Gdala. Gdala i jego podopieczni pragną, by ich system doczekał się wdrożenia. - Na razie wszyscy nas klepią po plecach mówiąc, że to świetne rozwiązanie. Jacek Srokowski Wizualne streszczenie projektu Trident można znaleźć pod adresem: http://www.youtube. com/watch?v=YKByAj54dOM

Kim są DemosceneSpirit?

bezpośrednio wystawieni na zagrożenie. Poszczególne moduły rozwiązania mogą być stosowane w różnych fazach powodzi. Współpraca między elementami systemu odbywa się w sposób zupełnie niewidoczny dla użytkownika. Główne narzędzia systemu to: - System monitorowania stanu wałów przeciwpowodziowych (system tworzą sensory zbudowane na bazie sensora wilgotności delta-T wyposażonego miedzy innymi w czujniki ciśnienia). Sensory montowane są w wale od strony zawala, na całej jego wysokości. Monitoring obejmuje również stan materiału bezpośrednio pod wałem. - System symulacyjny zjawisk powodziowych (na system składają się mapy terenu ziemi, pozyskane na początku wieku przez NASA, następnie korygowane hydrologicznie). System pozwala przewidywać skutki przerwania wału, symulować różne warianty budowy umocnień ochronnych czy oceniać stopień zagrożenia terenu zalaniem przez wodę (np. w pobliżu zbiorników zaporowych). - Aplikacja People’s Quest, oparta jest na mapach Bing (Microsoft) i połączona z Facebookiem. System ten pomaga w nawiązaniu kontaktu pomiędzy osobami potrzebującymi pomocy, np. lokalne centra zarządzania kryzysowego, a wolontariuszami. Na podstawie wskazań czujników ciśnienia hydrostatycznego (umieszczonych w wałach) można uzyskać odpowiedź na pytanie co stałoby się gdyby ten odcinek zabezpieczeń został prze-

LIPIEC 2011

Przez wiele lat pracy rodzina DemosceneSpirit rosła i zmieniała się zależnie od problemów które chciała rozwiązywać. Spośród studentów warto wymienić: Marta Łuczak (medycyna), Agata Majewska (artysta plastyk), Agata Czapracka (biolog), Wiktoria Szydło (biolog), Magdalena Dudarska (projektant interfejsów użytkownika), Szymon Majewski (projektant systemów), Łukasz Michniewicz (projektant systemów), Dariusz Raczkowski (programista i projektant interfejsów użytkownika), Marek Banaszak (programista i integrator systemów), Konrad Kaźmierski (programista i inżynier oprogramowania). Opiekunem i mentorem zespołu od początku był Tomasz Gdala. Każdy z ich projektów zbudowany został w odrobinę innej konfiguracji osobowej. Wszystkie projekty odniosły sukces i na konkursach w Polsce i międzynarodowych. Dwa z nich trafiły do komercjalizacji. - Grupę która mam przyjemność kierować do pracy przyciągają problemy. Łączymy się wtedy gdy chcemy pokazać możliwość ich rozwiązania. Na co dzień osoby albo pracują zawodowo, albo studiują. Cześć właśnie szuka pracy i okazuje się, że godziwe wynagrodzenie najczęściej znajdujemy za naszą zachodnią granicą. Polacy nie mają „nawyku innowacyjności” - podkreśla Gdala.

15


Trekking

zaawansowany technologicznie tekst: Aneta ŝukowska • 4outdoor.pl


RAPORT

Nanotechnologia, tekstronika, materiały przemiany fazowej, bionika… oto tylko niektóre z pojęć używanych dziś do opisu odzieży i sprzętu outdoorowego. Mało kto zdaje sobie sprawę z tego, że kupując wodoszczelną kurtkę w sklepie górskim, korzysta z najnowszych osiągnięć nauki i technologii. Podobnie jest z butami, w których wybieramy się na szlak, z bielizną termoaktywną, czy z plecakiem, do którego to wszystko pakujemy. Era flanelowych koszul, bawełnianej bielizny, tzw. traperów i kurtek, które równie dobrze można by zastąpić foliowym workiem dawno już odeszły do lamusa. Dzisiejsza odzież, którą zabieramy na wakacyjne wyprawy to nie to samo co dawna odzież „turystyczna”, stąd zmiana przymiotnika na „outdoorowa”. Chodzi tu nie tylko o specyfikę miejsca, w którym jest wykorzystywana, ale o jej zaawansowanie technologiczne. Gore-Tex, czyli 25 000g/m2/24h na 28 000 mm H2O Wszyscy już chyba znają dziś Gore-Tex, który stał się niemal synonimem membrany w odzieży outdoorowej. Łatwo rozpoznawalny jako „to białe pod siateczką”, odpowiada za to, że nasza kurtka jest wiatroszczelna, wodoszczelna i „oddychająca”. Dziś tego rodzaju cechy odzieży turystycznej są oczywistymi oczywistościami, jednak zanim membrany weszły na dobre do naszego codziennego życia, musiał nastąpić szereg, niezwykle istotnych i przełomowych odkryć. Wszystko zaczęło się mniej-więcej w połowie ubiegłego wieku. Wtedy to zaczęto prace nad poprawą „oddychalności” gumowego brezentu, stosowanego w odzieży ochronnej. W latach 30. XX wieku miał miejsce szereg przełomowych odkryć, które przyczyniły się do powstania membrany. W 1930 roku Otis Bayer (ten od aspiryny) wynalazł poliuretan, w 1935 roku Gerald Berchet i Wallace Carothers z

18

firmy DuPont wynajdują nylon, rok później Otto Bayer opracowuje technologię produkcji poliuretanów, a w 1937 Roy Plunkett z DuPonta wynajduje Teflon. Wszystkie te składniki doprowadziły do stworzenia produktu końcowego, jakim jest membrana. Z poliuretanu stworzono samą membranę, z nylonu powstała dla niej warstwa nośna, a teflon ją zabezpieczył. Wreszcie w 1969 roku W.L. Gore tworzy najbardziej znaną na świecie membranę Gore-Tex, którą NASA wykorzystała do tworzenia skafandrów do spacerów w przestrzeni kosmicznej. Lata 70. to pierwsze aplikacje membran do odzieży na szerszą skalę, od lat 80. zaczynają powoli wchodzić na rynek membrany konkurencyjne dla Gore-Tex’u. Początek XXI wieku również nie obył się bez przełomowych dla mem-

bran odkryć, coraz to nowsze produkty wypierają starsze wersje, a wyścig w tej kwestii nadal nie został nieukończony. Coraz trudniej też wytypować zwycięzcę. Aby móc wykorzystać membranę w przemyśle odzieżowym trzeba ją nanieść na materiał nośny, który zapewni jej wytrzymałość. W ten sposób powstaje laminat, o który właśnie chodzi gdy mowa o Gore-Tex’sie. Producenci membran stosują różne rodzaje surowców, z których tworzą membrany, różne sposoby nanoszenia membrany na tkaninę, jak i różne materiały z których tworzą końcowy produkt jakim jest laminat. Nowe technologie i przełomy w dziedzinie membran dotyczą więc nie tylko samej membrany, ale także tych właśnie procesów. W czym jednak tkwi sekret membran i dlaczego świat odzieży outdoorowej oszalał na ich punkcie? Jak to zwykle bywa, chodzi o parametry. Mowa tu o „oddychalności” i wodoszczelności. Pierwsza jest ważna dlatego, że podczas aktywności fizycznej wydzielamy spore ilości wilgoci, druga – ponieważ często owe aktywności uprawiamy na deszczu i w śniegu. Parametry wyraża się w wartościach liczbowych – np. 25 000g/m2/24h (oddychalność) na 28 000 mm H2O (wodoszczelność). Oddychalność, czyli paroprzepuszczalność to parametr mówiący o tym, jak wiele wody pochodzącej z naszego potu może przeniknąć na zewnątrz. Jednostką są tu gramy cieczy, jakie w ciągu doby mogą przedostać się na drugą stronę metra kwadratowego laminatu. Im większa wartość tego parametru, tym nasza kurtka czy spodnie lepiej „oddychają”. Najdoskonalszy dziś laminat może poszczycić się parametrem 46 000 g/m2/24h. Został on zastosowany w 2009 roku w kurtce szwajcarskiej marki Mammut. Mimo, że parametr paroprzepuszczalności spotyka się dziś z wielostronną krytyką, to dla wielu osób nadal stanowi on jedne z głównych kryteriów decydujących o tym, czy dana kurtka zostanie przez nich zakupiona. Krytyka zaś płynie głównie stąd, że w teście mierzącym „oddychalność” nie bierze się pod uwagę jakiegokolwiek źródła ciepła, a przecież nasz organizm jest takim niewątpliwie. Drugą charakterystyką, która ma znaczenie jest wodoszczelność, czyli po prostu jednostka mówiąca o tym, jak bardzo laminat odporny jest na przeciekanie. Mówi się tu o maksymalnej wartości ciśnienia, wyrażonego w milimetrach słupa wody, przy jakiej membrana przestaje być nieprzenikalna dla wody. Wszystkie membrany, których parametr wodoszczelności przekracza 10 000 mm H2O uznaje się w

LIPIEC 2011


RAPORT

praktyce za nieprzemakalne. Gore-Tex, produkowany przez amerykańską firmę W.L.Gore & Associates Inc długo był głównym graczem na rynku membran, obecnie ma już jednak bardzo silną konkurencję. Należy do niej m.in. membrana eVent produkowana przez firmę BHA Group Inc, membrany Dermizax, Entrant i Triplepoint firmy Toray Industries Inc, Sympatex firmy Sympatex Technologies, Gelanots firmy Toyota Tsusho Corporation, OutDry firmy OutDry Technologies S.r.l, czy Omnicilma firmy Concordia Textiles. Warto też pamiętać o tym, że wielości marek membran dostępnych na rynku nie odpowiada liczbie jej producentów. Rzeczywista ilość membran jest znacznie mniejsza, dlatego, że wiele z nich jest obrandowana pod różnymi nazwami własnymi danego producenta odzieży. Na przykład marka Marmot stosuje w swojej odzieży membranę PreCip, która jest niczym innym jak membraną Entrant firmy Toray. Podobnie jest z Hy-Ventem marki The North Face. Na dzień dzisiejszy walka o klienta jest coraz ostrzejsza, niemalże co roku ogłasza się wprowadzenie nowej, jeszcze bardziej udoskonalonej technologii. W tym roku na przykład starły się ze sobą dwie potęgi na rynku outdoorowym: Polartec zadebiutował z innowacyjnym laminatem Polartec Neo Shell, a firma Gore z laminatem Gore-Tex Active Shell.

znaczne zwiększenie wiatroszczelności, „oddychalności”, kosztem jednak pogorszenia wodoszczelności. Jak się okazało, tego właśnie chcieli fani aktywności na świeżym powietrzu, którzy na deszcz wystawieni są okazjonalnie, a „oddychalność” i wiatroszczelność ich odzieży jest ważna stale. Niedługo trzeba było czekać na odpowiedź konkurencji. Firma Milden Mills, twórca Polarteca (to stąd potocznie mówimy „polar”), wprowadziła na rynek w 1998 roku Polartec Power Shield, również z membraną. Tkanina ta została zastosowana po raz pierwszy w kurtce Gamma SV marki Arc’teryx. Początek XXI wieku to kontynuacja softshellowych nowości technologicznych, do których należy Windstopper Soft Shell marki Gore, Polartec Power Sheild O2, czy wreszcie C-change marki Schoeller. Celem producentów jest stworzenie produktu idealnie oddychającego,

Odzież typu soft Tak jak w latach 80. ubiegłego wieku przełomem było pojawienie się kurtek z membranami, tak w latach 90. do rewolucji w odzieży outdoorowej doprowadziło pojawienie się softshelli. Softshelle można uznać za kolejny kamień milowy w myśleniu o turystyce outdoorowej. Do pojawienia się ich na rynku doprowadził przełom konceptualny związany zarówno z nowoczesnymi włóknami, technologiami, jak i samym myśleniem o aktywnościach na świeżym powietrzu. Tu nastąpiło największe przedefiniowanie – teraz w outdoorze jesteśmy krótko, ale intensywnie, robiąc trudne rzeczy. Niegdyś byliśmy długo, działaliśmy powoli i ostrożnie. Dlatego jeszcze parę lat temu najważniejsza była wodoszczelność, wytrzymałość i „pancerność” odzieży outdoorowej. Dziś do priorytetów należy niska waga, doskonała „oddychalność”, wiatroszczelność i ochrona przed krótkim deszczykiem. Kryteria te idealnie spełnia właśnie softshell. Pomysł na stworzenie odzieży softshellowej był bardzo prosty – trzeba połączyć ze sobą dwie warstwy odzieży, które tradycyjnie nosiło się jako oddzielne: tkaninę typu fleece, która nas grzeje z warstwą

zewnętrzną, która będzie nas chronić przed warunkami atmosferycznymi. Pomysłodawcy zrezygnowali z membrany w tak powstałym wyrobie, głównie dlatego, aby zwiększyć „oddychalność” produktu. Do pionierów softshellowej odzieży bez membrany należy brytyjska firma Buffalo, która jako pierwsza połączyła ze sobą odporny na wodę Pertex od zewnątrz wraz z miękką i ciepłą warstwą po wewnętrznej stronie. Do gry szybko przystąpili potentaci rynku. W 1991 roku firma W.L. Gore stworzyła Windstopper, który jest dzianiną typu fleece z membraną. Przy tworzeniu tego materiału kluczowe było dla Gore

LIPIEC 2011

zapewniającego pełen komfort termiczny i chroniącego nawet przed dużym deszczem. Na to jednak jeszcze musimy trochę poczekać.

Natura była pierwsza Aby zwiększyć możliwości odzieży outdoorowej producenci wzorują się także na naturze. Tu z pomocą przychodzi inżynieria bioniczna, czyli adaptowanie zaobserwowanych w naturze szeregu rozwiązań do technologii w elektronice, automatyce, technice, czy w odzieży outdoorowej właśnie. W technologii odzieżowej imitacje naturalnych efektów znane są pod takimi nazwami jak np. efekt liścia lotosu (impregnaty), efekt kameleona (sprytna skóra polimerowa) czy odzież samoregulująca, odwzorowująca zachowanie szyszki. Ta ostatnia znana jest np. we wspomnianej wyżej membranie Cchange marki Schoeller. W zależności od panujących warunków termicznych pory membrany zamykają się lub otwierają, co ułatwia „oddychanie”, przy jednoczesnym zachowaniu wodoodporności. Inspiracją dla stworzenia tej membrany była szyszka, która gdy jest ciepło otwiera się w celu wysypywania nasion, i zamyka gdy jest wilgotno i zimno. W tym przypadku miłośnikom ruchu na świeżym powietrzu pomógł Julian Vincent, profesor bioniki z University of Bath w Anglii, specjalizujący się m.in. w drzewach iglastych. To on właśnie po raz pierwszy na przykładzie szyszki rozwinął projekt inteligentnej odzieży przystosowującej się do wahań temperatury poprzez zmianę kształtu.

Na poziomie nano O ile można zrozumieć stosowanie najnowszych technologii w odzieży zewnętrznej, chroniącej nas przed warunkami atmosferycznymi, o tyle może dziwić romans naukowców z producentami bielizny. Bielizny dla sportowców, oczywiście. W grę wchodzi tu jedna z najnowszych i najbardziej przełomowych dziedzin nauki jaką jest nanotechnologia. Jak wiadomo, jeden

19


RAPORT

nanometr (nm) to jedna miliardowa metra (czyli mniej więcej tyle ile sześć atomów węgla), i właśnie na tym poziomie naukowcy przebudowują strukturę atomów. Celem tych zabiegów są nowe właściwości na poziomie makro, np. nasza odzież będzie pachniała, będzie wyjątkowo lekka, miękka, nie będzie się gniotła, czy też będzie miała takie właściwości jak membrana. Obecnie najczęściej nanotechnologię stosuje się w celu nadania bieliźnie termoaktywnej „antybakteryjności”. Dzięki niej po wysiłku fizycznym bielizna zachowuje swoją świeżość, czy mówiąc bardziej dosadnie – nie śmierdzi. Jak bowiem wiadomo, brzydki zapach po wysiłku nie płynie z naszego potu, lecz powodują go bakterie, które w wilgotnym i ciepłym środowisku naszego potu mają świetne warunki do rozwoju. Aby więc osiągnąć „antybakteryjność” w tkaninę wplata się „srebrną nitkę”, czyli bakteriostatyczne włókno, w które implementuje się nanocząsteczki srebra, zwalczające kilkaset rodzajów mikrobów. Przedstawiając to w uproszczeniu – uwolnione z włókien jony srebra

ku temperatury od -10 do -20ºC następuje wzrost grubości warstwy powietrza między warstwami odzieży o 20%, co skutkuje wzrostem izolacyjności cieplnej ubioru o 55%. Za regulacje temperatury i odprowadzanie potu ze skóry odpowiadają także nieco prostsze i szerzej stosowane materiały. Należą do nich np. wynalezione przez koncern chemiczny DuPont włókna Thermolite i Coolmax. Thermolite jest włóknem poliestrowym typu hollow-fiber, czyli jest pusty w środku. Dzięki temu powietrze zamknięte we wnętrzu włókna ulega ogrzaniu przez nasze ciało i stanowi dodatkową izolację. Do tego Thermolite jest lekki i schnie o 50% szybciej niż bawełna. Także w tym przypadku wzorem dla firmy DuPont była natura, a konkretnie futro niedźwiedzi polarnych. Coolmax natomiast ma nieco inne zadania, stąd też odmienna konstrukcja. Włókno to ma przekrój przypominający harmonijkę, składa się z czterech lub sześciu stycznych okręgów. Dzięki temu zwiększono powierzchnię włókna oraz ilość kanalików powietrznych. System ten doskonale odprowadza i transmituje wilgoć z ludzkiego ciała na zewnątrz tkaniny. Warto dodać, że Coolmax jest jednym z najszybciej schnących i najmniej ograniczających perspirację włókien na rynku. Dlatego właśnie stosuje się go w bieliźnie przeznaczonej na lato. Przyglądając się technologiom stosowanym w bieliźnie termoaktywnej łatwo dostrzec kolejne przełomowe odkrycia naukowe. Na przykład w celu zwiększenia wydajności sportowców, tworzy się wyroby, które poprawiają krążenie krwi, wspomagają przepompowywanie jej w kierunku serca i wzmacniają działanie systemu żylnego. Osiąga się to poprzez skonstruowanie bielizny o nierównomiernym nacisku (np. BioAcceleraion Technology australijskiej marki Skin), lub poprzez zastosowanie włókien emitujących promieniowanie podczerwone.

Inteligentny jak odzież

zmieniają przebieg procesów metabolicznych u drobnoustrojów, co prowadzi do ich smutnego końca. Segment odzieży outdoorowej stanowi świetne pole do popisu dla naukowców specjalizujących się także w innych dziedzinach niż nanotechnologia. Jednym z kluczowych zadań odzieży turystycznej jest utrzymywanie komfortu termicznego. Tutaj pomocą przychodzi nam inżynieria materiałowa. Mowa tu przede wszystkim o materiałach przemiany fazowej (PCM), które mogą być inkorporowane do struktury włókna lub umieszczane na jego powierzchni. Główną cechą materiałów przemiany fazowej jest możliwość zmiany stanu skupienia - kiedy jest nam gorąco, materiał rozpuszcza się przyjmując nadmiar temperatury, a gdy jest nam zimno, materiał krzepnie, oddając nam ciepło. PCM również przede wszystkim stosowane są w bieliźnie termoaktywnej. Przykładem może być technologia Smartcel stosowana przez polska markę Jaxa. Technologia ta polega na umieszczeniu mikrokapsułek parafiny we włóknach celulozy. Całość tworzy wyrób z tzw. pamięcią termiczną, która reaguje na zmiany temperatury ludzkiego ciała. Przy normalnej temperaturze człowieka parafina zachowuje stały stan skupienia, jednak gdy tylko temperatura wzrasta, parafina kumulując energię powoli przechodzi do stanu płynnego. Przy spadku temperatury parafina wraca do stanu stałego i oddaje z powrotem zmagazynowana energię. Innymi sposobami na zwiększenie komfortu termicznego jest zastosowanie materiałów z pamięcią kształtu (SMM – Shape Memory Materials). Zastosowane w odzieży warstwowej mogą w zależności od warunków zwiększyć lub zmniejszyć szczelinę powietrzną. Przy spad-

20

Producenci odzieży outdoorowej coraz chętniej współpracują z informatykami i elektronikami. Efektem tego mariażu jest odzież inteligentna, nazywana również smart odzieżą, czy ubieralną elektroniką. Wchodzimy tu na teren tekstroniki, która łączy w sobie włókiennictwo, informatykę i elektronikę. Celem pracy naukowców jest w tym przypadku umieszczenie w odzieży elektroniki w taki sposób, aby nam pomagała i jednocześnie jej obecność nie była uciążliwa. Wszystko zaczęło się od MP3 w kurtkach, teraz odchodzi się już od transmisji przewodowych na rzecz bezprzewodowych, włączając w ten układ baterie solarne jako źródło energii. Dzięki nowym rozwiązaniom będziemy mogli na przykład na bieżąco monitorować wszystkie funkcje życiowe sportowca i od razu wyświetlać dane na naszej odzieży (wszystko bezprzewodowo), korzystać z włókien przewodzących, które będą źródłem ciepła, czy włókien optycznych, które uczynią nas widocznym. W sportach zimowych istotne jest także zastosowaniu urządzeń typu GPS, dzięki którym będziemy mogli ustalić położenie osoby np. zasypanej przez lawinę, a w połączeniu z innymi urządzeniami ustalić, czy zasypana osoba wciąż żyje i należy się śpieszyć z pomocą. W dziedzinę smart odzieży wypisuje się obecnie już wiele firm outdoorowych, w tym marki The North Face i Columbia, która stworzyła buty wytwarzające energię elektryczną – Bugathermo Boots. Dzięki systemowi wmontowanemu w podeszwę produkujemy podczas chodzenia energię, która umożliwia nam naładowanie np. telefonu komórkowego. System ten możemy także wykorzystać do ogrzewania bądź chłodzenia samych butów. Marka Philips natomiast wymyśliła generator prądu umieszczony na kolanie, który podczas naszego biegu, zamienia się w małą elektrownię. Innym przykładem smart odzieży są rękawice wyposażone w system bezprzewodowej komunikacji, dzięki której możemy za pomocą gestów przekazywać proste komunikaty (typu OK, pomocy) do partnera oddalonego od nas nawet o znaczną odległość. Przydatne to może być chociażby podczas wspinaczki na dużych ścianach. Np. kiedy nie możemy mówić, krzyczeć, albo po prostu partner nas nie usłyszy, wystarczy ścisnąć pięść aby wezwać pomoc.

LIPIEC 2011


H2O To dopiero początek Powyższe przykłady to oczywiście tylko garstka technologii stosowanych w odzieży outdoorowej. Niebawem zresztą owe najnowsze osiągnięcia przejdą do historii, wywołując pobłażliwy uśmiech na twarzach następnych pokoleń. Dla nas przyszłość związana z technologiami w odzieży sportowej i outdoorowej brzmi dziś jak opis wzięty prosto z kart książek Stanisława Lema. Przykładem tego co nas czeka w przyszłości może być odzież w spray’u, czy membrana, która działałby dzięki mikroorganizmom żywiących się naszym potem.

LIPIEC 2011

21


HiMountain: iść na szczyt bez presji


SPOJRZENIA

„Dzień jak co dzień: praca, hobby, praca. Robimy to co lubimy, to czego potrzebujemy, to na czym się znamy: fun and money. Czyli sama radość.” Przed wizytą w firmie HiMountain słowa współtwórcy firmy i jej prezesa Artura Hajzera można by uznać za marketingowy słowotok. Po wizycie w czołowej polskiej firmie outdoorowej słowa te nabierają wyjątkowo szczerej wymowy. Kto w Polsce nie słyszał o marce Alpinus? Dla każdego miłośnika turystyki, aktywnego wypoczynku sprzęt z metką Alpinusa stanowił przedmiot niemałego pożądania. Markę Alpinus stworzyli znani hi-

malaiści Artur Hajzer i Janusz Majer. Biznes zrodziła miłość do gór. Jest początek lat 90. Hajzer i Majer przed kolejnym wyjazdem w Himalaje jadą do Niemiec do firmy Vaude. Jej właściciel, Albrecht von Dewitz, w latach 80. wspierał finansowo wyprawy polskich himalaistów, m.in. Wandę Rutkiewicz.

nadzwyczajnego. W 1968 r. dwaj wspinacze, Douglas Tompkins i Dick Klopp także z podobnej potrzeby założyli firmę – The North Face, dziś światowego potentata w produkcji sprzętu i odzieży turystycznej. Nie bez przyczyny Hajzer i Majer do dziś porównywani są do twórców The North Face. Ich Alpinus szybko zdobywał renomę na krajowym rynku odzieży i sprzętu sportowego, a jej twórcy dołączyli do grona zamożnych osób. Nie wystarczało im, że produkt znajduje kupujących. Hajzer i Majer chcieli produkować wysokiej klasy odzież i sprzęt, nie ograniczali się do typowego outdooru, ubierali również rowerzystów, żeglarzy. Inwestowali przy tym w nowoczesne technologie, drogie materiały. Jednak po okresie dynamicznego podboju rynku ich firma musiała zmierzyć się z kłopotami finansowymi. Zawarła z Bankiem Współpracy Europejskiej SA umowę kredytową. Dzięki niej firma miała wyjść na prostą z tarapatów finansowych. Pożyczka została udzielona pod zabezpieczenie w postaci marki Alpinus. Zastrzyk pieniędzy nie pomógł w ratowaniu firmy i spółka ADD zbankrutowała. - W sumie od zawsze mam duszę krawca, nie menadżera, a sprzęt i odzież to taki konik – no i te góry – zajmowało mnie to od małego. Jeśli miałbym się zastanowić, co ja umiem w mojej firmie robić, na co

- Jak macie jeździć do mnie po pieniądze na wyprawy, to sami sobie załóżcie podobną firmę w Polsce, przecież wreszcie macie wolność gospodarczą – usłyszeli od von Dewitz. Dostali też pewne wsparcie od właściciela firmy (do dziś są wy-

łącznymi dystrybutorami firmy Vaude w Polsce). W ten sposób powstał Alpinus. Filozofia łączenia pasji z biznesem to w branży outdoorowej nic

24

wpływam albo co bym umiał robić, gdyby tej firmy nie było, to właśnie krawiectwo jest odpowiedzią. Kiedyś robiłem to wszystko sam, a teraz umiem odpowiednio wpłynąć na projektantów i menedżerów. To stało się za sprawą znajomości rynku turystycznego i krawiectwa, które wyniosłem z domu rodzinnego – przyznaje uczciwie Hajzer. Z porażki Alpinusa Hajzer wyciąga odpowiednie wnioski. Razem z Majerem decyduje się na reaktywację biznesu outdoorowego. Powstaje firma Mount oferująca produkty pod marką HiMountain. Przedrostek „Hi” to nie tylko akronim słowa wysokie, to także skrót terminu HighTech. Oferowanie produktów o wysokiej jakości, produkowanych z nowoczesnych materiałów – to jedna z niewielu rzeczy, które chcieli przenieść do nowej firmy. Reszta była mniej istotna.

LIPIEC 2011


- Nie ma u nas w firmie specjalnego parcia na stymulowanie rozwoju rynku outdoor i tłumaczenie ludziom, że powinni żyć inaczej i że potrzebują naszych produktów – twierdzi Hajzer.


SPOJRZENIA

Hajzer widząc jak po rynku rozpychają się masowe produkty typu Quechua (Decathlon) świadomie decyduje się zejść do outdoorowego podziemia. - Firmy outdoorowe, które pod presją inwestorów próbują gonić te wartości i rozwijać się za wszelką cenę w porównywalnym tempie, jak np. Jack Wolfskin, płacić za to mogą cenę utraty wizerunku i zaufa-

nia u klientów z grupy „opinion leaders” - po swoich „przygodach” w branży outdoor wiem, że to rzecz dość ryzykowna i ja na tzw. „rozwój” się po prostu więcej nie piszę – przyznaje w wywiadzie udzielonym serwisowi 4outdoor.pl. Obraz, który przedstawia Hajzer niekoniecznie oddaje rzeczywistość, bo HiMountain to wciąż na rynku polskim silnie rozpoznawalna marka outdoorowa. Istotnym elementem budowy strategii firmy, jak twierdzi Grzegorz Chwoła, szef marketingu HiMounatin, była decyzja o budowie własnej sieci handlowej. - Nie chcieliśmy być zależni od dystrybutorów zewnętrznych. Sieć niewielkich sklepów outdoorowych, jaką stworzyliśmy to coś co nie jest powszechne na tym rynku – twierdzi Chwoła. HiMountain posiada sieć 40-tu sklepów, największą sieć sklepów outdoorowych w Polsce. Położone są w największych miastach Polski, w najlepszych centrach handlowych, a w Krakowie, Warszawie, Gdyni i Gdańsku także na głównych ulicach w centrum miasta. Zaczęliśmy od dużych miast, ale powoli testujemy też mniejsze ośrodki, takie jak Kalisz, Kłodzko i Legnicę. Zobaczymy czy tam też nasze produkty będą miały wzięcie.

Produkty HiMountain powstawały we współpracy ze znanymi himalaistami. Nie licząc samych twórców firmy są to m.in. Ryszard Pawłowski, Piotr Pustelnik, Krzysztof Wielicki, którzy testowali produkty kolekcji „Expert Series”. Swoje pięć groszy dorzucili znani podróżnicy m.in. Marek Kamiński czy Martyna Wojciechowska.

do zabrania w góry, a jeżeli już to dla lepszego psychicznego uczucia, wynikającego bardziej z faktu posiadania bajerów, marki, niż z faktycznego poczucia komfortu – twierdzi Hajzer. Mateusz Grabowski, product manager HiMountain uważa, że równie ważna jest opinia zwykłych użytkowników. - Dlatego filtrujemy Internet, chcemy wiedzieć co sami użytkownicy mówią na temat naszego sprzętu, co im odpowiada, a co nie. Od zawsze źródłem informacji o produkcie były reklamacje. Kiedy coś wychodzi w użytku nie tak, wiemy jakich błędów nie należy powielać na przyszłość. Trudno nie docenić takiego źródła informacji. Sama firma swoją organizacją i atmosferą oddaje nastawienie z jakim do outdooru podchodzą jej prezesi. Jest jak połączenie dużego, nowoczesnego zakładu krawieckiego, z którego miarowym tempem wychodzą wszystkie produkty firmy Mount, oraz stylowej przestrzeni biurowej gdzie monitoruje się rynek i bazując na doświadczeniach użytkowników, w tym w znacznej mierze własnych, projektuje się rozwiązania, które testują pasjonaci wszelkiej aktywności na świeżym powietrzu. Na półkach i regałach pod ścianami hali produkcyjnej piętrzą się kolejne partie ubrań wychodzących spod igieł maszyn do szycia gotowe do wysyłki przez czekające już na kolejne partie towaru samochody dostawcze z charakterystycznym czerwono-białym logo. Ściany w części biurowej obwieszone są zdjęciami wypraw, w których od dziesiątków już lat brali i biorą udział pracownicy firmy. Są tam Alpy, są Himalaje, są prezesi we własnoręcznie szytych spodniach i znane twarze, które testują i promują markę pod różnymi szerokościami geograficznymi i na różnych wysokościach. Widać uśmiechy i zadowolenie malujące się na twarzach osób, które biorą udział w kształtowaniu rzeczywistości, która następnie staje się udziałem kolejnych wypraw i osób zdobywających szczyty czy też po prostu cieszących się z czasu spędzonego aktywnie na świeżym powietrzu. Po zakładzie oprowadzają nas Grzegorz Chwoła i Michał Kiołbasa, specjalista do spraw sprzedaży, i przekonują, że

HiMounatin stara się szybko reagować na nowości technologiczne. HiMountain jako pierwszy polski producent odzieży i sprzętu turystycznego z membraną Gore-Tex otrzymał certyfikat jakości na wszystkie modele kurtek i spodni. Oddychająca i nieprzemakalna odzież z Gore-Texu pomyślnie przeszła testy w niemieckich laboratoriach W. L. Gore. Ostatnio jednak coraz częściej w produktach HiMountain stosowane są membrany eVent, charakteryzujące się lepszymi parametrami oddychalności. Jednak, jak uważa Hajzer na rynku outdoorowym nie ma aż tak dużego przypływu nowinek, za to sporo jest innowacji dla samej innowacji. - Więcej w tym marketingu i PR. Za kolejnymi nowościami nie idzie jednak innowacja wartości – przyznaje Hajzer, który myślami jest już przy kolejnej wyprawie wysokogórskiej. Jacek Srokowski, Tomasz Siobowicz

„Expert Series” to, jak mówi Hajzer, swego rodzaju laboratorium doświadczalne, które bardzo pozytywnie odbija się na kształcie i jakości odzieży i sprzętu HiMountain. Doświadczenia z tej pracy są bezcenne także dla innych kolekcji produktów firmy. Mowa o kolekcjach Lite and Fast i Outdoor, ta ostatnia kierowana już wyłącznie do zwykłych turystów. - Uważamy, że nie wygramy ani ułamka rynku naszą myślą inżynierską. Szanse mamy natomiast zaskoczyć naszą wyobraźnią konstrukcyjną lub designerską, jak również doświadczeniem wyniesionym przez Polaków z gór różnego rodzaju. Najważniejsze, żeby produkty były praktyczne, faktycznie funkcjonalne i przy tym nadążały estetyką za konkurencją. A wiemy, że w wypadku firm zachodnich estetyka często bierze górę nad funkcją i produkt - mimo, że ładny - nie nadaje się

26

LIPIEC 2011


S TA R T U P

Wyobraź sobie, że lecisz do Barcelony. Interesujesz się sztuką, lubisz jedzenie i kluby nocne. Nowatorski serwis MyGuidie.com pomoże Ci znaleźć idealnego przewodnika, który nie jest profesjonalistą, ale kocha swoje miasto.

potrafi z pasją o nim opowiedzieć. Zwiedzającym pokaże miejsca niedostępne w tradycyjnych przewodnikach, czy planach wycieczek agencji turystycznych. Przybliży niezwykłe atrakcje kulturalne, zapozna z przysmakami kuchni i folklorem. Istotną częścią platformy, nad którą skupiają się twórcy jest bezpieczeństwo transakcji między użytkownikami. Dzięki systemowi recenzji i re-

MyGuidie.com, według założeń jej twórców, to platforma łącząca turystów z mieszkańcami najciekawszych zakątków świata. Ma ambicje stać się największą alternatywną platformą dla podróżujących. Celem MyGuidie.com jest stworzenie zupełnie nowego zawodu – wolnego przewodnika, który nie musi mieć licencji, ale zna swoje miasto i

komendacji przewodników oraz prowizji za rezerwację, zarówno przewodnik jak i turysta mogą czuć się bezpiecznie. MyGuidie.com właśnie otworzył rejestrację dla potencjalnych przewodników. Oficjalny start serwisu i możliwość rezerwowania wycieczek planuje się na wrzesień. Zespół MyGuidie.com tworzą: Ola Sitarska (CEO/programistka), Michał Samojlik (grafik), Sylwia Rudnik (PR/marketing). Portal powstał w maju tego roku podczas Startup Weekend Warsaw, imprezy o międzynarodowej skali, o unikalnej formule i klimacie. Skupia ona przedsiębiorcze osoby, by dać im szansę rozwoju i wypromowania ich projektów, opartych na wykorzystaniu możliwości oferowanych przez technologie internetowe.

LIPIEC 2011

27


RAPORT

Z sieci na szlak W Internecie dosłownie roi się od serwisów i portali turystycznych, głównie oferujących oferty wakacyjne, noclegi, transport. Jednak dla kogoś kto preferuje aktywny wypoczynek na szlaku czy trasie wartościowych informacji jest niewiele. Nam udało znaleźć się kilka naprawdę ciekawych stron. Pierwszy serwis (internetowy start up) na który zwróciliśmy uwagę to Trail.pl, którego celem jest stworzenie kompletnej bazy znakowanych szlaków turystycznych w Polsce. Wokół szlaków serwis konsekwentnie buduje aktywną społeczność miłośników turystyki aktywnej. W kilka tygodni od uruchomienia, na Facebooku znalazło się już ponad 5,4 tys. sympatyków Trail.pl. - Od wielu lat w polskim internecie brakowało jednego miejsca, gdzie można znaleźć ujednoliconą informację o oficjalnych szlakach, nie tylko znakowanych przez PTTK, ale także wytyczanych przez różne jednostki samorządowe czy organizacje (w rzeczywistości jest w tym temacie spore zamieszanie). My staramy się wypełnić tę niszę – mówi Kuba Zwoliński jeden z pomysłodawców i twórców Trail. pl. - Dzięki współpracy z Polską Organizacją Turystyczną, lokalnymi oddziałami PTTK czy mapowymi organizacjami takimi jak OSM Polska czy UMP-pcPL możemy podołać temu trudnemu zadaniu. Założycielami firmy Trail.pl są doświadczeni organizatorzy sporto-turystycznych wydarzeń i jednocześnie byli zawodnicy utytułowanego zespołu Speleo Salomon Adventure Racing Team ścigającego się w najbardziej malowniczych miejscach świata. - Jesteśmy grupą pasjonatów turystyki i outdooru. Wspólnie podróżowaliśmy i zwiedzaliśmy najbardziej niedostępne rejony świata. Teraz chcemy pokazać, że nie trzeba opuszczać Polski żeby zobaczyć

28

niesamowite miejsca i poznać ciekawych ludzi – mówi Kuba Zwoliński. Zawartość witryny tworzą w dużej mierze użytkownicy i lokalni partnerzy. Portal obejmuje zarówno dobrze znane szlaki piesze i rowerowe, a także szlaki wodne, konne, nordic walking, ścieżki przyrodnicze i spacerowe oraz wszystkie inne wytyczone w terenie. Autorzy strony planują także uruchomienie działu poświęconego szlakom tematycznym. Każdy z użytkowników po zalogowaniu może samodzielnie doda-

wać lub komentować wybrane szlaki. Może także pobierać bez ograniczeń pliki zawierające ślady GPS (format .gpx), które można wgrać do własnego urządzenia. Informacje wprowadzane przez użytkowników, takie jak ślady GPS, opisy czy zdjęcia lub filmy, są weryfikowane przez wykwalifikowanych moderatorów - członków PTTK, geografów i doświadczonych turystów. Do tej pory użytkownicy serwisu dodali ponad 1100 szlaków i tras o łącznej długości blisko 12 tys. kilometrów. Oparty na otwartych technologiach, takich jak Open Street Map i OpenLayers, serwis Trail.pl udostępnia większość informacji bez żadnych opłat. Planowane jest jednak w przyszłości wprowadzenie eusług związanych z aktywną turystyką w Polsce.

LIPIEC 2011


RAPORT

Serwis oferuje zaawansowane możliwości wyszukiwania: można podać przybliżoną lokalizację szlaku (np. województwo lub miasto i promień zasięgu), można też określić charakter szlaku (np. rowerowy, kajakowy, spacerowy). Każdy może przyłączyć się do grona eksploratorów i wzbogacać serwis o opisy własnych tras. Serwis zainteresowany jest wszelkimi informacjami, które mogą pomóc potencjalnym turystom w podjęciu decyzji o wyruszeniu w daną trasę. W serwisie znajduje się wyczerpująca instrukcja tworzenia opisu szlaku. Twórcy Trail.pl wypożyczają nawet odbiorniki GPS do rejestracji trasy ochotnikom, którzy zadeklarują chęć współpracy z serwisem. Obecnie trwają ostatnie prace nad implementacją bazy eholiday. pl (z którym to serwisem Trail.pl nawiązał współpracę), dzięki czemu

jeździmy na rowerze, chodzimy po górach, dbamy o dobrą kondycję, kochamy odkrywać nowe miejsca. Dlatego też powstał pomysł stworzenia serwisu, który podpowiada jak można aktywnie i ciekawie spędzić czas, pozwala dzielić się swoimi przeżyciami, a także pomaga w zawieraniu znajomości z osobami o podobnych zainteresowaniach i pasjach – wyjaśnia Marta Biernat, specjalistka ds. promocji i współtwórczyni serwisu. Inicjatywa serwisu społecznościowego Traseo.pl powstała w ramach Grupy Amistad - grupy firm specjalizujących się w rozwijaniu nowych technologii w turystyce i rekreacji oraz promocji regionów. Traseo.pl to także darmowa aplikacja na urządzenia z odbiornikiem GPS – iPhone’a, BlackBerry, iPad’a, telefony z systemem Android oraz najpopularniejsze marki, takie jak Nokia, Sony Ericsson czy Motorola, które obsługują system Java. Po jej pobraniu można tworzyć

użytkownicy Trail.pl będą mieli dostęp do obiektów noclegowych w promieniu 5 km od wybranego szlaku. Obiekty widoczne są obecnie dla zarejestrowanych użytkowników. Serwis trail.pl powstał głównie dzięki środkom unijnym, podobnie jak kolejny ciekawy projekt Traseo.pl. Serwis społecznościowy Traseo. pl, jak podkreślają jego twórcy, skierowany jest do „pasjonatów aktywnego stylu życia i podróżowania, a także miłośników map i systemów GPS w turystyce”. O ile Trail.pl skupia się na znakowanych szlakach turystycznych w Polsce, o tyle Traseo.pl umożliwia rejestrowanie i publikowanie zapisów swoich tras na mapie, czyli tworzeni mini-przewodników zawierających propozycje wycieczek z mapą, śladem GPS, zdjęciami i ciekawymi miejscami. Na Traseo.pl umieszczane są propozycje wycieczek rowerowych, pieszych, spacerów po miastach i miasteczkach, nordic walking, tras narciarskich, biegowych, kajakarskich, motocyklowych, a nawet wycieczek po klubach i muzeach. Serwis umożliwia również przeglądanie i korzystanie z tras stworzonych przez innych internautów. Internauci dodali na stronie blisko 1200 tras a społeczność Traseo. pl liczy już ponad 5500 użytkowników. - Traseo.pl tworzą ludzie, których pasją są podróże oraz różnego rodzaju aktywność sportowa i turystyczna. Pływamy, nurkujemy,

swoje własne trasy, nagrywać ślady, a także wgrywać ulubione trasy. Podobną funkcjonalność zapewnia także powstający (ciągle dostępna wersja beta) serwis Way2A. „Propagując ideę podróżowania budujemy interaktywną przestrzeń dzięki której użytkownicy dzieląc się swoimi doświadczeniami inspirują siebie wzajemnie do odbywania podróży i aktywnego trybu życia. Integrujemy pasjonatów przygód z różnych zakątków świata i łączymy ich w grupy zachęcając do wspólnego odbycia tras. Portal ma też pełnić funkcję edukacyjną dla młodzieży dając im wskazówki odnośnie pozytywnego spędzania wolnego czasu i rozwijania pasji” piszą jego twórcy. A jeżeli komuś propozycje polskich serwisów nie wystarczają (są one bowiem wciąż na etapie budowy) odsyłamy do globalnych serwisów, m.in. Everytrail i Wikiloc. Michał Jakubowski

LIPIEC 2011

29


U WA G A

Carpooling: oszczędność w por tfelu i atmosferze

odbycia podróży w tym samym kierunku. Udział w przedsięwzięciu biorą minimum 2 osoby, lecz może być ich więcej. Początki carpoolingu sięgają lat 50. XX wieku. Jednak na popularności w Europie zachodniej oraz Stanach Zjednoczonych carpooling zyskał w latach 70. w czasie tzw. kryzysu paliwowego. System ten od tego czasu mocno się rozwinął, zwłaszcza w Stanach Zjednoczonych, gdzie oprócz popularnego systemu carpooling, z którego korzystają codziennie

Jak najtaniej podróżować w wakacje? Odpowiedź wydaje się oczywista – autostopem. Jeżeli ktoś jednak nie preferuje takiej formy podróżowania może zastanowić się nad carpoolingiem.

W przeciwieństwie do tradyc yjnego, zwykle bezpłatnego autostopu, w przypadku carpoolingu w grę wchodzi często podział kosztów przejazdu pomiędzy kierowcę a pasażerów. Odbywa się na zasadzie umowy pomiędzy właścicielem samochodu a pasażerem chętnym do 30

zarówno pracownicy firm i studenci, powstają również nowe formy wspólnego podróżowania, jak vanpool, czy buspool. Ewolucją systemu carpooling jest także system powstały w Waszyngtonie i Północnej Wirginii o nazwie „Slugging” – jest to okazjonalne podwożenie osób, którzy stoją w wyznaczonych miejscach przy trasie oczekując na potencjalnego kierowcę, który akurat zmierza do tego samego celu podróży co oni. Kierowca, aby mógł korzystać z wydzielonych pasów ruchu dla użytkowników Carpooling (HOV ), musi przewozić w swoim samochodzie przynajmniej 2-3 osoby. W tym celu za szybą swojego samochodu napis z miejscem docelowym, do którego zmierza i podjeżdżając do stojących pasażerów, wykrzykuje przez okno miejsce, do którego jedzie. Pierwsi

LIPIEC 2011


U WA G A

przy linii jezdni wsiadają do pojazdu potwierdzając miejsc docelowej podróży. W systemie tym nie ma żadnych korzyści pieniężnych, ale każdy z uczestników odnosi niewymierne korzyści: kierowca potrzebuje pasażerów, np. dla możliwości skorzystania z pasów dla HOV, a pasażerowie kierowcy z samochodem. Każdy z uczestników potrzebuje drugiego do sprawnego funkcjonowania. W Polsce z czasów PRL niektórym znana jest kampania „podwieź sąsiada”, która miała zachęcać ludzi do dzielenia się tak luksusowym dobrem jakim były samochody. Obecnie carpooling dzięki internetowi przeżywa gwałtowny rozwój. Wśród polskich stron można znaleźć takie portale jak Gumtree, gdzie w dziale „Społeczność/dojazdy” można znaleźć propozycje „podrzucenia z danego miasta. Z kolei na Facebooku powstała społeczność „Podwiozę, przenocuję,

ugoszczę” rozpowszechniająca ideę carpoolingu. Warte przejrzenia są także komercyjne strony poświęcone carpoolingowi. Wśród nich wyróżnia się carpooling.pl. Serwis należy do niemieckiej sieci stron oferujących carpooling, dlatego też wszelkie połączenia, które na razie dostępne są w serwisie, to dane od niemieckich użytkowników, którzy akurat jadą przez Polskę. Statystyki wykazują, iż w ubiegłym roku za pośrednictwem tego serwisu udało się w całej Europie „skojarzyć” ponad 4,2 miliony kierowców i pasażerów. Znaczna większość z nich skorzystała z niemieckiej odsłony naszej platformy. Jeśli chodzi o Polskę, na carpooling.pl umówiło się ponad 45000 osób. W serwisie Carpooling.pl kierowca znajdzie prosty kalku-

LIPIEC 2011

lator, który pozwoli mu oszacować koszt przejazdu w zależności od długości trasy i średniego spalania samochodu. Biorąc pod uwagę aktualne ceny benzyny, koszt ten wynosi ok. 50 zł za 100 km. Nietrudno obliczyć, ile można zaoszczędzić, zabierając ze sobą choćby jedną dodatkową osobę – trzech pasażerów oznacza, iż kierowca wyda na przejazd nawet do 75% mniej. Wspólny przejazd samochodem to oszczędność także po stronie pasażera. Z Krakowa do Katowic można pojechać już za 7 zł, z Wrocławia do Drezna – za jedyne 60 zł. Z danych serwisu możemy poznać statystyczny obraz użytkownika systemu. 70 proc. to mężczyźni, największa grupa (ponad 40 proc.) to osoby w wieku 25-34 lat, następnie około 25 proc. to osoby młodsze: między 19 a 24 rokiem życia. Nieco ponad 20 proc. zarejestrowanych użytkowników to osoby z grupy wiekowej 35-49 lat. Na wspólne przejazdy chętnie umawiają się studenci: ok. 23 proc. użytkowników, oraz osoby mające stałą pracę: 32 proc. Podobną funkcjonalność, jak na carpooling.pl odnajdziemy też na innych stronach: wspolnedojazdy.pl, jazdazagrosze.pl, nastopa.pl, autem.pl, jedziemyrazem.pl, siejedzie.pl. Carpooling to jednak nie tylko doskonałe rozwiązanie na wakacje. Od kilku lat system ten rozwija Politechnika Krakowska, która uczestniczy w programie UE Civitas II „Czystszy (ekologiczny) i lepszy transport w miastach”, w którym cztery miasta europejskie: Genua, Kraków, Burgos i Stuttgart uzyskały dofinansowanie zintegrowanego projektu Caravel „Ku nowym sposobom podróżowania”. Jednym z zadań programu było stworzenia systemu „Jedźmy razem”, skierowanego do pracowników i studentów, a opartego o zasady carpoolingu. System „Jedźmy razem” uwzględnia potrzeby pracowników i studentów pod względem przemieszczania się czy to do pracy, uczelni czy w weekendowe dojazdy do miast rodzinnych. Do systemu należy się zalogować, podając dane osobowe i kontaktowe. W celu znalezienia interesującej nas oferty przejazdu, należy zaznaczyć punkt rozpoczęcia i końca podróży oraz podać jej datę i godzinę. Można także, przeszukując wszystkie zgłoszone oferty, znaleźć interesującą nas podróż. W celu zamieszczenia ogłoszenia o chęci znalezienia współtowarzysza podróży, należy zaznaczyć, czy poszukujemy kierowcę/ pasażera oraz zamieścić informację o podróży (początek, koniec, data i godzina). System ten cieszy się zwłaszcza wśród studentów, bo aż kilkanaście procent z nich deklaruje czynne uczestnictwo w systemie. Podobny system działa m.in. w X Paryskim Uniwersytecie w Nanterre oddalonym ok. 13 km od Paryża. Decydując się na taką formę podróży jak carpooling należy liczyć nie tylko oszczędności w portfelu, ale także aspekty ekologiczne, bo im mniej samochodów na drogach, tym mniejsza emisja CO2 do atmosfery. Michał Jakubowski

31


Lotnisko

przyszłości, czyli bliżej pasażera


PERSPEKTYWY

W transporcie, zwłaszcza tym pasażerskim, od zawsze chodziło o to samo – o czas. Czy to w sprawach zawodowych czy też dla przyjemności, najważniejsze jest by maksymalnie skrócić czas poświęcany na dotarcie do miejsca, do którego zmierzamy. Każde niepotrzebne opóźnienie, formalności oraz procedury, które pochłaniają nasze cenne godziny wzbudzają w najlepszym razie zniecierpliwienie – bywa, że kończy się na irytacji i frustracji, co nie buduje dobrych skojarzeń z koniecznością przemieszczenia się z miejsca na miejsce.

i prezentuje technologie, które w najbliższych 10 latach pozwolą eliminować frustracje pasażerów, jednocześnie podwyższając komfort podróżowania. Opracowany przez Norma Rose’a z Travel Tech Consulting Inc. raport ujawnia, że pasażerowie na lotniskach całego świata wciąż stykają się z problemami doświadczanymi podczas odpraw, odbioru i odprawy bagażu oraz dyskomfortem związanym z procedurami bezpieczeństwa. Raport, którego celem jest inspirowanie nowego podejścia w branży turystycznej, stworzono na podstawie danych wyjściowych zgromadzonych podczas globalnych badań przeprowadzonych przez JD Power na zamówienie firmy Amadeus, w ramach których zebrano opinie 2978 podróżnych. Jedną z ostatnich barier, które stoją przed doświadczeniem płyn-

Lecz oto – w bardzo już bliskiej przyszłości – dzięki wykorzystaniu możliwości, jakie niosą ze sobą nowe technologie i innowacyjne podejście w ich wykorzystaniu i zastosowaniu we wszystkich dziedzinach nego i bezstresowego podróżowania jest przebycie lotniska - uważa Rose. - Cały czas dotyka nas frustracja związana z oczekiwaniem i uciążliwością procedur związanych z odprawą, kontrolami i zdawaniem i odbieraniem bagażu. Jedną z przyczyn takiego stanu rzeczy jest brak informacji lub słaba komunikacja pomiędzy liniami lotniczymi, lotniskiem i pasażerami. Wiele zależy od tego jak dalece poszczególne strony i współpracownicy oraz podwykonawcy odpowiedzialni za kompleksową usługę transportu pasażerskiego są zaangażowane w likwidacji barier na drodze do realizacji tej wizji. Pomoże w tym na pewno wykorzystanie nowych technologii oraz usprawnienie współpracy pomiędzy liniami lotniczymi, lotniskami oraz ich partnerami biznesowymi tak by w efekcie powstało łatwe, szybkie i lepiej reagujące na potrzeby danej chwili doświadczenie pokonywania lotniska. To co jest w stanie usprawnić obsługę pasażerów to integracja pomiędzy Systemem Kontroli Wylotów (SKW), Systemem Obsługi Pasażerów (SOP), Systemem Lokalizacji Bagażu (SLB) oraz usług dostępnych na lotnisku. Udostępnianie usług za pośrednictwem zaawansowanych urządzeń przenośnych pomoże poprawić efektywność operacyjną i finansową i satysfakcję stron biorących udział w realizacji doświadczenia podróży.

Model działania skoncentrowany na podróżnym

naszego życia sprawi, że podróż stanie się niemalże tak bezstresowa i przyjemna jak czas, który spędzamy po dotarciu do jej celu. Wkraczamy w erę, w której transport pasażerski będzie z roku na rok stawał się coraz ściślej dopasowaną do siebie mozaiką elementów tworzącą doświadczenie podróży. Taką przynajmniej wizję roztacza przed nami raport, zatytułowany „Przewodnik po lotniskach przyszłości” (ang. „Navigating the Airport of Tomorrow”), który prognozuje zmiany na nowoczesnych lotniskach

34

Wraz z wprowadzeniem na rynek telefonów iPhone w 2007 roku nastał wiek ciągłej zmiany na rynku urządzeń przenośnych. Podróżnemu nie wystarcza już tylko telefon komórkowy, teraz wymaga on także możliwości przeglądania Internetu i pobierania najnowszego oprogramowania co przeniosło uwagę rynku z mobilnej telefonii na mobilne urządzenia komputerowe. Podobną zmianą było wprowadzenie na rynek iPada w roku 2010. Dla linii lotniczych oraz dla lotnisk pojawienie się przenośnych platform komputerowych dostarcza nowych sposobów komunikacji oraz kontroli przepływu pasażerów. Zalicza się tu bardziej dokładne i natychmiastowe informowanie o przylotach i odlotach, samoobsługowe odprawy, śledzenie bagażu jak również zarządzanie zakłóceniami

LIPIEC 2011


PERSPEKTYWY

obsługi pasażerów. Platformy te zapewniają również nowe możliwości dotarcia do pasażerów z ofertami promocyjnymi serwisów oferowanych przez linie lotnicze i lotniska. Rewolucja mobilna to nie jedyna rewolucja, która dzieje się na naszych oczach. Kolejna dokonuje się za sprawą mediów społecznościowych. Jest to zjawisko powiązane bezpośrednio z osobami podróżującymi po świecie. Ponad 60% spośród tych osób korzysta z serwisów społecznościowych nawiązujących do tematyki podróży. Zrozumienie wpływu jaki mobilne wykorzystanie mediów społecznościowych jest

kluczowe dla portów i linii lotniczych. Wystarczy jedna skarga niezadowolonego pasażera, która zostanie nagłośniona przez grupę skupioną wokół platformy o tematyce turystycznej by wywrzeć wpływ na markę przewoźnika i wpłynąć na opinię i wybory innych klientów. Porty i linie lotnicze, korzystając z informacji zwrotnej muszą wprowadzić wszechstronne podejście do mobilnych mediów społecznościowych tak aby móc zidentyfikować niezadowolonych klientów i wdrożyć natychmiastowe działanie dla lepszego zaradzenia jego frustracji i podniesienia satysfakcji.

formacją ze swoimi partnerami na lotniskach. Będzie to miało na celu polepszenia obsługi i jakości dostarczanego pasażerom doświadczenia w zetknięciu z lotniskiem i liniami lotniczymi. To czy lotniska zdecydują się zainwestować w nowe systemy poprawiające obsługę oraz promocję usług wśród pasażerów czy też nie zależy nie do końca od samych lotnisk. Sami pasażerowie będą coraz częściej i mocniej domagali się wzbogaconej oferty jaką jest już dostępna w praktyce u innych oferentów usług transportowych lub sprzedawców. Dla przykładu, w związku z tym, że przewoźnicy kolejowi wprowadzają technologie NFC w celu uproszczenia i poprawy odprawy pasażerów, klienci będą się domagać i oczekiwać tych samych możliwości na lotnisku. Firmy sprzedażowe takie jak Best Buy czy Macys wprowadziły wyszukane platformy mobilnego marketingu oferowane przez takie innowacyjne start-upy jak np. Shopkick. Przez wprowadzenie platformy Shopkick sprzedawcy ci są w stanie oferować specyficzne promocje w technologii mobilnej w oparciu o dokładną lokalizację klienta w sklepie. Skoro sprzedawcy oferują specyficzne oferty mobilnych promocji klientom odwiedzającym sklepy, również pasażerowie będą oczekiwali tego typu indywidualnego marketingu na lotniskach. Port lotniczy faktycznie może być postrzegany jako centrum handlowe i w związku z tym zachowanie konsumentów, które kształtują takie technologie jak np. Shopkick będą czymś czego podróżny będący stale w zasięgu sieci informacyjnych będzie oczekiwał. Bez wglądu w potrzeby pasażera marketing tego typu nie będzie możliwy.

Zarządzanie oczekiwaniami pasażerów z wykorzystaniem technologii mobilnych Rewolucja mobilna przedstawia sobą zarówno możliwości jak i wyzwania zarówno dla linii jak i portów lotniczych. Wzrost możliwości samoobsługi pozwolił liniom lotniczym zmniejszyć zatrudnienie lecz ta sama technologia, dzięki której możliwa jest większa wydajność tworzy otoczenie w którym wzrasta oczekiwanie pasażera do natychmiastowej informacji. Zmusza to linie lotnicze i lotniska do zapewnienia dynamicznej informacji na mobilnych platformach, które po-

Pokonywanie odprawy Wraz z wprowadzeniem automatów z biletami i możliwością drukowania kart pokładowych w domu, co jest obecnie praktyką wprowadzaną przez większość światowych linii lotniczych, przejście odprawy staje się prostsze lecz frustracja klientów pozostaje wciąż znaczna – tym większa im dłużej muszą czekać w kolejce. Nawet użycie elektronicznych kart pokładowych nie rozładowuje długich kolejek. Co może w tym pomóc? Odpowiedzią może być zastosowanie komunikacji radiowej krótkiego zasięgu o wysokiej częstotliwości (NFC). Lotniska zaczynają wprowadzać stacje NFC i coraz więcej urządzeń przenośnych posiada czytniki NFC – stąd tylko krok do możliwości zwykłego zbliżenia telefonu komórkowego do czytnika i po odprawie. Również wprowadzenie stałych / trwałych kart pokładowych i oznaczeń bagażu, jak zrobił to na przykład Quantas dla swoich krajowych lotów w Australii, przyczyni się do dalszego podniesienia efektywności całego procesu. Kolejki nie zostaną całkowicie zlikwidowane, nawet w dłuższej perspektywie, lecz mobilni agenci obsługi biletowej korzystający z wchodzącej w powszechne użycie technologii tabletowej mogą ograniczać wydłużanie się kolejek i usprawnić przejście odprawy. Dla przykładu Quantas udostępnił czytniki NFC na lotniskach w Sydney i Perth co umożliwiło łatwe samodzielne odprawy pasażerom korzystającym z inteligentnych kart NFC. Wraz z wkraczaniem samoobsługowych odpraw pasażerowie wchodzą w interakcję z samymi liniami lotniczymi dopiero przy wchodzeniu na pokład samolotów. Stąd postrzeganie danej linii lotniczej może być pod przemożnym wpływem doświadczeń z obsługą na lotnisku, która posiada ograniczoną wiedzą na temat wymagań danych pasażerów. Nowa rzeczywistość, w której pasażerowie mają do czynienia z wieloma możliwościami samoobsługi oznacza, że linie lotnicze muszą wdrożyć bardziej elastyczną politykę względem dzielenia się in-

LIPIEC 2011

zwalają wzbogacić czas spędzany na lotnisku. Te oczekiwania są już sygnalizowane przez klientów, którzy, jak wykazały badania, w 40% przypadków chcieliby korzystać z aktualizacji w czasie rzeczywistym dotyczących statusu ich lotu natomiast 37% pasażerów chciałoby korzystać z aktualizacji w czasie rzeczywistym dotyczących statusu ich bagażu. To tylko początek mobilnej rewolucji w kierunku modelu obsługi skoncentrowanym na pasażerach. Urządzenia mobilne są bardzo osobiste stąd pasażerowie oczekują nie tylko powielanych uaktualnień, które trafiają do wszystkich klientów lecz spersonalizowanej komunikacji, która odpowiada na ich specyficzne potrzeby. Aby tak mogło się faktycznie dziać informacja aktualizowana w czasie rzeczywistym musi być spersonalizowana, odpowiadać aktualnemu miejscu pobytu pasażera oraz wyczulona na kontekst w jakim występuje.

Odniesienie do miejsca, w którym znajduje się pasażer Miejsce, w którym znajduje się pasażer na lotnisku dostarcza informacji niezbędnych samemu lotnisku jak i linii lotniczej. Choć telefony komórkowe wyposażone w GPS stały się już standardem w dalszym

35


PERSPEKTYWY

ciągu nie jest łatwo śledzić położenie osoby przy użyciu satelity gdy przebywa ona wewnątrz budynku. Komunikacja NFC może dostarczać informacji o miejscu przebywania pasażera na lotnisku. Technologia ta zakłada użycie dwóch urządzeń. Jednym z nich jest chip RFID (identyfikacja radiowa) w telefonie komórkowym (lub innym urządzeniu) a innym czytnik NFC w sklepie lub na lotnisku. NFC wymaga jednakże znacznych wydatków na infrastrukturę i stąd upłynie jeszcze wiele lat nim stanie się ona popularna na światowych lotniskach. Na ilustracji widzimy pasażera Gary Gale’a, który jest namierzany przez cały czas przemieszczania się do bramki odlotów międzynarodowych. Widać tu jak byłoby możliwe śledzenie pasażera przez wykorzystanie monitorowania jego położenia w technologii NFC. Śledzenie pasażerów w oparciu o ich położenie mogłoby pomóc liniom lotniczym lepiej przewidywać spodziewany czas przybycia pasażerów do bramki odlotów i umożliwiłoby wysyłanie przypomnień tym, którzy jeszcze się nie stawili do odprawy. W bliskiej przyszłości alternatywnym rozwiązaniem dla systemu

Kontekst Zrozumienie potrzeb pasażera, które odczuwa on w danym momencie jest nieodzowne w celu dotarcia do niego z efektywnym komunikatem. Czy pasażer biegnie co sił aby zdążyć na swój samolot czy jest w stanie spędzić kilka godzin w sklepach na lotnisku po tym jak przybył na lotnisko ze znacznym wyprzedzeniem? W mobilnej komunikacji chodzi przede wszystkim o odpowiednie odniesienie. Zrozumienie specyficznej sytuacji pasażera jest konieczne dla przekazania znaczącej informacji. Wraz z tempem wprowadzania innowacji technologicznych, które nieustannie przyśpiesza, rozrastają się również oczekiwania pasażera. Wyzwaniem dla linii lotniczych i lotnisk jest to, że wzrost wykorzystania mobilnej komunikacji w czasie rzeczywistym może nie rozwiązać wszystkich potrzeb pasażerów. Włączenie obsługi klienta w obsługę pasażerów, którzy mogą wymagać interakcji z ludźmi może być rozwinięte w oparciu o obsługę przemieszczającą się swobodnie po lotnisku

07D Mr. Gary Gale BA 0990 to Berlin 01 nov - 07:05

Source: http://telink.mobi/sfo/map.jpg

śledzenia położenia pasażera, który jest dostępny dzisiaj, byłoby skorzystanie z systemu opartego o Wi-Fi. Zamiast traktować Wi-Fi jako proste rozwiązanie dla udostępnienia pasażerom usługi połączenia z Internetem porty lotnicze powinny zwrócić uwagę na to, że Wi-Fi zapewnia infrastrukturę umożliwiającą bardzo precyzyjne namierzanie pasażerów w czasie rzeczywistym.

36

i świadczącą bardziej elastyczne usługi w miarę zapotrzebowania na nie. Rewolucja mająca miejsce wraz z upowszechnianiem się tabletów zapewnia nowe mobilne możliwości pracownikom obsługi, którzy będą w stanie zmienić paradygmat tradycyjnej kolejki na bardziej specyficzne podejście do obsługi klientów. Wiele linii lotniczych już teraz oferuje dodatkowe usługi za pośrednictwem samoobsługowych automatów. Oferowanie dodatko-

LIPIEC 2011


PERSPEKTYWY

wych usług w punktach mobilnej odprawy lub poprzez odpowiednio sprofilowaną promocję może pomóc w sprzedaży bonusów w postaci odprawy priorytetowej, dostępu do pomieszczeń klubowych lub siedzeń o podwyższonym komforcie.

Wprowadzanie priorytetów linii lotniczych Próbując lepiej zróżnicować swoje oferty i zapewnić lepszą obsługę klienta linie lotnicze wprowadzają strategie rozpoznawania klientów. Marketing stosowany przez linie lotnicze ewoluuje od zwykłego statusu lojalnościowego do opracowania lepszego zrozumienia wartości każdego klienta dla wyników osiąganych przez linie lotnicze. Wyszu-

na zasadzie opcjonalnej i brać pod uwagę kwestie prywatności oraz unikanie rozprowadzania spamu. Linie lotnicze mogą również przejąć udział w prawie własności w opcji transportu w porcie lotniczym pomagając pasażerom zlokalizować taksówki, pociągi, autobusy oraz inne opcje w momencie gdy opuszczają oni samolot.

Wzbogacanie doświadczenia pobytu na lotnisku Głównym zadaniem lotniska jest zapewnienie bezpiecznego przepływu pasażerów od wejścia do lotniska do bramy odprawy. Jedną z najistotniejszych okazji do uzyskania przychodu jest reklamowanie produktów i usług dostępnych na lotnisku, które klient – pasażer napotyka na swojej drodze. Technologie takie jak NFC będą najprawdopodobniej odgrywały kluczową role w pokonywaniu lotnisk lecz wymagają znacznych nakładów inwestycyjnych w infrastrukturę i masy krytycznej smartfonów z czytnikami NFC. Do roku 2015 około 250 milionów smartfonów będzie wyposażone w tę technologię. Technologia NFC posiada potencjał aby zmienić każdy aspekt związany z pobytem podróżnych na lotnisku. Wraz z tym jak smartfony wyposażone w tę technologię stają się coraz bardziej popularne te same co teraz procesy i procedury będą możliwe dzięki zwykłemu zbliżeniu telefonu do czytnika na lotnisku. Dzięki upowszechnieniu czytników NFC na lotnisku pasażerowie będą mieli następujące możliwości: - Odprawa z wykorzystaniem telefonów komórkowych - Otrzymywanie kuponów do sklepów na lotnisku - Zapłata przy użyciu telefonów komórkowych - Interakcja z reklamami w technologii NFC - Wymiana informacji z innymi podróżnymi poprzez proste zbliżenie telefonami wyposażonymi w technologię NFC - Wykorzystanie telefonów do odprawiania

kana technologia SOP może zapewnić podstawę do obliczania wartości klienta, lecz wprowadzanie tej strategii wymaga wielokierunkowego podejścia zapewniającego spójną komunikację wysyłaną do pasażerów we wszystkich miejscach kontaktu. Podobnie różne segmenty rynku posiadają różne wymagania. Linie lotnicze prowadzą programy marketingowe tak aby dotrzeć do specyficznych segmentów rynku takich jak seniorzy, podróżujący biznesmeni, rodziny. Stąd również ewoluująca struktura komunikacji musi odzwierciedlać specyficzne wymagania tych segmentów. Potrzeba dokładnego dopasowania komunikacji do wartości klientów jest szczególnie istotna podczas zakłóceń w przebiegu lotów. Zautomatyzowanie zadań takich jak dostarczanie elektronicznych talonów, informowanie pasażerów o zautomatyzowanej operacji ponownej rezerwacji i aktywne dostarczanie informacji w czasie rzeczywistym o położeniu bagażu może skrócić czas oczekiwania w kolejce i złagodzić frustrację pasażerów. Przejrzysta i powiązana informacja dotycząca pasażerów jest kluczowym elementem służącym osiągnięciu tej wizji. Z perspektywy pasażera pokonanie lotniska jest pojedynczą czynnością. W związku z tym linie lotnicze muszą docenić wartość dzielenia się informacjami z lotniskami aby zapewnić zintegrowaną obsługę klienta. W trakcie pobytu pasażera na lotnisku linie lotnicze również mają możliwość sprzedania dodatkowych usług i produktów w czasie gdy klienci oczekują na swój lot. Wiele linii lotniczych już teraz oferuje dodatkowe usługi za pośrednictwem samoobsługowych automatów. Oferowanie dodatkowych usług w punktach mobilnej odprawy lub poprzez odpowiednio sprofilowaną promocję może pomóc w sprzedaży bonusów w postaci odprawy priorytetowej, dostępu do pomieszczeń klubowych lub siedzeń o podwyższonym komforcie. Ważne jest dostrzeżenie faktu, że komunikacja z jakimkolwiek klientem ma być

LIPIEC 2011

- Wykorzystanie telefonów w komunikacji publicznej Technologia NFC wymaga inwestycji w infrastrukturę oraz krytycznej masy telefonów w nią wyposażonych nie mniej w związku z jej potencjałem i możliwością wykorzystania w już teraz istniejących realiach sektora przejście na tę technologię powinno się odbyć niejako ewolucyjnie. Pilotowe projekty z wykorzystaniem NFC na światowych lotniskach już się rozpoczęły. Nie mniej pełne wdrożenie tej technologii najprawdopodobniej zajmie od 4 do 7 lat.

Znaczenie dzielenia się informacją o pasażerach Kluczowe znaczenie w podejmowanych wysiłkach ma możliwość gromadzenia i wykorzystania danych na temat pasażerów po to by uzyskać wgląd w profil i potrzeby klientów. Dla przykładu – informacja o tym gdzie znajduje się dany pasażer oraz kiedy powinien zjawić się przy bramce w celu odprawienia się jest w stanie pomóc wybrać usługi do zaoferowania podróżnemu jak również dać możliwość powiadomienia linii lotniczych o poważniejszych spóźnieniach jej klientów. Aby uzyskać dostęp do tych danych port i linie lotnicze muszą ze sobą współpracować. Czasy kiedy to linie lotnicze musiały chronić dane swoich klientów przed udostępnieniem ich lotniskom należą do przeszłości. Wraz ze wzrostem liczby procedur i procesów samoobsługowych linie lotnicze mogą mieć tylko niewielki lub niemal żadnego kontaktu ze swoimi klientami aż do chwili ich przybycia do bramki odpraw. Aby móc zrealizować wizję upowszechnienie informacji o pasażerach wszystkie systemy muszą być ze sobą połączone, tak aby współdzielić istotne dane o kliencie w każdym momencie jego pobytu na lotnisku. Dla linii lotniczych i lotnisk najważniejszym wątkiem na drodze ku

37


PERSPEKTYWY

polepszeniu wydajności ich operacji jest ścisła integracja systemów. W przeciągu najbliższych kilku lat przejście na rozwiązania obliczeniowe w chmurze (typu „cloud”) będzie pierwszoplanowym zagadnieniem dla większości działań w obrębie sektora IT. Stąd potrzeba modernizacji portów i linii lotniczych w celu połączenia wszystkich funkcji operacyjnych takich jak operacje związane z samym lotem czy zarządzanie zasobami i powiązanie ich z komunikacją i ofertami i reklamami skierowanymi do klientów. Wszystkie te podsystemy powiązane ze sobą powinny być z kolei połączone z rozbudowaną operacyjną bazą danych lotniska. Ta nowa infrastruktura powinna być zintegrowana z systemami SKW, SOP i SLB linii lotniczych. Porty lotnicze muszą porzucić swoje zwyczajowe przywiązanie do systemów instalowanych lokalnie i wdrożyć rozwiązania zintegrowanego oprogramowania typu program jako usługa (SaaS), do którego można uzyskać dostęp z każdego połączonego urządzenia. Powinna też istnieć możliwość wprowadzenia takich rozwiązań pomiędzy terminalami całego lotniska a nawet pomiędzy lotniskami. To w efekcie pozwoli na swobodę działania personelu, który będzie w stanie reagować na nieprzewidziane zdarzenia i dzięki połączeniom wszystkich systemów obsługiwać pasażerów bardziej wydajnie. Posiadając zintegrowany system zarządzanie odprawami może ulec poprawie dzięki możliwości oddelegowania personelu linii lotniczej tam gdzie tego wymaga sytuacja, np. do obsługi pasażerów opóźnionego lotu. Integracja z systemami lotniska umożliwiłaby przekazywanie informacji co do przydziału na bramkach oraz zachodzących zmian liniom lotniczym co z kolei pozwoliłoby przewoźnikom na przekazanie lepszej informacji swoim pasażerom. Integracja z SLB umożliwi aktywne powiadamianie obsługi naziemnej o odwołaniu lotu i o konieczności usunięcia bagażu z samolotu. Możliwości są nieograniczone a współdzielenie informacji w ramach wszystkich systemów może okazać się korzystne dla wszystkich stron. Połączenie technologii mobilnej oraz zintegrowanych systemów lotniska niesie ze sobą możliwość przemiany doświadczeń związanych z podróżowaniem w coś na co czekamy zamiast czegoś co napawa nas zgrozą. Wraz z wyłanianiem się lotnisk przyszłości możliwość zapewnienia lepszej komunikacji, bardziej wydajne odprawy i oferty skierowanej do klientów przeobrażą doświadczenia związane z lotniskiem, łagodząc frustrację pasażerów i zapewniając nowe możliwości uzyskania przychodów lotniskom i liniom lotniczym.

Zapowiedź lotniska przyszłości

sektora są w stanie ulepszyć obsługę pasażerów i wykorzystać wgląd w klienta aby zareklamować dodatkowe usługi oferowane przez linie lotnicze oraz produkty i usługi dostępne na lotniskach. Rewolucja na lotniskach już się rozpoczęła. Ta rewolucja to faktycznie ewolucja kontynuująca obecne wysiłki w celu zwiększenia możliwości samoobsługi ze strony pasażerów oraz komunikowanie podróżnym statusu ich lotu i bagażu w czasie rzeczywistym poprawiając przy okazji doświadczenie pobytu na lotnisku.

Powszechne obecnie Obecnie większość pasażerów drukuje swoje karty pokładowe w domu lub za pośrednictwem automatów biletowych. Stanowiska dla klientów, którzy odprawiają się on-line pomagają rozładowywać tradycyjne długie kolejki. Jednak mimo wprowadzenia tych udogodnień w przeciągu ostatnich 3-4 lat, w porze szczytu dalej mamy z nimi do czynienia. Większość linii lotniczych w dalszym ciągu korzysta ze starego SKW, osobiście wykonywane procedury obsługi w dalszym ciągu spowalniają proces odprawy. Przejście do automatyzacji napotyka na liczne przeszkody.

Rozpowszechnione w latach 2011-2014 Już dziś mamy przykłady tego jakie zmiany będziemy obserwowali w trakcie pobytu na lotnisku w przyszłości. Wykorzystanie mobilnych kart pokładowych powoli zyska akceptację i stanie się standardem dla dużego segmentu podróżujących. Samoobsługowa odprawa bagażu również zyska na akceptacji i pozwoli na szybszą obsługę klientów. Na przestrzeni kilku następnych lat będziemy świadkami wprowadzenia przez linie lotnicze elektronicznych talonów. Zaawansowane systemy automatycznie dokonają relokacji rezerwacji pasażerów, których lot został opóźniony lub odwołany i dostarczą im elektroniczne talony wprost na ich smartfony lub tablety. Talony te będą opiewały na zakwaterowanie w hotelu i zapewniały dodatkowe udogodnienia uwięzionym pasażerom na podstawie ich wartości dla danej linii lotniczej. Patrząc od strony operacyjnej w przeciągu kilku następnych lat dostrzeżemy wzrost wykorzystania tabletów, który umożliwi personelowi linii lotniczych przemieszczanie się co skróci kolejki i będzie w stanie lepiej dopasować ofertę do potrzeb poszczególnych klientów.

- Samoobsługa i mobilność są kluczowymi zagadnieniami w temacie lotniska przyszłości. Powszechna możliwość połączenia oznacza pasażera, który pozostaje cały czas w sieci i stąd oczekuje komunikacji w czasie rzeczywistym. Proste udogodnienia takie jak weryfikacja czy bagaż pasażera znajduje się na pokładzie samolotu mogą pomóc w minimalizowaniu jego frustracji i niepewności. Automatyzacja reakcji na okresy gdy występują zakłócenia tak by były wtedy automatycznie generowane i dostarczane na urządzenia przenośne pasażerów talony zakupowe jest istotną okazją do zamiany tej operacji w samoobsługową. Mobilny personel działający w sytuacji poważnych zakłóceń i podchodzący i obsługujący pasażerów tak by nie musieli oni stać w wydłużających się kolejkach jest w stanie pomóc w zarządzaniu ograniczonymi zasobami i tym samym poprawić ogólną wydajność – podkreśla Rose. Aby zrealizować tę wizję lotniska przyszłości porty i linie lotnicze muszą zainwestować w nowe systemy tak by zautomatyzować czynności wykonywane osobiście przez personel, dzielić się informacjami, a także zapewnić aktywną komunikację z pasażerami. Linie lotnicze muszą zapewnić lotniskom istotne dane na temat pasażerów, tak by te z kolei mogły lepiej planować zapotrzebowanie na siłę roboczą. Systemy bagażowe muszą dostarczać informacji o lokalizacji bagażu w czasie rzeczywistym wszystkim zainteresowanym aby zminimalizować straty i przyspieszyć możliwość odebrania bagażu przez pasażera. W centrum zainteresowania tych technologii jest informacja na temat pasażera. Posiadając wszechstronną wiedzą o pasażerach wszyscy gracze

38

Ma to już teraz miejsce w przypadku linii Quantas, które dla lotów krajowych w Australii zastosowały trwałe oznaczenia bagażu i trwałe karty pokładowe. Pozwala to odciążyć personel, który może się zająć rozładowywaniem zatorów lub obsłudze pasażerów doświadczających trudności przy procedurach odprawy. Aby mieć lepszy wgląd w lokalizację pasażerów lotniska powinny rozważyć wykorzystanie ich sieci Wi-Fi dla lokalizacji we wnętrzu budynków tak aby klienci mogli otrzymywać promocje w zależności od tego gdzie się w danej chwili znajdują jak również umożliwić liniom lotniczym dostęp do informacji gdzie aktualnie znajdują się ich pasażerowie.

LIPIEC 2011


PERSPEKTYWY

Rozpowszechnione obecnie

Drukowanie kart pokładowych w domu Samoobsługa pasażerska

Automaty biletowe

Rozpowszechnione w 2014 Mobilna karta pokładowa i ofertypomocnicze za pośrednictwem szerokopasmowego transferu danych

Karty zbliżeniowe umożliwiające szybszą odprawę

Samoobsługowe zdawanie bagażu

Mobilne płatności

Elektroniczne talony lotnicze

Promocje dostępne w technologii radiowej krótkiego zasięgu Automatyczna odprawa w technologii radiowej krótkiego zasięgu

Mobilny personel

Procedury lotniskowe

Trwała karta pokładowa i oznaczenie bagażu

Długie kolejki

Bagaż śledzący i informujący o swoim położeniu na lotnisku

Śledzenie położenia wewnątrz budynku

Samodzielny SKW (SystemKontroli Wylotów) Systemy lotniska oraz linii lotniczych

Samodzielny SLB (System Lokalizacji Bagażu)

Samodzielny SOP (System Obsługi Pasażerów)

Standalone DCS

Zintegrowane SKW / SOP

Intergrated DCS/PSS

Zintegrowane SKW / SOP

Intergrated DCS/PSS

Standalone BRS

Standalone PSS

Elektroniczne promocje w obrębie lotniska

Source: Travel Tech Consulting, Inc.

Rozpowszechnione w latach 2015-2020 Aby wspierać działanie lotniska przyszłości należy stworzyć zintegrowany technologiczny ekosystem. To pozwoli na zunifikowanie wszystkich funkcji lotniska w ramach jednego systemu, który będzie również ściśle zintegrowany z systemami linii lotniczych. Trend samoobsługowy będzie się umacniał wraz z przyjęciem komunikacji radiowej bliskiego zasięgu (NFC). Technologia ta będzie wykorzystana do odpraw, płatności oraz personalizacji oferty promocyjnej. Gdy już większość pasażerów będzie posiadała smartfony wyposażone w technologię NFC metody automatycznej odprawy będą łatwe do wprowadzenia. Obecnie zastosowanie technologii NFC wymaga aby pasażer zbliżył swój telefon komórkowy do czytnika NFC. Wraz z upowszechnianiem się tej technologii sama interakcja pasażera

LIPIEC 2011

Rozpowszechnione między 2015 – 2020

Zintegrowana platforma lotniskowa

w obrębie terminala będzie w stanie uruchomić procedurę odprawy. Lotniska mogą również wprowadzić czytniki NFC w obrębie terminala tak by wyczuwały obecność pasażera i przesyłały informacje związane z odprawą do linii lotniczych. NFC może być również włączone w ramy aplikacji sieci społecznościowych działających w oparciu o lokalizację klienta taką jak Foursuqare. Przyszłość lotnisk i odpraw mających na nich miejsce będzie mocno połączona ze monitorowaniem ruchu pasażerów (za ich zgodą) co przyczyni się do bardziej efektywnego zmierzenia się z pobytem na lotnisku z jednej strony i zredukuje konieczność wystawanie w długich kolejkach. Opracował Tomasz Siobowicz na podstawie raportu „Przewodnik po lotniskach przyszłości” (ang. „Navigating the Airport of Tomorrow”) firm Travel Tech Consulting Inc. oraz Amadeus

39


Jak bardzo zielone jest... zielone tekst: Tomasz Siobowicz


Spalanie biomasy w celu uzyskania energii zdaje się być zwiastunem zielonej przyszłości. O elektryczności i cieple wyprodukowanych w zakładach energetycznych spalających lub współspalających drewno bądź odpady z produkcji rolniczej lub leśnej, mówi się, że to mądry i ekologiczny wybór. Powstają kolejne elektrownie i elektrociepłownie za pieniądze hojnie na ten cel wydawane przez polski rząd i Unię Europejską.


ANALIZA

Wytwarzanie energii z biomasy to jeden z kluczowych elementów w rozwoju alternatywnej energetyki ze źródeł odnawialnych. W kraju takim jak Polska, gdzie nie ma zbyt wielu górskich rzek, gdzie słońce nie świeci ani szczególnie długo ani szczególnie mocno, a wiatr wieje raczej umiarkowanie to właśnie biomasa ma szansę zrobić karierę. Pola i lasy to coś czego w Polsce mamy w obfitości i na uprawie czego znamy się od lat i na czym możemy polegać. Patrząc na zagadnienie energetyki odnawialnej w szerszej perspektywie widzimy podobne problemy. W sektorze transportu biopaliwa są atakowane za swój wpływ na ceny żywności w krajach trzeciego świata oraz niewielki wpływ na redukcją emisji dwutlenku węgla w związku z procesami ich produkcji. Energia wiatru jest krytykowana ze względu na niemożność polegania na niej jako stabilnym źródle oraz na koszt produkcji energii. Co do słońca – tu argument jest ciągle ten sam – nie świeci w nocy a w pochmurne i krótkie dni jest go po prostu za mało by mo-

gło to mieć znaczenie w jakimkolwiek większym bilansie. Wielu ekspertów sektora energetyki odnawialnej sugeruje obecnie, że to właśnie biomasa ma do odegrania główną rolę w osiągnięciu przez

42

Unię Europejską wyznaczonego celu produkcji 20% energii ze źródeł odnawialnych do roku 2020. Ta energia uzyskiwana z biomasy – ścinek z drzew, drewna odpadowego i różnego innego materiału roślinnego – jest niewielkim lecz stale rosnącym udziałem w produkcji energii odnawialnej. Dla przypomnienia – celem jest obniżenie zapotrzebowania na importowane paliwa, głównie ropę naftową i gaz ziemny oraz inne paliwa kopalne, a także redukcja emisji gazów cieplarnianych, której przypisuje się znaczący udział w zmianach klimatu. Biomasa działa na zasadzie konwersji w ciepło lub elektryczność (najczęściej przez spalanie) materii, która w normalnych warunkach ulega biodegradacji, takiej jak drewno, słoma, lub odpadki z lasów i pól. Ponieważ konwersji ulega materia organiczna całość dwutlenku węgla powstałego podczas spalania jest równa ilości, którą pochłonęła roślina podczas swojego życia, zatem cały proces bilansuje się – mówimy, że ma „zerowy bilans węglowy”.

Zielony interes Przez jakiś czas biomas była postrzegana jako jedna z wielu, wcale nie najbardziej obiecująca z opcji w branży energetyki odnawialnej. Przedsiębiorcy skupiali się głównie na tańszych formach dostępnej energii alternatywnej, głównie na wietrze. Ostatnimi czasy jednak sytuacja zaczęła ulegać zmianie. Przez porównanie ze sobą alternatywnych źródeł energii okazało się, że bio-

masa jest naprawdę wydajna. Jedna elektrownia na biomasę jest w stanie wyprodukować około trzykrotnie więcej energii niż farma wiatrowa o tej samej mocy. Dodatkowo jest niezależna od kaprysów pogody i da się skalować tak by sprostać

LIPIEC 2011


ANALIZA

wymaganiom danych odbiorców. To co jest w tym zielonym interesie kuszące to również możliwość pozyskania środków na jego rozpoczęcie i prowadzenie. Zapewnienia o ochronie powietrza oraz wykorzystaniu niezawodnego źródła energii w prosty sposób przekładają się na hojne rządowe dopłaty co stwarza atrakcyjne finansowo warunki budowy bądź rozbudowy zakładów energetycznych, tak jak ma to miejsce chociażby w elektrowni w Połańcu. Powstaje tam nowy blok energetyczny, w którym spalane będzie wyłącznie drewno i biomasa pochodzenia rolniczego. Całkowita moc tego bloku energetycznego wynosić będzie 190 MW. Będzie to największa na świecie elektrownia na biomasę. Jej moc pozwoli na zaopatrzenie w energię 400 tys. gospodarstw domowych. Ma zostać oddany do użytku pod koniec 2012 roku. Biomasa może być również wykorzystana w tradycyjnych zakładach energetycznych. W tych opalanych węglem wykorzystanie biomasy polegałoby na zastąpieniu części węgla właśnie biomasą. Zamiana 20% paliwa biomasą powoduje zmniejszenie emisji dwutlenku węgla o 20%. Dlaczego tylko 20%? Jak stwierdził ekspert firmy Vattenfall, Lars Stromberg, większy dodatek biomasy w obecnie stosowanych większości typów palenisk spowodowałby zapchania instalacji popiołem pochodzącym ze spalania. To co jest również mocno zachwalane przy okazji zakładów spalających biomasę to również różnorodność materiału, który może służyć im za opał. Może to być nie tylko drewno czy słoma, ale również wytłoki z rzepaku, mączka zwierzęca, nawóz, osady ściekowe – i wiele innych odpadów organicznych, które każde społeczeństwo w dalszym ciągu będzie wytwarzać w znacznych ilościach. Nie do pominięcia są także zalety jakie ma produkcja energii z biomasy dla gospodarki leśnej – zyski jakie można wygenerować sprzedając odpady z produkcji drewna i papieru czy też kwestie wprowadzania dodatkowych przecinek, które mogą np. zapobiec rozprzestrzenianiu się pożarów.

amerykańskie badania, wyemitowanie 45% więcej dwutlenku węgla w porównaniu ze spalaniem węgla oraz prawie 300% więcej niż w przypadku wysoko wydajnej elektrowni opalanej gazem ziemnym. Oczywiście – wyemitowany dwutlenek węgla został pochłonięty przez spalane drzewa podczas ich wzrostu – nie mniej jak długi czas jest potrzebny aby wyemitowaną teraz jego ilość znów mogły zostać wchłonięte przez wcale nie tak szybko rosnące przecież drzewa? Wyniki kalkulacji w przypadku odpadów drzewnych mówią o okresie 10 lat potrzebnych do pochłonięcia wyemitowanego dwutlenku węgla. W przypadku całych drzew pochłonięcie dwutlenku węgla może trwać dziesięciolecia. W związku z tymi wynikami Agencja Ochrony Środowiska w USA postanowiła wprowadzić za trzy lata opłaty za emisje dwutlenku węgla również z kotłów opalanych biomasą co zmienia status tego surowca w dłuższej perspektywie. Różne prowadzone ostatnio badania przynoszą wyniki, które rzucają cień na wychwalane zalety energii z biomasy. Przyjrzyjmy się bliżej

Czy biomasa jest na pewno OK?

Wydaje się, że to właśnie o to chodzi. Lecz nowe, precyzyjne obliczenia wywołują wątpliwości co do zalet energii produkowanej tym sposobem z biomasy. Niektórzy badacze przeliczając ilość dwutlenku węgla, która powstaje podczas całego procesu produkcji biomasy, a nie tylko samego wzrostu drzew, twierdzą, że spalanie biomasy może być tak naprawdę bardziej szkodliwe niż spalanie węgla i o wiele bardziej uciążliwe niż spalanie gazu ziemnego. A na dodatek ilość uwolnionego przy okazji spalania dwutlenku węgla w krótkim czasie powoduje uwolnienie takich ilości dwutlenku węgla, które owszem mogą zostać pochłonięte przez rosnące drzewa ale dopiero po wielu latach. A potrzeby energetyczne rosną. Kolejnym zagadnieniem, które musi być wzięte pod uwagę jest negatywny wpływ transportu paliwa na redukcję emisji dwutlenku węgla. Zakłada się, że duży zakład energetyczny będzie korzystał z surowca w postaci odpadów z produkcji drewna lub papieru, słomy lub odpadów z produkcji rolnej z najbliższej okolicy. Nie trudno

Ale nie wszystko wygląda tak różowo, czy też zielono, jak można by się tego spodziewać po tak ekologicznym rozwiązaniu. Jak każda technologia wykorzystanie biomasy w celu produkcji energii ma też swoje mankamenty. Krytyka dotyczy głównie zapotrzebowania na surowiec. Wymagania co do surowca w przypadku pojedynczego zakładu energetycznego są znaczne, zwłaszcza jeśli wykorzystuje on drewno jako pierwotne źródło energii. Niekorzystną cechą biomasy jest jej wysoka i zmienna (w zależności od rodzaju biomasy i okresu jej sezonowania) zawartość wilgoci. Konsekwencją tych właściwości jest również niższa wartość opałowa (zwłaszcza w stanie roboczym). Drewno charakteryzuje wysoka wilgotność uzyskuje się z niego mniej energii niże z innych, bardziej wydajnych paliw. Co za tym idzie należy spalić większe ilości biomasy aby wyprodukować tą samą ilość energii. A to oznacza, jak donoszą

LIPIEC 2011

rozwiązaniu, które powstało na fali popularności i poparcia dla energii z biomasy. Simpson Tacoma Kraft w stanie Washington w USA wydaje się być jedną z bardziej „zielonych” elektrowni. Spala trociny, wióry i korę drzew z tartaków i celulozowni aby podgrzać wodę i otrzymaną w ten sposób parę pod wysokim ciśnieniem skierować na turbinę by wytworzyć elektryczność.

Węgiel bardziej eko?

43


ANALIZA

jednak wyobrazić sobie sytuację, w której te dotychczasowe „odpady” w oczach ich „producentów” staną się towarem, na którym przecież można zarobić. Wtedy rachunek ekonomiczny zacznie być już nie tak korzystny. I co wtedy? Podobne wątpliwości budzi zasobność i podaż surowca na danym terenie. Bo aby wyprodukować energię z biomasy potrzeba jej dużo, naprawdę dużo. A im większy i bardziej „opłacalny” ma być zakład tym większe koszty transportu paliwa – zarówno te finansowe jak i te „węglowe” w postaci wyemitowanego przy okazji spalania paliw w transporcie paliw. I tu bilans zarówno „taniej” jak i „zielonej” energii zaczyna być wątpliwy jeśli chodzi o zaprojektowane „zyski”. W związku z tym może się okazać, że co prawda duże zakłady są wydajne jeśli chodzi o produkcję energii na potrzeby dużych odbiorców lecz jednocześnie mniej wydajne jeśli chodzi o zapobieganie uwalniania dwutlenku węgla do atmosfery. A to właśnie o kwestię dwutlenku węgla w energetyce odnawialnej chodzi. Jednocześnie w porównaniu np. z węglem, biomasa charakteryzuje się dużo wyższą zawartością związków alkalicznych (zwłaszcza potasu), wapnia i fosforu, a w przypadku słomy i innych roślin jednorocznych, a także liści i kory drzew, również wysoką zawartością chloru, co może prowadzić do wzmożonej korozji oraz narastania agresywnych osadów w kotle podczas jej bezpośredniego spalania. Zarówno w produkcji rolniczej jak i leśnej stosuje się wiele chemikaliów. Nawozy, środki ochrony roślin i środki do walki ze szkodnikami czy pasożytami to coś co również zostaje spalone w momencie gdy trafia do pieca. I doniesienia o ich wpływie na ludzkie zdrowie, o tym, że mogą przyczyniać się do wywoływania astmy oraz chorób serca powodują zaniepokojenie wśród ludzi, którzy mają mieć w swoim sąsiedztwie te „przyjazne środowisku” emitery zanieczyszczeń. Dwutlenek azotu, dwutlenek siarki, tlenek węgla i pył to tylko początek listy „zwykłych” składników emisji w tego typu zakładach. Oczywiście wiele zależy od tego jak bezpieczne i nowoczesne będą zastosowane rozwiązania technologiczne w kotłach, filtrach oraz instalacjach czy instrumentach monitorujących procesy produkcji energii w takich zakładów. Nie należą one jednak do tanich stąd nie należy się spodziewać, że wyprodukowana w takiej elektrowni energia będzie należała do szczególnie konkurencyjnych na rynku. Oczywiście zakłady takie powstaną w oparciu o rządowe i unijne dotacje i dofinansowania. Tak czy inaczej przyjdzie nam za to dość słono zapłacić. Kolejną różnicą w stosunku do paliw konwencjonalnych jest znacznie niższa gęstość nasypowa biomasy, czego konsekwencją jest droższy transport oraz wymagania dotyczące większych powierzchni składowisk. Co równie ważne dla wszelkich projektów zakładających wykorzystanie biomasy do produkcji energii obliczenia są dość bezwzględne. Bez dofinansowań do plantacji roślin uprawianych na cele energetyczne, bez preferencyjnych kredytów i grantów na budowę zakładów energetycznych opalanych biomasą cena tak produkowanej energii nie skusiłaby chyba nikogo. Ale nie każde przedsięwzięcie zakładające

44

wykorzystanie biomasy jako źródła energii ma tego typu problemy. Niektórzy producenci myślą o tym by korzystać głównie ze słomy, której większość krajów o znaczącej produkcji rolnej, takich jak Polska, ma w znacznej ilości. Na dodatek słoma będąc produktem ubocznym działalności rolniczej nie ma związku z dyskusją toczącą się wokół wpływu jaki mają uprawy energetyczne na terenach, które można potencjalnie wykorzystać do produkcji żywności.

A może jednak słoma? Wykorzystanie słomy jako paliwa wydaje się być jednym z efektywniejszych sposobów na pozbycie się jej – pozwala równocześnie oszczędzić konieczności w orania jej na powrót do gleby. W związku z tak znacznym potencjałem naszego rodzimego rolnictwa oraz leśnictwa istnieją duże zapasy i znika konieczność wikłania się w zależności od importu surowca co pozwala dopisać wartość dodaną w postaci wyższego bezpieczeństwa energetycznego i niezależności od zagranicznych dostawców. Ale nie wszystko wygląda tak obiecująco. Należy pamiętać, że wszystko co wyrośnie czy to drzewo czy to zboże pobiera z gleby zawarte w niej składniki mineralne. Jeżeli zbierzemy opadłe liście, gałęzie nie pozwalając im rozłożyć się i wrócić do obiegu gleba w lesie będzie ulegała jałowieniu. Podobnie w przypadku pola – jeśli słoma nie zostanie zaorana to nie dość, że usuniemy to co przyczyniło się do jej wzrostu i będziemy musieli to zastąpić nawozami to jeszcze zmienimy strukturę gleby, która dzięki w oranej słomie była lepiej napowietrzona i stwarzała lepsze warunki do rozwoju fauny glebowej.

Pieniądze, pieniądze... W grę wchodzą również jak zwykle… pieniądze. Produkcja energii, ponieważ zapotrzebowanie na nią stale rośnie, jest przyszłościowa i opłacalna. Za społecznym poparciem dla ekologicznych rozwiązań idą grube pieniądze w postaci dofinansowań i grantów umożliwiające zarówno wybudowanie zakładów energetycznych na biomasę jak i pozyskanie samego surowca na preferencyjnych warunkach. Czyli... pieniądze. A nie bez znaczenia dla terenów wiejskich oraz położonych w sąsiedztwie dużych kompleksów leśnych, co w obydwóch przypadkach daje duże prawdopodobieństwo powstania w ich sąsiedztwie takich zakładów, jest możliwość zatrudnienia dla znacznej ilości osób. Znów... pieniądze. A jeśli zamiast odpadów z produkcji drzewa lub produkcji rolniczej pomyślimy o rozwiązaniach w stylu upraw roślin na cele energetyczne jak diabeł z pudełka wyskakują jeszcze inne kwestie. Nie tylko redukcja emisji dwutlenku węgla czy wydajności energetycznej ma tu znaczenie – liczą się również inne efekty środowiskowe jakie ma wprowadzanie takich upraw. Weźmy na przykład zapotrzebowania na powierzchnię ziemi oraz wodę do ich uprawy. Wiadomo, że na piasku lub nieużytku niewiele wyrośnie. Aby dobrze rosło potrzebna jest gleba dobrej jakości. I to jak chochlik pojawia się kwestia konkurowania

LIPIEC 2011


ANALIZA

produkcji rolnej na cele energetyczne z produkcją rolną na cele spożywcze. O ile w krajach europejskich, w tym w Polsce, mamy nadprodukcję żywności w stosunku do krajowych potrzeb, o tyle w krajach gdzie dobrych gleb jest mało, a biednej ludności sporo zaczyna to być problem. Dodając do tego wycinanie lasów (np. tropikalne) na potrzeby stworzenia powierzchni uprawnych efekt ekologiczny zaczyna być coraz mocniej wątpliwy. A spójrzmy jeszcze na zagadnienie wprowadzania monokultur roślinnych, które wymagają du-

niektórych rejonach dość sporym problemem. Wprowadzenie upraw roślin na potrzeby energetyczne może jeszcze bardziej ten problem nasilić. I znów znaczenia nabiera kalkulacja kosztów i wydajności produkcji. Choć drewno i materiał roślinny były jednym z pierwszych paliw z jakimi ludzie mieli do czynienia nie wydaje się, by historia mogła zatoczyć aż tak wielkie koło i wrócić do rozwiązań stosowanych tysiące lat temu. Przeskalowanie zbieranego i spalanego opału na dzisiejsze warunki nastręcza trudności, które do-

żych ilości wody (zwłaszcza te szybko rosnące, które są tak faworyzowane przez wzgląd na krótki czas potrzebny do uzyskania dużej ilości biomasy) podczas uprawy co wpływa na stosunki wodne na danym obszarze. Bez wody przyrost będzie niewielki, a konieczność nawadniania jeśli tylko zdarzy się nie koniecznie dżdżyste lato powoduje podniesienie kosztów produkcji oraz nakładów energii potrzebnych do uzyskania plonów, a także obniżenie wydajności redukcji emisji dwutlenku węgla. To dość znany fakt, że produkcja biopaliw wymaga pozyskiwania bądź uprawy biomasy na olbrzymich obszarach. To pociąga za sobą oczywiście również olbrzymie zapotrzebowanie na wodę. Według badań przeprowadzonych przez UNESCO ilość wody potrzebna do produkcji tej samej ilości energii z biomasy jest 70 razy większa niż w przypadku otrzymywania jej z paliw kopalnych. Pamiętając o konieczności redukcji emisji dwutlenku węgla nie należy zapominać, że problem dostępności i dystrybucji wody jest w

piero zaczynamy poznawać. Wyniki trwających wciąż badań przynoszą coraz precyzyjniejsze wyliczenia, którym warto się przyjrzeć i zastanowić czy aby na pewno opłaca się nam w dłuższej perspektywie obstawać tak mocno przy rozwiązaniu, które dopiero zaczyna objawiać nam złożoność swojej problematyki. Wiele jeszcze musimy poznać, policzyć i poćwiczyć. Oby ta nauka nie poszła w las.

LIPIEC 2011

45


TECHNOLOGIE

Wirtualne planowanie sukcesu Kopalnia „Bogdanka” od lat wytacza kierunki rozwoju branży wydobywczej w Polsce. Żadna w Polsce kopalnia podziemna nie posiada spójnego i zintegrowanego systemu zarządzania gospodarką złożem. Przed czterema laty „Bogdanka” postanowiła, że jako pierwsza będzie dysponowała takim systemem. Dziś można powiedzieć, że ta sztuka jej się udała. „Bogdanka” to kopalnia pod wieloma względami wyjątkowa. Kiedy jeszcze kilka lat temu górnictwo w Polsce dusiło się pod zwałami niesprzedanego węgla, „Bogdanka” nie miała żadnego problemu ze sprzedażą swojego surowca, bo po prostu, był on wiele tańszy niż na Śląsku, a i tak na nim zarabiała. Dwa lata temu jako pierwsza kopalnia w Polsce weszła na giełdę, pozyskując ponad pół miliarda złotych na inwestycje, które w perspektywie kilku najbliższych lat pozwolą jej podwoić wydobycie. Kiedy na początku tego roku prezes kopalni Mirosław Taras ogłosił rekordowy wynik 230 mln zł skonsolidowanego zysku netto

46

inwestorzy giełdowi oszaleli, wręcz zakochali się w węglu. To właśnie dzięki „Bogdance” Jastrzębska Spółka Węglowa, kolejna spółka węglowa na giełdzie, nie musiała się martwić o chętnych na jej akcje. Co sprawia, że „Bogdanka” tak bardzo od-

staje od reszty polskiego górnictwa? Ma wyjątkowo korzystne złoże (pozbawione niespodzianek natury), ale za to taki sobie węgiel (Taras zwykł mówić: gdybym miał węgiel taki jak mają na Śląsku pytałbym ile kosztuje Polska). „Bogdanka” korzysta z renty geograficznej, dzięki mniejszym kosztom transportu jej węgiel jest dużo tańszy na wschodzie Polski. Ale to nie tłumaczy fenomenu „Bogdanki”.

LIPIEC 2011


TECHNOLOGIE

Innowacyjność - to jest właściwa odpowiedź. Innowacyjność w kopalni oznacza jej zdolność do wykorzystania najnowszych rozwiązań technicznych, technologicznych i organizacyjnych. Ba, można mówić o kulturze innowacji jako elemencie kultury organizacyjnej, który odnosi się do zagadnień innowacji w przedsiębiorstwie i jest utożsamiana z systemem wartości, przekonań wyznaczających model kompetencji, treści postaw pracowników oraz akceptowanych wzorów zachowań. Jeśli w polskim górnictwie przez lata zwykło się działać na zasadzie: „a jakoś to będzie”, to w „Bogdance” już od lat przyjęto zasadę: „tak ma być!”. I tak było kiedy w 2007 roku kopalnia podjęła decyzję o wprowadzeniu cyfrowego modelu złoża. - Dzięki takiemu modelowaniu można było scentralizować informacje geologiczne i znacznie usprawnić funkcjonowanie zakładu. Widzimy całe złoże „w jednym miejscu”, możemy lepiej i szybciej podejmować pewne decyzje. Mamy

przed oczami modele np. kaloryczności, strukturalności czy też zawartości popiołu - wyjaśnia Jerzy Nycz, geolog Lubelskiego Węgla „Bogdanka”. W ocenie Jerzego Nycza, modelowanie jest bardzo czasochłonnym zajęciem, wymagającym dużego nakładu pracy. - Dlatego też odczuć można pewną niechęć do wprowadzania tego typu rozwiązań. O ile się nie mylę, „Bogdanka”

LIPIEC 2011

to obecnie jedyna podziemna kopalnia w Polsce, która posiada kompletny cyfrowy model złoża. Mam jednak nadzieję, że już niedługo - przyznaje Nycz. Dane przygotowane przez dział mierniczy, dotyczące położenia w przestrzeni wyrobisk górniczych uzupełnione przez dane geologiczne opisujące parametry jakościowe eksploatowanego złoża składają się na budowany model geologiczny. Żeby stworzyć taki model należało wprowadzić do systemu ok. 2300 profili geologicznych, 97 profili otworów badawczych powierzchniowych, 83 profile otworów badawczych dołowych, długich oraz 503 analizy chemiczne węgla z chodników. Następnie to wszystko należało poddać wnikliwej analizie i czasochłonnej interpretacji danych. Pewnie gdyby w czasach PRL-u stosowano tak kompletną analizę profili badawczych, nie mówiąc już o stosowaniu tak nowoczesnych narzędzi informatycznych, bo ich akurat nie było, nie popełniono by błędnych decyzji dotyczących budowy kopalń (np.: Czeczott). Zastosowanie informatycznych narzędzi do budowy cyfrowego modelu złoża, umożliwiło w „Bogdance” prowadzenie, przetwarzanie, analizowanie i interpretowanie olbrzymiej ilości informacji. Cyfrowy model złoża nie jest tworzony po to, by geolog potrafił sobie lepiej złoże wyobrazić, (co może być efektem ubocznym), ale właśnie po to by dział przygotowania produkcji dostał jak najbardziej precyzyjne i wiarygodne dane wsadowe do prac związanych z projektowaniem i harmonogramowaniem prowadzonej eksploatacji. Jeszcze do niedawna planiści w „Bogdance” prowadzili harmonogramowanie produkcji tylko w arkuszach kalkulacyjnych, w których raportowali w formie tabel i wykresów przewidywaną eksploatację. We wdrożonym w kopalni Bogdanka systemie model złoża jest tworzony na podstawie danych zgromadzonych w relacyjnej bazie danych. Cały proces związany z analizą i interpretacją danych odbywa się wewnątrz systemu. We wspomnianej relacyjnej bazie danych (relacyjnej, bo można analizować stopień zależności różnych zjawisk i procesów) przechowywana jest masa informacji dotycząca m.in. wytrzymałości skał, hydrogeologii, jakości złoża. Wizualizacja

47


TECHNOLOGIE

danych może nastąpić w środowisku graficznym za pomocą programu do modelowania powierzchni. Można w ten sposób wizualizować dopływ wody do wyrobisk. Te symulacje są niezbędne do tworzenia planu rozcięcia złoża chodnikami. Za projektowanie wyrobisk odpowiada kolejna aplikacja. Stąd już jest tylko krok do harmonogramowania produkcji i doboru optymalnych scenariuszy produkcji. Artur Dyczko pracownik naukowy Instytutu Gospodarki Surowcami Mineralnymi i Energią PAN w Krakowie i zarazem kierownik wdrożenia „Systemu wspomagania decyzji w procesie przygotowania złoża do eksploatacji w LW Bogdanka SA” pytany na jednej z konferencji o cele i przyszłość wdrożenia powiedział: Pamiętam, że spotkało mnie miłe zaskoczenie, gdy zauważyłem że w trakcie realizacji naszego wdrożenia - w miarę jak dojrzewała w świadomości pracowników wizja giełdowego debiutu kopalni - zaczęto nas dopytywać i wręcz wymagać wskazania na już sposobu

48

optymalizowania produkcji, symulowania maksymalizacji wyników, podczas gdy my byliśmy dopie-

ro na początku wdrożenia, jeszcze w powijakach. Przyznam jednak, że to rozumiem, to naturalne

LIPIEC 2011


TECHNOLOGIE

zachowanie w sytuacji gdy istnieje możliwość skorzystania z rozwiązań do optymalizacji procesów i symulacji. Mało tego, wykorzystywanych w sposób ciągły narzędzi wspomagania decyzji „co, jeśli” i weryfikacji zdolności przewidywania. Z tego trzeba korzystać i pytać. Nasz cel jest prosty, pragniemy aby wypracowane przez nas w trakcie wdrożenia procedury były wykorzystywane w codziennej pracy zakładu górniczego do symulowania różnych scenariuszy, aby zobaczyć, co może się zdarzyć, jeśli wprowadzone zostaną nowe urządzenia, zmienią się warunki pracy lub zmieni się wykonanie kluczowych z punktu widzenia eksploatacji procesów, jeśli wprowadzi się zmiany w sekwencji realizowanych zadań, jak wreszcie działania te przełożą się na koszty prowadzonej działalności! Niby proste i klarowne – prawda! Ale wymaga zmiany w podejściu do planowania, wywraca tradycyjny model harmonogramowania na którym cieniem kładzie się pokutujący w branże, jeszcze z epoki centralnego planowania, procent wykonania planu żeby nie

LIPIEC 2011

powiedzie normy. A co do przyszłości wdrożenia. Według mnie mimo tytanicznej pracy całego zespołu wdrożeniowego i dużych środków już wydatkowanych na budowę systemu, jesteśmy dopiero na początku drogi prowadzącej do dojrzałego rozwiązania. Cieszy fakt, że wspiera nas mocno w naszych działaniach i dalej motywuje do dalszej pracy zarząd i kadra kierownicza kopalni. Mamy zespół i to jest najważniejsze, jestem dobrej myśli, gdyż ludzie z którymi obecnie współpracujemy wiedzą czego chcą i to z pewnością osiągną. Bogdanka to dziś jedna z najlepszych kopalń węgla kamiennego na świecie! Nowoczesna, innowacyjna i dobrze zarządzana. Cóż więcej potrzeba? Może tylko szczęścia górniczego. Jacek Srokowski

49



Teberia 8