__MAIN_TEXT__

Page 1

PRAWO I REGULACJE MAGAZYN

NR 4

marzec 2011

ŚWIATA TELEKOMUNIKACJI I MEDIÓW

NAJBARDZIEJ WPŁYWOWY MAGAZYN TELEKOMUNIKACYJNY W POLSCE

Kto sfinansuje sieci nowej generacji? Odliczanie czasu do switch-offu

16

Francuski sposób na cyfryzację

44

Założenia projektu ustawy o zmianie PT

52


§ Rada ekspercka

Agnieszka Zaborowska

Grupa TP

Tadeusz Piątek

Angelo Pettazzi Mediaset

Kancelaria Leśnodorski Ślusarek i Wspólnicy

Wacław Knopkiewicz

Wojciech Krupa

Rafał Duczek

Xawery Konarski

Igor Ostrowski

Kancelaria White & Case

Kancelaria Grynhoff Woźny Wspólnicy

Kancelaria Traple Konarski Podrecki

Dr Arwid Mednis

Kancelaria Wierzbowski Eversheds

Dr Jacek Niewęgłowski P4

Prof. nadzw. dr hab. Maciej Rogalski Grupa TP

Mirosław Fereniec Instytut Łączności

2 4

Mariusz Busiło

Wojciech Dziomdziora

Kancelaria Radców Prawnych Jagiełło, Zaborowska, Laprus-Bałuka

Małgorzata Olszewska

Ministerstwo Infrastruktury

Kancelaria Grynhoff Woźny Wspólnicy

Urząd Komunikacji Elektronicznej

Krzysztof Czyżewski

Kancelaria Grynhoff Woźny Wspólnicy

Dr Marlena Wach

Kancelaria Prezesa rady ministrów

Kancelaria Bird & Bird

Dr Katarzyna Chałubińska-Jentkiewicz

Ewa Gadomska

Narodowy Instytut Audiowizualny

Cezary Albrecht

Polska Telefonia Cyfrowa

Jerzy Kalinowski KPMG

Ewa Murawska-Najmiec,

Krajowa Rada Radiofonii i Telewizji

Krajowa Rada Radiofonii i Telewizji

Małgorzata Darowska

Kancelaria Salans

Andrzej Krasuski Kancelaria CMS Cameron McKenna

Andrzej Ładysz ADB


Prawo i regulacje § Świata Telekomunikacji i Mediów

§ Rada programowa

Anna Streżyńska

urząd komunikacji elektronicznej

Magdalena Gaj

Dr hab. Stanisław Piątek

Andrzej Zarębski

Uniwersytet Warszawski

Prof. dr hab. Marek Hołyński Polskie Towarzystwo Informatyczne

Ministerstwo Infrastruktury

Poseł na Sejm

Przewodniczący Krajowej Rady Radiofonii i Telewizji

Jerzy Straszewski

Ekspert rynku mediów

polska izba komunikacji elektronicznej

Dr Karol Jakubowicz

Wojciech Hałka

Ekspert rynku mediów

Stefan Kamiński Antoni Mężydło

Jan Dworak

KRAJOWA IZBA GOSPODARCZA ELEKTRONIKI i TELEKOMUNIKACJI

Instytut Łączności

Jacek Silski

Polska Izba Radiodyfuzji Cyfrowej

Dominik Skoczek

Kancelaria Squire Sanders Święcicki Krześniak

Dr Krzysztof Heller Inforstrategia

Departament Prawny, Ministerstwo Kultury i Dziedzictwa Narodowego

Andrzej Kuśmierczyk

Tomasz Misiak

Krystyna Rosłan-Kuhn

Senator RP

Krajowa Rada Radiofonii i Telewizj

Piotr Dmochowski-Lipski

Miroslav Rakowski

Eligiusz Krześniak

ZAiKS

Jerzy Sadowski

Polska Izba informatyki i Telekomunikacji

Ekspert w dziedzinie mediów

PTC

§ Partnerzy merytoryczni

marzec 2011 | 3


Formularze przy umowach są potrzebne

Czy zbieranie danych to interes przedsiębiorcy telekomunikacyjnego, czy abonenta?

Po co operatorom formularze? Agnieszka Zaborowska

Partner w Kancelarii Radców Prawnych Jagiełło, Zaborowska, Laprus-Bałuka sp. p.

Tamara Laprus-Bałuka

Partner w Kancelarii Radców Prawnych Jagiełło, Zaborowska, Laprus-Bałuka sp. p.

Rejestracja – potoczna nazwa udostępnienia danych przez abonenta przedsiębiorcy telekomunikacyjnemu, niebędącego stroną umowy o świadczenie usług telekomunikacyjnych, o których mowa w art. 60 ust. 1a PT .

1

4

Formularze abonenckie stają się coraz obszerniejsze. W wyniku tego abonenci podają przedsiębiorcom telekomunikacyjnym wiele danych, w tym swoich danych osobowych. Nie jest to konieczne, aby świadczyć usługi telekomunikacyjne. Niemniej jednak dopiero podanie danych przez abonenta lub wyrażenie określonych zgód sprawia, że możliwa jest realizacja całej palety abonenckich uprawnień.

P

rzedsiębiorcy telekomunikacyjni należą do nielicznej grupy podmiotów gospodarczych, które zawierając umowę o świadczenie usług bądź w trakcie jej trwania (tzw. rejestracja abonentów niebędących stroną umowy o świadczenie usług telekomunikacyjnych zawartej na piśmie – dalej abonenci prepaid1), pozyskują od swoich klientów szereg danych. O ile w stosunku do abonentów będących osobami prawnymi, lub jednostkami posiadającymi zdolność prawną mimo braku osobowości prawnej, takie działania co do zasady nie są ograniczone, dane tych podmiotów nie stanowią bowiem ich danych osobowych, to w stosunku do osób fizycznych zbierane i przetwarzane dane podlegają szczególnej ochronie prawnej. Działanie przedsiębiorców telekomunikacyjnych w tym zakresie opiera się na dwóch regulacjach prawnych: ustawie z dnia 16 lipca 2004 r. Prawo telekomunikacyjne (Dz.U. nr 171, poz. 1800 ze zmianami) – dalej PT oraz ustawie z dnia 29 sierpnia 1997 r. o ochronie danych osobowych (Dz.U. z 2002 r., nr 101, poz. 926 ze zmianami) – dalej u.o.d.o. Jednocześnie każda z tych ustaw posługuje się odmienną terminologią dotyczącą danych

osób fizycznych, a przede wszystkim wprowadza odmienne reżimy postępowania, a w ślad za tym odmienne zasady odpowiedzialności podmiotów naruszających reguły określone tymi reżimami. Warto zwrócić uwagę na fakt, że zakres danych zbieranych przez przedsiębiorców ulega systematycznemu zwiększaniu, głównie na skutek nowelizacji PT wynikających zarówno z konieczności implementacji dyrektyw unijnych, jak i z potrzeb rynku telekomunikacyjnego. Co ciekawe, niemal każda zmiana PT przyznająca abonentom kolejne uprawnienia lub możliwości powoduje, że w celu realizacji nowych uprawnień abonenckich przedsiębiorca telekomunikacyjny jest zobowiązany pozyskać od abonenta nowe dane lub jego zgodę na przetwarzanie posiadanych już danych w nowym celu. Innymi słowy, uprawnienia te są, zgodnie z ustawą, realizowane bądź za zgodą abonenta, bądź na jego wyraźne żądanie. Pod pojęciem „zgody” lub „żądania” właśnie należy rozumieć zgodę abonenta na przekazanie jego danych w określonym celu. Istotne jest, że w praktyce te dane abonenta oraz jego zgody lub żądania są pobierane przez przedsiębiorcę telekomunikacyj-


Prawo i regulacje § Od teorii do praktyki

nego w chwili zawierania umowy lub „rejestracji abonenta prepaid”, choć w znacznej części nie jest to konieczne ani do zawarcia umowy, ani do samej rejestracji. Poniższe rozważania są próbą analizy działań przedsiębiorców telekomunikacyjnych w zakresie zbierania i przetwarzania danych abonentów, w tym oceny zasadności zbierania tych danych, także z punktu widzenia interesów abonenta. Warto zastanowić się bowiem, czy ratio legis ustawy z jednej strony, a interes przedsiębiorców telekomunikacyjnych lub abonentów z drugiej, pozwalają na opracowanie w praktyce innych rozwiązań niż to, w którym operator daje możliwość i jednocześnie dąży do pobrania wszystkich danych w momencie podpisywania umowy lub „rejestracji abonentów prepaid”.

Operator telekomunikacyjny jako administrator danych osobowych Z punktu widzenia regulacji u.o.d.o. dane osobowe abonentów stanowią zbiór danych2 (art. 7 pkt 1 u.o.d.o.), a przedsiębiorca telekomunikacyjny przetwarzający te dane jest ich administratorem (art. 7 pkt 4 u.o.d.o.). Każdorazowo, zbierając dane osobowe, administrator (przedsiębiorca telekomunikacyjny) zobowiązany jest do poinformowania osoby udostępniającej dane o celu (!) zbierania danych oraz o prawie dostępu do treści danych i ich poprawiania. Ponadto przedsiębiorca telekomunikacyjny, przetwarzając dane4, powinien dołożyć szczególnej staranności w celu ochrony interesów abonentów, których dane dotyczą, a w szczególności jest

Każda niemal zmiana PT przyznająca abonentom kolejne uprawnienia sprawia, że przedsiębiorca telekomunikacyjny jest zobowiązany pozyskać od abonenta nowe dane lub jego zgodę na przetwarzanie starych danych w nowym celu.

obowiązany zapewnić, aby dane były zbierane dla oznaczonych, zgodnych z prawem celów i niepoddawane dalszemu przetwarzaniu niezgodnemu z tymi celami. Co do zasady zatem przetwarzanie danych w celu innym niż ten, w którym zostały zebrane, jest dopuszczalne wyjątkowo, a mianowicie jeżeli nie narusza praw i wolności osoby, której dane dotyczą, oraz następuje w celach badań naukowych, dydaktycznych, historycznych lub statystycznych. Naruszenie przez przedsiębiorcę telekomunikacyjnego zasad przetwarzania danych osobowych abonentów określonych w u.o.d.o. skutkuje sankcjami administracyjnymi i karnymi nie tylko w stosunku do tego przedsiębiorcy, ale również w stosunku do osoby (z reguły pracownika przedsiębiorcy5) odpowiedzialnej za czynności związane z przetwarzaniem danych u tego przedsiębiorcy.

Zakres i cel zbierania oraz przetwarzania danych określony w PT Zgodnie z art. 161 ust. 2 PT, czyli ex lege, przedsiębiorca telekomunikacyjny jest uprawniony do przetwarzania następujących danych abonenta będącego osobą fizyczną: 1) nazwisk i imion; 2) imion rodziców; 3) miejsca i daty urodzenia; 4) adresu miejsca zameldowania na pobyt stały; 5) numeru ewidencyjnego PESEL – w przypadku obywatela Rzeczypospolitej Polskiej; 6) nazwy, serii i numeru dokumentów potwierdzających tożsamość, a w przypadku cudzoziemca, który nie jest obywatelem państwa członkowskiego albo Konfederacji Szwajcarskiej – numeru paszportu lub karty pobytu; 7) zawartych w dokumentach potwierdzających możliwość wykonania zobowiązania wobec dostawcy publicznie dostępnych usług telekomunikacyjnych wynikającego z umowy o świadczenie usług telekomunikacyjnych. Ponadto przedsiębiorca telekomunikacyjny w związku ze świadczonymi usługami może przetwarzać inne dane abonenta będącego osobą fizyczną, ale jedynie za zgodą takiego abonenta. Katalog tych danych jest otwarty, a PT wymienia m.in.: numer identyfikacji podatkowej NIP, numer konta bankowego lub karty płatniczej, adres korespondencyjny, jeżeli jest on inny niż adres miejsca zameldowania na pobyt stały, a także adres poczty elektronicznej oraz numery telefonów kontaktowych. Ustawowa konstrukcja PT w zakresie uprzedniego pozyskania

Rozumie się przez to każdy posiadający strukturę zestaw danych o charakterze osobowym, dostępnych według określonych kryteriów, niezależnie od tego, czy zestaw ten jest rozproszony lub podzielony funkcjonalnie 3 Rozumie się przez to organ, jednostkę organizacyjną, podmiot lub osobę, decydujące o celach i środkach przetwarzania danych osobowych. 4 Rozumie się przez to jakiekolwiek operacje wykonywane na danych osobowych, takie jak zbieranie, utrwalanie, przechowywanie, opracowywanie, zmienianie, udostępnianie i usuwanie, a zwłaszcza te, które wykonuje się w systemach informatycznych (art. 7 pkt 2 u.o.d.o.). 5 Możliwość żądania wszczęcia postępowania dyscyplinarnego lub innego przewidzianego prawem postępowania przeciwko osobom winnym dopuszczenia do uchybień (art. 17 ust. 2 u.o.d.o.) 2

marzec 2011 | 5


Nowe media czy śmierć mediów?

Drugie życie gazet i książek

Nowe media czy śmierć mediów? Karol Jakubowicz

Dr, Szef zespołu Doradców przewodniczącego KRRiT, medioznawca

Jung twierdzi, że wobec mediów1 nie można już dzisiaj posługiwać się pojęciem „środków masowego przekazu”, bo stały się zindywidualizowane i interaktywne, więc przestały być „masowe”2. Nie służą też tylko do „przekazu”, ale mają charakter dwustronnej wymiany. Te gwałtowne przeobrażenia dotyczą też prasy. Czy możemy wkrótce spodziewać się śmierci tradycyjnej gazety?

Z

O kłopotach z definicją mediów: Karol Jakubowicz (2010), Media, czyli co? (w:) „Prawo i Regulacje Świata Telekomunikacji i Mediów”, nr 1, czerwiec/wrzesień 2010. O przyszłości mediów: Jakubowicz, Karol (2010), Scenariusze przyszłości mediów elektronicznych (w:) „Prawo i Regulacje Świata Telekomunikacji i Mediów”, nr 2, wrzesień 2010. 2 Jung, Bohdan (2005) Nowe technologie w mediach elektronicznych. Cyfryzacja, Internet i co dalej?, „Studia Medioznawcze”, nr 3(22): 15-38 (str. 16). 1

8

achodzące zmiany rzeczywiście wymagają nowego spojrzenia na media masowe. Można wymienić trzy najważniejsze procesy: 1. Zmiany społeczne przyczyniają się do dezinstytucjonalizacji komunikowania masowego: coraz więcej jednostek i grup spoza instytucjonalnego systemu mediów masowych dysponuje wolą komunikowania w skali społecznej oraz kompetencją kulturową i komunikacyjną, a także sprzętem umożliwiającym tworzenie i dystrybucję przekazów do masowego odbiorcy. 2. Zmiany technologiczne w dużym stopniu powodują dematerializację informacji (czy mówiąc ogólnie – treści komunikowania), czyli oddzielenie treści od materialnych form, takich jak taśma filmowa, papier gazetowy, książka, taśma magnetowidowa itp. Fakt, że treści komunikowania przybierają formę plików cyfrowych, sprawia, że te same informacje mogą być przenoszone przez różne nośniki i dostępne na różnych platformach. Rodzi to jednak pytanie o status treści „uwolnionej” od materialnej formy i nośnika: czy gazeta dostępna już nie na papierze, ale w Internecie, to jest jeszcze gazeta czy już coś innego?

3. Zmiany społeczne i technologiczne prowadzą razem do dezintermediacji źródła informacji: organizatorzy imprez i wydarzeń, producenci zawartości (np. wytwórnie filmowe czy muzyczne), instytucje i organizacje (np. kluby czy ligi sportowe) nie potrzebują już pośrednictwa profesjonalnych organizacji nadawczych w celu dotarcia do odbiorcy, kibica czy poszukiwacza informacji. Już są w stanie (a w przyszłości tym bardziej będą) samodzielnie tworzyć i rozpowszechniać wyspecjalizowane programy telewizyjne bądź rozpowszechniać informacje w Internecie i rezygnować z organizacji medialnych jako pośrednika. Poniżej opisujemy trzy generacje „nowych mediów”. W latach 70. i 80. XX w. kształt mediów zaczął się zmieniać wskutek zmian technologicznych zapoczątkowanych 20-25 lat wcześniej. To proces narodzin zjawiska zwanego „nowymi mediami”. Jednocześnie postępowała dalsza, przyspieszona zmiana technologiczna. O tym, które media są „stare”, a które “nowe”, decyduje oczywiście punkt odniesienia. Zakres pojęcia „nowe media” zmienia się wraz z upływem czasu, bo w różnych okresach różne media są nowe. Jedni za nowe media uznają wszystkie te,


Prawo i regulacje § Od teorii do praktyki

które pojawiły się po gutenbergowskiej erze słowa. Hopfinger3 przyjmuje XIX-wieczną perspektywę i zgodnie z nią za nowe media uznaje wszystkie, które powstały w XX w.: „Główną cechą nowych mediów – która odróżnia je od tradycyjnego słowa i obrazu – jest ich immanentny związek z techniką, to, że powstają przy współdziałaniu człowieka z »maszyną«”. W tej definicji mieści się wszystko – od fotografii i filmu, przez radio i telewizję, a kończąc na Internecie”. Lister4 patrzy na to zjawisko z innej perspektywy i stwierdza, że gdy w latach 70. upowszechniły się nowe media, jednocześnie powstawały wynalazki w dziedzinie przetwarzania i przesyłania informacji (mikroprocesory, komputery, systemy operacyjne, cyfrowe przełączniki telefoniczne, komercyjne wykorzystywanie łączy światłowodowych, wreszcie Internet), które zmieniły możliwości mediów. W rezultacie „co najmniej od połowy lat 80. XX w. (z różnym nasileniem) na pierwszy plan zaczął wysuwać się szereg pojęć przedstawiających najważniejsze cechy nowych mediów jako pewnej całości”. Proces ten zapoczątkował zasadniczą zmianę we wzorach komunikacji społecznej i wprowadził wiele nowych technologii oraz form mediów. Można wyróżnić dwie metody analizy i opisu nowych mediów: w kategoriach ich własnych cech albo ich oddziaływania na komunikację społeczną, społeczeństwo i kulturę. Metodę mieszaną zastosował Cardoso5: „Nowe media można uznać za takie, ponieważ zapośredniczają komunikację, posługują się nowymi technologiami, łączą na tej samej platformie komunikację interpersonalnąz masową, powodują zmianę organizacyjną i nowe formy zarządzania czasem, a także poszukują syntezy komunikacji tekstowej i wizualnej i w ten sposób przekształcają audytorium oraz stanowią nowe narzędzia rekonstrukcji społeczeństwa”. Ogólnie można więc powiedzieć, że media nowe to te, które od poprzednich odróżniają się podstawowymi cechami funkcjo-

Zdaniem Philipa Meyera, znanego amerykańskiego dziennikarza i medioznawcy, w 2043 r. zaniknie gotowość do codziennego czytania gazet.

nowania i wzorami sytuacji komunikacyjnych i komunikacji społecznej. Można w dużym uproszczeniu powiedzieć, że po II wojnie światowej pojawiły się trzy generacje nowych mediów: • „nowe media 1.0”, czyli nowe media i technologie analogowe sprzed okresu konwergencji; • „media 2.0”, czyli nowe media i technologie cyfrowe powstające za sprawą konwergencji • i wreszcie „nowe media 3.0”, czyli media w pełni zintegrowane i konwergentne.

Nowe media 1.0

Jednym ze skutków konwersji jest „odcinanie kabla” (cord cutting), czyli rezygnacja z telewizji kablowej czy satelitarnej na korzyść oferty dostępnej w Internecie. Czas pokaże, czy zjawisko to stanie się powszechne.

Zacznijmy od „nowych mediów 1.0”. W latach 80. „nowymi mediami” nazywano potocznie wszystkie formy funkcjonowania mediów odbiegające od tradycyjnych wzorów (przede wszystkim radia i telewizji), a zwłaszcza sposoby rozpowszechniania ich zawartości. Warto jednak zauważyć, że równie często była mowa po prostu o „nowych technologiach” (ryc. 1).

Element wzoru komunikacji ulegający zmianie

Lista nowych mediów 1.0

Dystrybucja

Telewizja satelitarna (ew. do odbioru bezpośredniego) Telewizja kablowa, Low-power TV (stacje o zasięgu 15-25 km) Local- albo multi-channel multipoint distribution system (bezprzewodowa transmisja sygnału, alternatywa dla telewizji kablowej) Zbiorcza antena satelitarna

Czas i tryb odbioru. rejestracja zawartości

Magnetowidy, kasety wideo, płyty kompaktowe

Tryb dostępu

Pay-tv - telewizja płatna (abonamentowa); pay-per-view (telewizja na żądanie, płatna w przeliczeniu na pojedyncze audycje)

Nowe źródła informacji i innych treści

Teletekst, wideotekst

Jakość obrazu i inne cechy odbiornika telewizyjnego

Duży ekran telewizora, stereo, telewizja wysokiej rozdzielczości

Ryc. 1. Główne nowe media 1.0

Hopfinger, Maryla (2002) Wprowadzenie (w:) Maryla Hopfinger (red.) Nowe media w komunikacji społecznej w XX w. Warszawa: Oficyna Naukowa (str. 10). 4 Lister, Martin i in. (2009) Nowe media. Wprowadzenie. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego (str. 22). 5 Cardoso, Gustavo (2006) The Media in the Network Society. Browsing, News, Filters and Citizenship. Lisbon: Centre for Research and Studies in Sociology (str. 124). 6 Rice, Ronald E. (1985) New Media Technology: Growth and Integration (w:) Ronald E. Rice i in., The New 3

marzec 2011 | 9


Odliczanie czasu do switch-offu

Opóźnia się wdrożenie naziemnej telewizji cyfrowej w Polsce

Odliczanie czasu do switch-offu Jan Karasek

Senior Manager w Firmie Doradczej KPMG

Dotrzymanie planowanego na 31 lipca 2013 r. terminu wyłączenia sygnału naziemnej telewizji analogowej w Polsce może okazać się niemożliwe. W publicznej debacie mówi się nawet o roku 2015. Proces przechodzenia na wyłączne nadawanie cyfrowe napotyka przeszkody.

I Andrzej Musiał

Ekspert w Firmie Doradczej KPMG

16

mpas legislacyjny – to jeden z głównych czynników opóźniających proces cyfryzacji w Polsce. Komercyjne uruchomienie pierwszego etapu wdrożenia dwóch multipleksów, które cyfrowo odtwarzają ofertę analogową, odbyło się z około rocznym opóźnieniem. Dzięki nim od 2010 r. możliwe jest oglądanie w technologii cyfrowej wybranych programów nadawanych przez TVP, Polsat, TVN i TV Puls. Zakończenia wciąż wymaga jednak proces uruchomienia pierwszego multipleksu. Dopóki to się nie stanie, nie będzie można wyłączyć emisji analogowej. Zależność jest zresztą podwójna, bo za sprawą wyłączenia emisji analogowej zwolnią się też dodatkowe częstotliwości potrzebne do uruchomienia całej planowanej oferty naziemnej telewizji cyfrowej o zasięgu ogólnopolskim. W krajach Unii Europejskiej wdrażanie naziemnej telewizji cyfrowej wchodzi w decydującą fazę. Komisja Europejska rekomenduje państwom członkowskim rok 2012 jako termin wyłączenia nadawania w technologii analogowej. Z analiz przeprowadzonych przez KPMG wynika, że 24 z 27 państw UE planują dotrzymanie tego terminu i w tym czasie całkowicie zaprzestaną transmisji sygnału analogowego. W 2010 r. już 13 państw w Europie, w tym 10 z UE, ukończyło analogowe przełączanie (ang. analogue switch-over), czyli okres, w którym naziemne transmisje – analogowa

i cyfrowa – prowadzone są równolegle, i przeszło na wyłączne nadawanie cyfrowe. W najbliższym czasie zmiany zajdą również na rynkach w Austrii, Słowenii, na Malcie i w kandydującej do Unii Islandii. W procesie wdrożenia naziemnej telewizji cyfrowej w Europie widoczne jest opóźnienie regionu środkowo-wschodniego. Rumunia będzie jedynym krajem Unii Europejskiej, który nie rozpocznie naziemnej emisji cyfrowej do końca 2011 r. Polska również nie jest w tej klasyfikacji liderem: prawdopodobnie obok Rumunii będzie jedynym krajem Europy Środkowo-Wschodniej, w którym po 2012 r. sygnał analogowy nadal będzie emitowany.

Wysoka penetracja płatnej telewizji w Polsce oraz rosnąca liczba odbiorników cyfrowych z systemem MPEG-4 mogą zmniejszyć problem pomocy publicznej w emigracji telewidzów do naziemnej telewizji cyfrowej.


Ochrona danych pod kontrolą

Przetwarzanie i gromadzenie danych w świetle nowych regulacji pakietu telekomunikacyjnego

Ochrona danych pod kontrolą Małgorzata Darowska

Radca prawny w kancelarii Salans, specjalista w zakresie prawa telekomunikacyjnego

Do 25 maja 2011 r. rozwiązania zawarte w dyrektywie unijnej 2009/136/WE powinny zostać transponowane do prawa polskiego. Nowe przepisy dotyczą między innymi ochrony danych osobowych przetwarzanych i generowanych w związku ze świadczeniem usług łączności elektronicznej. Zmiany nakładają na dostawców usług dodatkowe obowiązki i bronią interesu abonentów.

U

chwalona w ramach tzw. pakietu telekomunikacyjnego dyrektywa 2009/136/ WE Parlamentu Europejskiego i Rady z dnia 25 listopada 2009 r. wprowadziła szereg zmian do dyrektywy 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotyczącej przetwarzania danych osobowych i prywatności w sektorze łączności elektronicznej (dalej: dyrektywy o prywatności i łączności elektronicznej). Celem tych zmian jest z jednej strony wzmocnienie ochrony praw osób fizycznych i abonentów niebędących osobami fizycznymi w związku z korzystaniem przez nich z usług łączności elektronicznej, w tym w szczególności prawa do prywatności i poufności, a z drugiej strony zapewnienie na terenie Unii Europejskiej swobodnego przepływu danych przetwarzanych w związku ze świadczeniem tego typu usług. Nowe regulacje mają nadążać za rozwojem technologii i usług. Wymuszają między innymi na podmiotach świadczących usługi łączności elektronicznej wprowadzenie odpowiednich procedur, które zapewnią użytkownikowi możliwość kontroli nad przetwarzaniem danych przez dostawców usług. Ponadto nowe przepisy mają zwiększyć kompetencje organów powołanych do ochrony danych i nadzorujących dostawców usług. Szczególny nacisk położono na konieczność ochrony danych niezależnie od świad-

18

czonych usług i stosowanych urządzeń (zasada neutralności technologicznej). Zgodnie z preambułą do dyrektywy 2009/136/ WE nowe przepisy mają pomóc w poprawie bezpieczeństwa przetwarzania danych i jednocześnie zapewnić odpowiednie warunki do rozwoju nowych usług technologicznych poprzez: a) Wyposażenie krajowych organów odpowiedzialnych za ochronę danych osobowych w adekwatne kompetencje i środki, które umożliwią im wykonywanie obowiązków w realiach rozwoju społeczeństwa informacyjnego. W tym celu organy takie powinny między innymi dysponować wiedzą na temat przypadków naruszenia bezpieczeństwa systemów, w których dane osobowe są przechowywane, jako że może to w konsekwencji skutkować naruszeniem bezpieczeństwa danych osobowych i prywatności osób, których dane dotyczą. b) Wprowadzenie dla dostawców usług łączności elektronicznej obowiązku zgłaszania właściwemuorganowi naruszeń bezpieczeństwa danych, a także informowania właściciela danych o ich naruszeniu. Warto przy tym pamiętać, że dyrektywa o prywatności i łączności elektronicznej dotyczy przetwarzania danych wszystkich odbiorców usług, zarówno osób fizycznych, jak i przedsiębior ców, w tym jednostek organizacyjnych.


Droga do unifikacji administracyjnej

Katarzyna Chałubińska-Jentkiewicz

22


Prawo i regulacje § Prawo wspólnotowe

Konwergencja krajowych systemów administracji publicznej na przykładzie kompetencji BEREC

Droga do unifikacji administracyjnej Konwergencja usług, która postępuje w sektorze mediów audiowizualnych oraz komunikacji elektronicznej1, pociąga za sobą konwergencję administracji2, czyli likwidację odrębności administracyjnych i tworzenie wspólnych rozwiązań w tej sferze. W opozycji do europejskiej konwergencji administracyjnej stoją tradycyjne systemy administracji publicznej3.

R

óżnice w pojmowaniu interesu publicznego i dobra publicznego w poszczególnych państwach członkowskich należą do najistotniejszych czynników hamujących proces konwergencji administracyjnej. Jednak zgodnie ze stanowiskiem przyjętym przez Organizację Współpracy Gospodarczej i Rozwoju administracja publiczna4 funkcjonuje i jest zarządzana na podstawie wspólnych europejskich zasad, reguł i regulacji, jednolicie stosowanych w określonej przestrzeni terytorialnej5. Należy przypomnieć, że Polska jak większość nowych krajów Unii Europejskiej była zobowiązana do dostosowania systemu instytucjonalnego do wspólnych zasad administracji publicznej jako warunków Europejskiej Sfery Administracyjnej (ESA). W dokumencie „European principles for public administration” podkreśla się, że brak wspólnego systemu horyzontalnego administracji publicznej utrudnia realizację celów unijnych, czyli wdrażania standardów europejskich na każdym poziomie życia społecznego6. Należy pamiętać, że globalizacja, re-

wolucja informatyczna, konkurencja oraz podstawowe standardy działania państwa demokratycznego wyznaczają kierunki rozwoju administracji publicznej. Powstawanie jednolitej europejskiej przestrzeni administracyjnej wydaje się nieuniknione. Jej powstawanie związane jest z wdrażaniem zasady solidarności państw członkowskich, zasady lojalności organów i zaufania wspólnotowego, które stanowią kryterium oceny działania Unii jako jednolitego organizmu7. Unifikacja ma szczególne znaczenie dla polityki rozwoju technologicznego, w tym mediów elektronicznych. Dodać należy, że funkcjonowanie krajowych organów administracyjnych odbywa się w ramach sieci administracji publicznej (a network of public authorities)8. Jej kształt zależny jest od przedmiotu regulacji9 i sektorów infrastrukturalnych10.

Krajowy organ regulacyjny Pierwszą, zasadniczą zmianą ustrojową w dziedzinie mediów elektronicznych dotyczącą kompetencji organów regulacyjnych była nowela ustawy

Katarzyna Chałubińska-Jentkiewicz DR N. PRAW., Wykładowca w AON, zastępca dyrektora Narodowego Instytutu Audiowizualnego

Na uwagę zasługuje pkt 5 preambuły do dyrektywy ramowej, w którym zdefiniowano pojęcie konwergencji telekomunikacji, mediów i technologii informatycznych jako objęcie jednolitymi unormowaniami wszelkich sieci i usług związanych z przekazywaniem informacji. 2 Ang. administrative convergence. 1

marzec 2011 | 23


Pułapka neutralności sieci

Miroslav Rakowski Prezes Zarządu PTC

30


Prawo i regulacje § Kontrowersje

Internet potrzebuje nowych modeli biznesowych

Pułapka neutralności sieci Gwałtownie zwiększa się ruch w Internecie. Wygląda na to, że nie będziemy mieli problemu, aby wypełnić treścią i usługami sieci kolejnych generacji. Przeciwnie – trzeba sobie już dziś zdać sprawę z oczywistych ograniczeń, na jakie natrafiamy przy dalszym rozwoju. Konieczne są już teraz modele biznesowe, które pozwolą sfinansować rozbudowę niezbędnej infrastruktury.

W

ydatki są ogromne. Przed wszystkim nadal istotne jest zwiększenie zasięgu Internetu. Wybudowana infrastruktura wymaga utrzymania i dalszego rozwoju, aby można było zaspokoić zapotrzebowanie na przepustowość, które rośnie w tempie porównywalnym ze wzrostem mocy obliczeniowej komputerów według prawa Moore’a1. Rozwój usług internetowych, rosnąca popularność netbooków, smartfonów czy tabletów oraz wzrastająca liczba użytkowników stawiają potężne wymagania przepustowości sieci. Trzeba zdać sobie sprawę z tego, że architekturę dotychczasowego Internetu cechuje prostota, która umożliwiła dynamiczny rozwój tej sieci. Dziś jednak jest też źródłem jej ograniczeń. Nadal brakuje dobrych

Problem niedoinwestowania infrastruktury ma charakter globalny: ruch internetowy wzrasta szybciej niż budowa sieci telekomunikacyjnych.

rozwiązań umożliwiających zapewnienie wystarczającej sprawności sieci, tam gdzie ruch przepływa przez kilka tzw. systemów autonomicznych, czyli przez obszary znajdujące się pod kontrolą różnych operatorów. Należy docenić fakt, że organy administracji dostrzegły wagę dostępu do Internetu. Zauważyły korelacje pomiędzy powszechnym korzystaniem z sieci i wzrostem gospodarczym. Dzięki temu powstały bardzo ambitne plany Komisji Europejskiej przedstawione w Europejskiej agendzie cyfrowej. Przypomnijmy, że zgodnie z jej założeniami do 2013 r. wszyscy Europejczycy mają uzyskać dostęp do szerokopasmowego Internetu, a do 2020 r. jego szybkość ma wynosić nie mniej niż 30 Mbps, a dla co najmniej połowy gospodarstw domowych – powyżej 100 Mbps. Takie plany rozwoju można zrealizować tylko poprzez odpowiednie stymulowanie prywatnych inwestycji. Co prawda możliwe byłoby subsydiowanie budowy sieci telekomunikacyjnych przez państwo, jak to dzieje się na przykład w Australii, jednak oprócz tych ogromnych kosztów konieczne są również wyżej wskazane wydatki na utrzymanie i dalszy rozwój już istniejącej infrastruktury. Tymczasem obecny stan finansów publicznych państw europejskich nie wróży zbyt dobrze realizacji tych potrzeb. Wątpliwe, aby w państwowych budżetach znalazły się wystarczające środki na inwestycje i późniejsze utrzymanie sieci.

Miroslav Rakowski Prezes Zarządu PTC

1 Teza dotycząca rozwoju mikroprocesorów, która w jednym ze swoich podstawowych sformułowań głosi, że moc obliczeniowa procesorów podwaja się co 18 miesięcy w stosunku do ich cen i wielkości. Źródło: Merriam Webster.

marzec 2011 | 31


Pułapka neutralności sieci

Pojawiają się już prognozy, według których w ciągu dwóch lub trzech lat w USA i czterech lat w Europie nastąpi dla operatorów sieci mobilnych end of profit, a więc moment, w którym koszty zaczną przekraczać przychody.

Ów pożądany dynamiczny skok ilościowy i jakościowy musiałby zostać ujęty w zgrabnym modelu biznesowym, który przewidywałby dalszy rozwój i obsługę sieci z przychodów za jej używanie. Internet jest w fazie komercjalizacji – potrzebne są pieniądze i konkretny biznesplan, aby zrealizować wielkie plany rozwojowe i zaspokoić rosnące potrzeby użytkowników. Analizując dane o wymianie ruchu w sieci, nie sposób nie zauważyć eksponencjalnego, czyli wykładniczego wzrostu tego ruchu. Nie koresponduje on zupełnie z powolnym wzrostem przychodów operatorów ze sprzedaży usług dostępowych. Ruch w sieci

Rozejście się ruchu i przychodów Przychody

Czas

Ryc. 1. Tendencje dotyczące ruchu i przychodów w Internecie.

Zauważyć należy, że struktura ruchu w Internecie znacząco się zmienia: dziś przeważa ruch spowodowany udostępnianiem plików i usług multimedialnych.

Gry i hazard

934 PB

5 mld PLN

1%

2% 1%

Gry i hazard Komunikacja

34%

Wyszukiwarki

Komunikacja 14%

IPTV 17% 1%

VoD/MoD

3% 43%

Udostępnianie 65% ploków

0% 20%

Ruch

2 Zob. Tellabs ‘death clock’ predicts endo of profit for MON’s www.telecoms.com.

32

e-Handel e-Podróże e-Brokerzy IPTV VoD/MoD Sprzedaż cyfrowych książek/muzyki/wideo

Przychód

Ryc. 2 Wolumen danych (PB) zestawiony z przychodem generowanym w usługach online w Polsce (mld PLN) - rocznie (2009). Źródło: Łańcuch wartości w Internecie i potencjalne modele funkcjonowania rynku, UKE grudzień 2010.

Wobec obecnych na rynku trendów, w szczególności wobec wzrostu ruchu transmisji danych w sieciach, wzrostu kosztów rozbudowy sieci i jednocześnie niewielkiego wzrostu przychodów – pojawiają się już prognozy wskazujące, że w ciągu dwóch lub trzech lat w USA i czterech lat w Europie nastąpi dla operatorów sieci mobilnych end of profit, a więc moment, w którym koszty zaczną przekraczać przychody2. Należy sobie zdać sprawę z tego, że obecny w wielu krajach model cenowy typu flat rate, czyli jednolita stawka za korzystanie z Internetu dla wszystkich, niezależnie od stopnia, w jakim obciążają sieć, powoduje, że pewna mniejszość użytkowników generuje większość ruchu, a zatem i kosztów, jednak nie wnosi w zamian żadnych dodatkowych przychodów. Ponieważ w praktyce niemożliwa jest jednoczesna rozbudowa wszystkich sieci dostępowych, użytkownicy ci będą po prostu zapychać pasmo innym użytkownikom, którzy nie korzystają z sieci tak ekstensywnie. Dlatego zwłaszcza w sieciach dostępowych o ograniczonych zasobach, jak jest w przypadku sieci mobilnych, trudno będzie sprostać coraz bardziej rosnącym oczekiwaniom wszystkich użytkowników. Koniecznością jest uczynienie tego systemu bardziej wydajnym i sprawiedliwym. Operatorzy starają się polepszyć wydajność sieci. Po pierwsze, poprzez refarming, czyli uporządkowanie pasma podzielonego na operatorów w sposób nieoptymalny (np. w kilku oddzielnych blokach). Po drugie, starają się nabyć dodatkowe pasma. Patrząc jednak na uwalnianie w Polsce pasma z dywidendy cyfrowej, trzeba stwierdzić, że jest to bardzo żmudny proces. Pojawiają się również próby komercyjnego współdzielenia pasma (sharing), a także starania, aby ograniczyć wolumen danych pobieranych przez urządzenia mobilne. Ograniczeniu wolumenu służą też stosowane przez operatorów aplikacje do kompresji, które poprawiają szybkość korzystania z sieci oraz zmniejszają jej obciążenie. Jednym z podstawowych narzędzi pomocnych w sprawiedliwym przydziale zasobów sieciowych jest zarządzanie siecią. Należy pamiętać, że zróżnicowane modele cenowe sprzedaży usług sieci powinny przyczynić się do współkorzystania z sieci przez użytkowników o różnych profilach. Jednak zbliżające się przeciążenie sieci i wynikająca stąd potrzeba inwestycji nie bierze się z wzajemnego zabierania sobie pasma przez współkorzystających użytkowników końcowych. Wspomniane korekty w strukturach taryfowych oraz optymalizacja obecnych zasobów sieciowych nie wystarczą, aby na stałe doprowadzić do balansu pomiędzy przychodami a potrzebami inwestycyjnymi. Należy pogodzić się


Przedwczesna regulacja NGA?

Rozwój i finansowanie sieci dostępu nowej generacji

Przedwczesna regulacja NGA? Marlena Wach

Dr, radca prawny w kancelarii Bird & Bird Maciej Gawroński sp. k., adiunkt na Wydziale Prawa w Szkole Wyższej Psychologii Społecznej

Budowa sieci nowej generacji i rozbudowa istniejącej już infrastruktury mają zapewnić obywatelom Unii Europejskiej szybki dostęp do nowych usług, dzięki większej prędkości przesyłu danych. W jaki sposób Unia promuje dostęp szerokopasmowy nowej generacji i czy nie pojawia się tutaj ryzyko przeregulowania rynku?

D

1 W odróżnieniu od tradycyjnej metody przesyłania informacji jako serii bajtów, znaków lub bitów. 2 Europejska agenda cyfrowa jest jednym z siedmiu flagowych programów Komisji Europejskiej w ramach strategii reform gospodarczych Europa 2020 (COM (2010) 2010) przyjętej przez Komisję Europejską 3 marca 2010 r. 3 Zalecenie Komisji z dnia 20 września 2010 r. w sprawie regulowanego dostępu do sieci dostępu nowej generacji (2010/572/UE).

38

ostęp do Internetu w Unii Europejskiej realizowany jest najczęściej poprzez sieć szerokopasmową pierwszej generacji, czyli miedzianą sieć telefoniczną i sieć telewizji kablowej. Novum sieci nowej generacji (ang. Next Generation Access, NGA) sprowadza się do przesyłu wszelkich informacji, czyli głosu, danych i obrazu, poprzez jedną wspólną sieć (a także transferowanie informacji w postaci pakietów sieciowych)1. W praktyce NGA oznacza dla użytkownika nie tylko większą ilość usług, ale także większą ich różnorodność, a także możliwość dopasowania ich do potrzeb. Jest to ważne, gdyż abonenci coraz wyżej stawiają poprzeczkę dostawcom usług i operatorom: oczekują usług interaktywnych, spersonalizowanych, szybkich i dostępnych z każdego miejsca. Tych wymagań nie są w stanie spełnić stare sieci PSTN. Szybki i intensywny rozwój społeczeństwa informacyjnego sprawia, że migracja operatorów z sieci PSTN do sieci NGA jest po prostu nieunikniona. Ci, którzy nie przestawią się wcześniej czy później na nową technologię, mogą wypaść z gry o klientów i zyski.

Działania Komisji Europejskiej Internet szerokopasmowy został zdefiniowany jako jeden z głównych celów Europejskiej agendy cyfrowej ustanowionej na lata 2010-20202. Jak stwierdzono w tym dokumencie, gospodarka

przyszłości oprze się na wiedzy i na sieci, w której centrum będzie Internet. Stąd też ambitne plany określone w tym programie unijnym. Zgodnie z nim do 2020 r. wszyscy Europejczycy będą mieli dostęp do szybkiego Internetu o przepustowości przekraczającej 30 Mb/s, a przynajmniej połowa gospodarstw domowych będzie dysponowała połączeniem o przepustowości większej niż 100 Mb/s. Inwestycje w szybki i bardzo szybki Internet szerokopasmowy są kluczowe dla stworzenia miejsc pracy, podniesienia wydajności ekonomicznej i odblokowania potencjału konkurencyjnego Europy. We wrześniu 2010 r. Komisja Europejska przyjęła zalecenie w sprawie regulowanego dostępu do sieci nowej generacji3. We wspominanym dokumencie Komisja Europejska zdefiniowała NGA jako przewodowe sieci dostępowe składające się w całości lub w części ze światłowodów, które zapewniają dostęp do szerokopasmowej sieci o parametrach wyższych niż te, jakie mogą zapewnić sieci miedziane. Zalecenie ma na celu wspieranie rozwoju jednolitego rynku poprzez budowanie pewności prawnej, promowanie inwestycji, konkurencji i innowacji na rynku usług szerokopasmowych. Stwierdza ono między innymi, że krajowe organy regulacyjne powinny dopilnować, aby operator o stwierdzonej znaczącej pozycji rynkowej (ang. significant market power, SMP) przekazał innym


Francuski sposób na cyfryzację

Zarys polityki publicznej w zakresie przechodzenia na wyłączne nadawanie cyfrowe we Francji

Ewa Murawska-Najmiec Ekspert w Departamencie Polityki Europejskiej i Współpracy z Zagranicą, Biuro KRRiT

Francuski sposób na cyfryzację W listopadzie telewizja we Francji przejdzie na wyłączne nadawanie cyfrowe. Jednym z filarów tego sukcesu jest przemyślana polityka publiczna. Pozwoliła ona skupić wokół wspólnego celu zaangażowane w cyfryzację podmioty i jak się wydaje, wypełniła zadanie poinformowania społeczeństwa o tym, co najistotniejsze z punktu widzenia zwykłych obywateli.

D

Przełączenie, przejście z nadawania analogowego na cyfrowe. 2 Wyłączenie nadawania analogowego. 1

44

ążenie do współpracy widoczne jest już w samym haśle reklamowym „wszyscy do cyfry”. Kampania informacyjna o celu konwersji miała wyraźny przekaz pozytywny (co będzie? – cyfra), a nie negatywny (czego już nie będzie? – analogu). Używając branżowego żargonu, można powiedzieć, że akcent położono na switch-over1, a nie na switch-off2, co z psychologicznego punktu widzenia nie było bez znaczenia. Do wytworzenia środowiska sprzyjającego współpracy przyczyniło się także, a może przede wszystkim, właściwe zdefiniowanie interesu publicznego: beneficjentem konwersji ma być Kowalski, czyli każdy obywatel kraju, a nie „starzy” czy „nowi” nadawcy lub operatorzy. Określenie dobra publicznego, które było punktem wyjścia do realizacji całego przedsięwzięcia, pozwoliło także nie utracić z oczu kierunku podczas kolejnych etapów pracy. To ważne choćby w kontekście wdrażania naziemnej telewizji cyfrowej. Chociaż jest ona niezwykle istotna dla całego procesu, nie powinna przysłaniać celu: jest nim – zgodnie z zasadami technologicznej neutralności – zapewnienie możliwości cyfrowego odbioru telewizji całemu społeczeństwu.

Tego typu podejście do cyfryzacji wymagało stworzenia realistycznej i całościowej wizji tego procesu. Wydaje się, że Francuzi taką wizję rzeczywiście mają. Dopiero dzięki niej można zaprojektować spójny system rozwiązań, który kładzie nacisk na współpracę przy realizacji celu. Chodzi o komplementarność, czy to poszczególnych systemów nadawania (np. cyfrowy naziemny, kablowy, satelitarny), czy ról i pozycji „nowych” i „starych” nadawców. Narzędziem służącym do wypracowania efektu synergii jest państwowy system motywowania nadawców do aktywnego i zgodnego z polityką publiczną udziału w procesie konwersji cyfrowej (zob. poniżej: Metody motywowania nadawców do aktywnego i zgodnego z polityką publiczną udziału w procesie konwersji cyfrowej). Kolejnym filarem sukcesu jest przemyślana, spójna i skierowana do całego społeczeństwa polityka informacyjna, a obok niej również system dopłat do zakupu i instalacji sprzętu dla najbardziej potrzebujących odbiorców.

I. Ramy prawne Ustawa umożliwiająca rozpoczęcie całego procesu została uchwalona w 2000 r. Chodzi o ustawę


ŚWIATA TELEKOMUNIKACJI I MEDIÓW

Prelegenci


Założenia projektu ustawy o zmianie PT

O transpozycji do Prawa telekomunikacyjnego niektórych przepisów zmieniających dyrektywy unijne

Założenia projektu ustawy o zmianie PT Maciej Rogalski

Prof. nadzw. dr hab., Dyrektor Pionu Współpracy Regulacyjnej Grupy Telekomunikacja Polska SA

3 stycznia 2011 r. Ministerstwo Infrastruktury opublikowało Założenia projektu ustawy o zmianie ustawy Prawo telekomunikacyjne. Publikacja dokumentu jest okazją do podjęcia dyskusji nad założeniami kolejnej nowelizacji Prawa telekomunikacyjnego, a w szczególności nad transpozycją do prawa polskiego niektórych przepisów zmieniających dyrektywy unijne.

Z

Pełne brzmienie definicji: „W konsekwencji powyższej zmiany, przez dostęp do lokalnej pętli będzie się rozumieć: korzystanie z lokalnej pętli abonenckiej lub lokalnej podpętli abonenckiej pozwalające na pełne wykorzystanie możliwości lokalnej pętli abonenckiej (pełny dostęp do lokalnej pętli abonenckiej) lub wykorzystanie części możliwości lokalnej pętli abonenckiej przy zachowaniu możliwości korzystania z lokalnej pętli abonenckiej przez innego przedsiębiorcę telekomunikacyjnego (współdzielony dostęp do lokalnej pętli abonenckiej). Źródło: Założenia do projektu ustawy o zmianie ustawy Prawo telekomunikacyjne

1

52

ałożenia do projektu ustawy o zmianie ustawy Prawo telekomunikacyjne (dalej Założenia) przewidują kilka zmian w zakresie postępowania konsultacyjnego i konsolidacyjnego. W zakresie propozycji zmiany art. 17 Prawa telekomunikacyjnego (dalej PT) należy zauważyć, że brak jest w art. 7 ust. 9 dyrektywy ramowej przesłanek do wydłużenia terminu obowiązywania decyzji wydawanych bez przeprowadzania postępowania konsultacyjnego do 12 miesięcy (w Założeniach jest propozycja, aby wydłużyć okres dotychczasowy z 6 do 12 miesięcy). W przepisie art. 17 PT oraz w art. 7 ust. 9 dyrektywy ramowej jest mowa o tym, iż organ regulacyjny może skorzystać z tego środka tylko w wyjątkowych okolicznościach i jeśli spełni wskazane tam przesłanki – wydłużenie okresu obowiązywania takich tymczasowych decyzji może kreować stan niepewności. Dotychczasowy okres obowiązywania „środka tymczasowego”, czyli 6 miesięcy, wydaje się w praktyce wystarczający: pozwala przeprowadzić postępowanie konsultacyjne i uzyskać stanowiska zainteresowanych stron. Jeśli chodzi o art. 19a PT, wydaje się, że proponowana zmiana nie odpowiada brzmieniu art. 7b ust. 1 dyrektywy ramowej. W artykule tym nie chodzi o zmianę terminu na przedstawienie stanowiska do projektu rozstrzygnięcia, ale o to, że Komisja Europejska może w formie zaleceń lub wytycznych określić

formę, treść i stopień szczegółowości powiadomień, o których mowa w art. 18 ust. 1 i w art. 19. ust. 1 PT, oraz okoliczności, w których powiadomienia nie są wymagane, jak również sposób obliczania terminów.

Dostęp telekomunikacyjny – problemy definicyjne Dyrektywa dostępowa stanowi ponadto, że współdzielony dostęp ma umożliwić używanie specyficznej części możliwości/pojemności infrastruktury sieciowej, takich jak częstotliwości lub ekwiwalent. W zakresie regulacji dotyczących dostępu telekomunikacyjnego należy przede wszystkim zwrócić uwagę na definicje. W Założeniach zaprojektowano definicję dostępu do lokalnej pętli abonenckiej1, w której poprzez zastosowanie wyrażenia: „(…) lub wykorzystanie części możliwości lokalnej pętli abonenckiej przy zachowaniu możliwości korzystania z lokalnej pętli abonenckiej przez innego przedsiębiorcę telekomunikacyjnego (współdzielony dostęp do lokalnej pętli abonenckiej)” proponuje się brzmienie budzące wątpliwości, szczególnie, jeżeli weźmie się pod uwagę zmienioną dyrektywę dostępową, w której nie wspomina się o konieczności zachowania możliwości korzystania z lokalnej pętli przez „innego przedsiębiorcę”, a także kiedy porówna się ją z obowiązującym brzmieniem definicji w PT, gdzie jest mowa o „zachowaniu możliwości korzystania z lokalnej pę-


Liberalizacja zasad obrotu częstotliwościami

Przekazywanie indywidualnych praw do użytkowania częstotliwości radiowych – wolny rynek czy gospodarka planowa?

Eligiusz Krześniak

Adw., dr, partner kancelarii Squire Sanders Święcicki Krześniak sp. k.

Liberalizacja zasad obrotu częstotliwościami Usprawnienie obrotu częstotliwościami powinno przyśpieszyć rozwój rynku telekomunikacyjnego i poprawić sytuację konsumentów. Przepisy obowiązujące nie tylko w Polsce, lecz także w pozostałych krajach unijnych są pod tym względem daleko niewystarczające.

Ewelina Witek

Aplikant adwokacki kancelarii Squire Sanders Święcicki Krześniak sp. k. 1 „Architect of UK spectrum liberalization “disappointed” by number of trades”, M. Sims, 16 marca 2010 r., www.policytracker.com. 2 Dyrektywa 2002/21/WE Parlamentu Europejskiego i Rady z dnia 7 marca 2002 r. w sprawie wspólnych ram regulacyjnych sieci i usług łączności elektronicznej (dyrektywa ramowa, Dz.U.UE.L.02.108.33) z uwzględnieniem zmian wynikających z Dyrektywy Parlamentu Europejskiego i Rady 2009/140/WE z dnia 25 listopada 2009 r. zmieniającej dyrektywy 2002/21/WE w sprawie wspólnych ram regulacyjnych sieci i usług łączności elektronicznej, 2002/19/WE w sprawie dostępu do sieci i usług łączności elektronicznej oraz wzajemnych połączeń oraz 2002/20/WE w sprawie zezwoleń na udostępnienie sieci i usług łączności elektronicznej); Radio Spectrum Policy Program zaproponowany przez Komisję Europejską.

58

P

ierwszym krajem w UE, który dopuścił obrót częstotliwościami, była Wielka Brytania (2004 r.). W ciągu sześciu lat przeprowadzono na tym rynku dwadzieścia cztery transakcje, co w porównaniu choćby z USA jest wynikiem dalece niezadowalającym i wskazuje na konieczność przeprowadzenie zmian prawnych w tym zakresie1. Również polskie przepisy prawa telekomunikacyjnego określające warunki zmiany podmiotu dysponującego rezerwacją częstotliwości nie odpowiadają panującym na rynku tendencjom, nie spełniają potrzeb i oczekiwań jego uczestników i w praktyce są rzadko stosowane. Ograniczone zasoby częstotliwości i zwiększony popyt na nie, a także szybki rozwój technologiczny i gospodarczy wymuszają liberalizację przepisów. Powinny one umożliwić jak najefektywniejsze zarządzanie widmem. Konieczność taką dostrzeżono w Unii – liczne zmiany w tym zakresie już wprowadzono, inne są w toku2. W listopadzie 2009 r. Parlament Europejski oraz Rada przyjęły tzw. pakiet telekomunikacyjny3. W ramach pakietu wprowadzone zostały m.in. zmiany do dyrektywy 2002/21/WE (dyrektywy ramowej) przewidujące możliwość przekazania lub dzierżawy indywidualnych praw do użytkowania częstotliwości

radiowych. Art. 9b nowej dyrektywy (2009/140/WE) stanowi, że: 1. Państwa członkowskie zapewniają, że4 przedsiębiorstwa mogą zgodnie z warunkami dotyczącymi praw do użytkowania częstotliwości radiowych oraz zgodnie z procedurami krajowymi przekazywać lub wydzierżawiać innym przedsiębiorstwom indywidualne prawa do użytkowania częstotliwości radiowych w pasmach, co do których jest to przewidziane w ramach środków wykonawczych przyjętych zgodnie z ust. 3. W przypadku innych pasm państwa członkowskie mogą również ustanowić możliwość przekazania lub dzierżawienia przez przedsiębiorstwa na rzecz innych przedsiębiorstw indywidualnych praw użytkowania częstotliwości radiowych zgodnie z krajowymi procedurami. Po przekazaniu lub wydzierżawieniu indywidualnych praw do użytkowania częstotliwości radiowych nadal mają zastosowanie warunki związane z tymi prawami, o ile właściwy organ krajowy nie postanowił inaczej. Państwa członkowskie mogą również stwierdzić, że przepisy niniejszego ustępu nie mają zastosowania, jeżeli indywidualne prawo przedsiębiorstwa do


Prawo i regulacje § Pod lupą

użytkowania częstotliwości radiowych przyznano początkowo bezpłatnie. 2. Państwa członkowskie zapewniają, aby5 przedsiębiorstwa powiadamiały zgodnie z procedurami krajowymi o zamiarze lub fakcie przekazania praw do użytkowania częstotliwości radiowych właściwe organy krajowe odpowiedzialne za przyznawanie tych praw, a także by taki zamiar lub fakt były podawane do wiadomości publicznej. W przypadku gdy użytkowanie częstotliwości radiowych zostało zharmonizowane poprzez stosowanie decyzji 676/2002/WE (decyzja o spektrum radiowym) lub innych środków wspólnotowych, każde takie przekazanie musi spełniać wymogi takiego zharmonizowanego użytkowania. 3. Komisja może przyjąć odpowiednie środki wykonawcze w celu identyfikacji pasm, dla których prawa użytkowania częstotliwości radiowych mogą być przekazywane lub dzierżawione pomiędzy przedsiębiorstwami. Środki te nie obejmują częstotliwości wykorzystywanych do celów nadawczych. Takie techniczne środki wykonawcze, mające na celu zmianę elementów innych niż istotne niniejszej dyrektywy poprzez jej uzupełnienie, przyjmowane są zgodnie z procedurą regulacyjną połączoną z kontrolą, o której mowa w art. 22 ust. 3”. Opisane powyżej zmiany wskazują, że UE zmierza w kierunku rozszerzenia praw podmiotów gospodarczych w zakresie komercyjnego wykorzystania przydzielonych im częstotliwości (tzw. spectrum trading), a także wychodzi naprzeciw oczekiwaniom uczest-

Planowana jest zmiana Prawa telekomunikacyjnego, dzięki której podmiot dysponujący rezerwacją częstotliwości będzie mógł wydzierżawić innemu podmiotowi częstotliwości objęte rezerwacją lub przekazać je do użytkowania na podstawie innego tytułu prawnego.

Zmiana podmiotu dysponującego rezerwacją częstotliwości będzie możliwa na podstawie umowy cywilnoprawnej i nie będzie już wymagała uzyskiwania decyzji Prezesa UKE. ników rynku co do rozluźnienia restrykcji w zakresie dysponowania częstotliwościami przez podmioty, które otrzymały rezerwacje częstotliwości. Jednakże, niezależnie od wspominanych powyżej pozytywnych tendencji, zauważyć należy, że możliwości przekazania innym podmiotom praw do korzystania z częstotliwości towarzyszyć będą jednocześnie środki, które wymagają od właściwych organów krajowych dopilnowania, aby w wyniku przekazania lub gromadzenia praw użytkowania częstotliwości radiowych nie dochodziło do zakłócenia konkurencji6. Takim środkiem może być na przykład nałożenie obowiązku sprzedaży lub dzierżawy części przyznanych częstotliwości radiowych. W odniesieniu do krajowych regulacji na wstępie zauważyć należy, że na podstawie dyrektywy Parlamentu Europejskiego i Rady 2009/140/WE Polska została zobowiązana do przyjęcia i opublikowania do 25 maja 2011 r. przepisów ustawowych, wykonawczych i administracyjnych niezbędnych do wykonania dyrektywy. Otwartą kwestią jest, czy termin ten zostanie dotrzymany. Prowadzone obecnie prace nad ustawą nowelizującą Prawo telekomunikacyjne w zakresie określonym przez ww. dyrektywę pozwalają mieć nadzieję, że tak się stanie. Założenia do projektu ustawy o zmianie ustawy Prawo telekomunikacyjne wskazują, że do polskiego porządku prawnego zostanie wprowadzona regulacja umożliwiająca swobodniejsze dysponowanie częstotliwościami objętymi rezerwacją dokonaną na rzecz określonego podmiotu7. Obecnie obowiązujące przepisy Prawa telekomunikacyjnego8 przewidują możliwość zmiany podmiotu dysponującego częstotliwościami. Jednak do osiągnięcia tego skutku niezbędne jest spełnienie warunków określonych w art. 122 Prawa telekomunikacyjnego9, a także uzyskanie od Prezesa UKE decyzji administracyjnej zgodnej z wnioskiem podmiotu dysponującego rezerwacją częstotliwości. Założenia do projektu ustawy nowelizującej Prawo telekomunikacyjne przewidują wprowadzenie

3 Dyrektywa Parlamentu Europejskiego i Rady 2009/140/WE z dnia 25 listopada 2009 r. zmieniająca dyrektywy 2002/21/WE w sprawie wspólnych ram regulacyjnych sieci i usług łączności elektronicznej, 2002/19/WE w sprawie dostępu do sieci i usług łączności elektronicznej oraz wzajemnych połączeń oraz 2002/20/WE w sprawie zezwoleń na udostępnienie sieci i usług łączności elektronicznej oraz Dyrektywa Parlamentu Europejskiego i Rady 2009/136/WE z dnia 25 listopada 2009 r. zmieniająca dyrektywę 2002/22/WE w sprawie usługi powszechnej i związanych z sieciami i usługami łączności elektronicznej praw użytkowników, dyrektywę 2002/58/WE dotyczącą przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej oraz rozporządzenie (WE) nr 2006/2004 w sprawie współpracy między organami krajowymi odpowiedzialnymi za egzekwowanie przepisów prawa w zakresie ochrony konsumentów. 4 Tłumaczenie jest kalką z języka angielskiego, gdzie ensure that przetłumaczono jako „zapewniać, że”. Znacznie lepsze byłoby: „Państwa członkowskie dopilnowują, aby przedsiębiorstwa mogły zgodnie z warunkami dotyczącymi praw do użytkowania częstotliwości radiowych oraz zgodnie z procedurami krajowymi przekazywać lub wydzierżawiać innym przedsiębiorstwom indywidualne prawa do użytkowania częstotliwości radiowych (...)”. Jest to zgodne z brzmieniem francuskim (gdzie veiller znaczy „pilnować”) i w przeciwieństwie do obecnie obowiązującej wersji polskiej nie budzi zastrzeżeń co do poprawności językowej [przyp. red.]. 5 Poprawniej: Państwa członkowskie dopilnowują, aby

marzec 2011 | 59


Liberalizacja zasad obrotu częstotliwościami

przedsiębiorstwa powiadamiały zgodnie z procedurami krajowymi o zamiarze lub fakcie przekazania praw do użytkowania częstotliwości radiowych właściwe organy krajowe (...). – Zob. przyp. 4 [przyp. red.]. 6 Art. 5 Dyrektywy 2002/20/WE Parlamentu Europejskiego i Rady z dnia 7 marca 2002 r. w sprawie zezwoleń na udostępnienie sieci i usług łączności elektronicznej (dyrektywa o zezwoleniach, Dz.U.UE L.02.108.21) zmienionej dyrektywą Parlamentu Europejskiego i Rady 2009/140/WE z dnia 25 listopada 2009 r. zmieniającą dyrektywy: 2002/21/WE w sprawie wspólnych ram regulacyjnych sieci i usług łączności elektronicznej, 2002/19/WE w sprawie dostępu do sieci i usług łączności elektronicznej oraz wzajemnych połączeń oraz 2002/20/WE w sprawie zezwoleń na udostępnienie sieci i usług łączności elektronicznej. 7 Założenia do projektu ustawy o zmianie ustawy – Prawo telekomunikacyjne dostępne na stronie internetowej: www.bip.mi.gov.pl. 8 Ustawa z dnia 16 lipca 2004 r. Prawo telekomunikacyjne (Dz.U. z 2004 r., nr 171, poz. 1800). 9 Wymogi, o których mowa w art. 122 Prawa telekomunikacyjnego, to: wniosek podmiotu dysponującego rezerwacją częstotliwości ze wskazaniem podmiotu przejmującego częstotliwości; pisemna zgoda podmiotu „przejmującego” częstotliwości; spełnienie przez podmiot „przejmujący” wymagań określonych w Prawie telekomunikacyjnym; możliwość przeniesienia częstotliwości została wskazana w rezerwacji częstotliwości. 10 “Ofcom to allow spectrum trading at 900, 1800 and 2100 MHz”, M. Newlands, 3 lutego 2011 r., www.policytracker.com.

60

nowego rozwiązania uwzględniającego to przyjęte w pakiecie telekomunikacyjnym. Planuje się dodanie przepisu, zgodnie z którym podmiot dysponujący rezerwacją częstotliwości będzie mógł wydzierżawić innemu podmiotowi częstotliwości objęte rezerwacją lub przekazać je do użytkowania na podstawie innego tytułu prawnego. Przekazanie to miałoby następować na podstawie umowy, przy czym podmiot, na rzecz którego dokonano rezerwacji częstotliwości, byłby zobligowany do zawiadomienia Prezesa UKE o wydzierżawianiu częstotliwości lub ich przekazaniu do użytkowania na podstawie innego tytułu. Podmiot, który uzyskałby prawo dysponowania częstotliwościami, mógłby korzystać z częstotliwości zgodnie z przepisami Prawa telekomunikacyjnego oraz wymogami określonymi w decyzji rezerwacyjnej. Prezes UKE miałby prawo zmienić warunki wykorzystywania częstotliwości lub zakazać ich wykorzystywania przez podmiot uprawniony do korzystania z częstotliwości na podstawie umowy w przypadkach, które zostaną doprecyzowane w ustawie. Można jednak przypuszczać, że podstawową przesłanką umożliwiającą podjęcie takiej decyzji będzie ryzyko zaburzenia konkurencji. Założenia projektu ustawy nowelizującej Prawo telekomunikacyjne, choć niewiążące, wskazują na pewien kierunek rozumowania towarzyszący wdrażaniu nowych przepisów pakietu telekomunikacyjnego i liberalizacji uregulowań dotyczących korzystania z częstotliwości. Proponowane rozwiązanie powinno znacznie ułatwić obrót częstotliwościami, ponieważ zmiana podmiotu dysponującego rezerwacją częstotliwości będzie możliwa na podstawie umowy cywilnoprawnej i nie będzie już wymagała uzyskiwania decyzji Prezesa UKE (konieczne byłoby natomiast do-

konanie zgłoszenia). Nie można jednakże zapominać, że możliwość swobodnego dysponowania częstotliwościami będzie rozważana także pod kątem wpływu na konkurencję na rynku usług telekomunikacyjnych. Otwarta pozostaje kwestia równoczesnego korzystania przez więcej niż jeden podmiot z pasma przyznanego pierwotnie jednemu operatorowi. W rozważaniach dotyczących liberalizacji przepisów regulujących kwestie wykorzystywania częstotliwości przydają się wnioski z toczących się obecnie w tej sprawie konsultacji przed krajowym organem regulacyjnym Wielkiej Brytanii. Z komunikatów brytyjskiego regulatora (Ofcom) wynika, iż zamierza on uczynić obrót częstotliwościami 900, 1800 i 2100 MHz tak elastycznym, jak to tylko możliwe, co ma zapewnić efektywne wykorzystanie częstotliwości10. Pozostaje mieć nadzieję, że w Polsce będzie podobnie. <<

Z komunikatów Ofcomu, czyli brytyjskiego regulatora, wynika, iż zamierza on uczynić obrót częstotliwościami 900, 1800 i 2100 MHz tak elastycznym, jak to tylko możliwe, co ma zapewnić efektywne wykorzystanie częstotliwości.


Twórcy będą zarabiać na YouTube

Umowa między Google a ZAIKS-em

Andrzej Kuśmierczyk

kierownik wydziału licencji ZAiKS

Twórcy będą zarabiać na YouTube

Umowa licencyjna pomiędzy Związkiem Autorów i Kompozytorów Scenicznych (ZAIKS)1 a firmą Google2 obowiązuje od 1 stycznia 2011 r. Na jej podstawie przy filmach publikowanych w należącym do Google popularnym serwisie YouTube zostaną umieszczone płatne reklamy, a przychody z tego tytułu trafiać będą zarówno do operatora serwisu, jak i do twórców. ZAIKS to największa, jeżeli chodzi o liczbę podmiotów reprezentowanych i chronionych utworów, organizacja zbiorowego zarządzania (OZZ) w kraju. Założona w 1918 r., ma również najdłuższe tradycje spośród OZZ w Polsce, a nawet w jej szerokim sąsiedztwie. ZAIKS jest organizacją multidycyplinarną, zrzesza twórców wielu dziedzin, choć działalność zbiorowego zarządzania prowadzi w zasadzie w odniesieniu do dwu kategorii utworów: muzycznych i literackich (także gdy te dwie warstwy są połączone) www.zaiks.org.pl. 2 Google to jedno z największych i najbardziej innowacyjnych przedsiębiorstw w skali globalnej. Jego kapitalizacja rynkowa wynosi blisko 155 mld dol. (źródło: NASDAQ, luty 2011). Największe przedsięwzięcia Google to wyszukiwarka internetowa o tej samej nazwie, przeglądarka Chrome, serwis YouTube oraz system mobilny Android. Można zaryzykować stwierdzenie, że nie ma internauty, który nie zetknął się z produktami Google. 1

62

U

mowa dotyczy w zasadzie dwóch serwisów: video.google.com i YouTube.com, z tym że ze względu na wielkość YouTube, częściej wymienia się ten drugi. Należy on do najpopularniejszych serwisów internetowych na świecie. Użytkownicy oglądają i zamieszczają na YouTube filmy o rozmaitym charakterze – od krótkich nagrań komórką po seriale telewizyjne i produkcje kinowe. 85 tys. nowych plików audio i wideo dodawanych jest do serwisu każdego dnia. Na podstawie umowy między ZAIKS-em a Google przy treściach, do których prawa przysługują autorom reprezentowanym przez ZAIKS, umieszczone zostaną płatne reklamy, a zyski z tego tytułu będą trafiały zarówno do autorów, jak i operatora serwisu. Umowa obejmuje utwory słowne, muzyczne i słowno-muzyczne, które można zobaczyć w serwisie YouTube w Polsce i we wszystkich krajach, w których dostępna jest lokalna wersja tego serwisu. Dotyczy to zarówno treści umieszczanych przez samych wydawców, jak i przez prywatnych użytkowników. Wśród treści objętych umową licencyjną znajdą się w tej kategorii zarówno teledyski kopiowane z telewizora

i umieszczane w serwisie YouTube (niezależnie od tego, kto to zrobił), jak i ścieżki dźwiękowe wykorzystywane przez prywatnych użytkowników jako podkład muzyczny filmu z wakacji. Nowoczesne oprogramowanie stosowane przez YouTube rozpozna te utwory i poinformuje o ich użyciu właściwego wydawcę uprawnionego do pobierania tantiem. Ten zaś będzie mógł zdecydować, czy usunąć te treści, czy raczej wyświetlać przy nich reklamy i otrzymywać z tego tytułu przychody.

YouTube w świetle polskich przepisów Mówiąc językiem prawniczym, pole eksploatacji, z jakim mamy tu do czynienia, to „publiczne udostępnianie utworu w taki sposób, aby każdy mógł mieć do niego dostęp w miejscu i w czasie przez siebie wybranym”3. Nieprawidłowe jest spotykane czasami nawet w literaturze prawniczej określanie tego rodzaju działalności jako „nadawanie w Internecie”, „telewizja internetowa”. Te określenia, obecnie coraz rzadsze, sugerują, że mamy do czynienia z czymś na kształt telewizji, tyle że w Internecie. Tymczasem nacisk w cytowanym


Prawo i regulacje § Komentarze

przepisie powinno się położyć na słowa „każdy w miejscu i czasie przez siebie wybranym”. Mamy tu zatem do czynienia z nową jakością: to widz (użytkownik, uczestnik) określa, czego i kiedy słucha, co i kiedy ogląda. Tego nie było w tradycyjnych środkach masowego przekazu. Mówiąc potocznie, trzeba było oglądać to, co nam podano. YouTube jest niepodobny do telewizji również pod tym względem, że nosi pewne cechy serwisu społecznościowego, a mianowicie operator serwisu (nadawca) już nie tworzy „programu”, nie „zestawia” go. Robią to jego użytkownicy. User generated content, czyli treści dodawane do serwisu przez samych użytkowników, stanowią podstawę funkcjonowania. Użytkownikami są tu zarówno osoby fizyczne, jak i podmioty tworzące treści zawodowo, np. producenci telewizyjni i muzyczni. Oddzielenie zarządzania serwisem od tworzenia i zamieszczania jego zawartości rodzi ważne pytania o charakterze prawnym: kto odpowiada za treści umieszczone w serwisie? Właściciel czy ci, którzy w nim publikują? Pytanie takie można stawiać ze względu na różne aspekty potencjalnych naruszeń: interes publiczny, dobra osobiste, własność intelektualną, w tym prawa autorskie. Skoncentrujmy się na tym ostatnim aspekcie. Treści zamieszczane w serwisach społecznościowych rzadko są przejawem działalności twórczej zamieszczających je osób. To znaczy: użytkownicy serwisu często nie są ich autorami albo są nimi tylko po części. Przeróbki, adaptacje, kompilacje, transpozycje i inne czynności w świetle prawa wymagające zgody twórców oryginalnego materiału są tutaj na porządku dziennym. Gdyby stosować rygorystycznie przepisy

Gdyby stosować rygorystycznie przepisy obowiązujące przed powstaniem świata Web 2.0, świat taki w ogóle by nie powstał. Potencjalni operatorzy serwisów user generated content, tacy jak YouTube, narażeni byliby na odpowiedzialność prawną wobec podmiotów, których prawa zostały naruszone.

obowiązujące przed powstaniem świata Web 2.04, świat taki w ogóle by nie powstał. Potencjalni operatorzy serwisów user generated content, tacy jak YouTube, narażeni byliby na odpowiedzialność prawną wobec podmiotów, których prawa zostały naruszone. Na terenie Unii Europejskiej rozwiązaniem problemu łamania przez serwisy internetowe „tradycyjnego” prawa miało być uchwalenie dyrektywy 2000/31/WE Electronic Commerce5. Jej implementację stanowi w Polsce ustawa o świadczeniu usług drogą elektroniczną6. Zgodnie z postanowieniami tego prawa operatorzy serwisów (usług), które polegają na udostępnieniu miejsca na serwerze i którzy pozwalają użytkownikom zamieszczać na nim dowolne treści, nie ponoszą za nie odpowiedzialności, jeżeli nie wiedzą o bezprawnym charakterze tych danych, nie modyfikują ich i nie usuwają7 oraz w razie otrzymania „urzędowego zawiadomienia” uniemożliwią dostęp do tych danych. Oczywiście można sobie wyobrazić takie działanie serwisu, które powodowałoby nieustanne protesty ze strony tych, którzy nie zgadzają się na to, aby przysługujące im prawa autorskie były łamane i którzy domagają się od operatora poprzez „urzędowe zawiadomienia” uniemożliwienia innym użytkownikom dostępu do tych treści. Bezcelowość tych wysiłków jest aż nadto oczywista. Internet jest tak rozległy i na tyle wymykający się kontroli, że treści, które choć raz się w nim pojawiły, praktycznie nie można już usunąć. Zjawisko to funkcjonuje pod nazwą efektu Barbary Streisand od nazwiska znanej artystki, która bezskutecznie starała się o usunięcie z sieci fotografii swojego domu. Jej zabiegi niosły ze sobą skutek odwrotny: coraz powszechniejsze zainteresowanie tym zdjęciem i powielanie go w sieci. Pytanie, czy powyżej opisany scenariusz, który polega na ciągłych próbach blokowania dostępu do treści, miałby jakikolwiek sens? Niewątpliwie nie przynosiłby na dłuższą metę korzyści autorom, którzy według mojej oceny nie korzystają z uprawnienia do blokowania dostępu do treści zbyt często: wszak serwisy typu YouTube stanowią dla nich równocześnie okno na świat. Nie trzeba przekonywać, że dla operatora serwisu działalność polegająca na ciągłym blokowaniu dostępu do danych też nie miałaby sensu. Czy w tej sytuacji sukcesem okaże się model zapisany w umowie pomiędzy ZAIKS-em a Google, który z jednej strony rozwiązuje problem naruszenia praw autorskich przez publiczne udostępnienie treści objętych tym prawem, a z drugiej gwarantuje twórcom ich część zysków z reklamy? Czy użytkownicy serwisu przyzwyczają się do reklam przy filmach? Mam nadzieję, że przyszłość przyniesie na te pytania pozytywną odpowiedź. <<

Można sobie wyobrazić takie działanie serwisu, które powodowałoby nieustanne protesty ze strony tych, którzy nie zgadzają się na to, aby przysługujące im prawa autorskie były łamane i którzy domagają się od operatora poprzez „urzędowe zawiadomienia” uniemożliwienia innym użytkownikom dostępu do tych treści. Bezcelowość tych wysiłków jest aż nadto oczywista. Internet jest tak rozległy i na tyle wymykający się kontroli, że treści, które choć raz się w nim pojawiły, praktycznie nie można już usunąć.

Ustawa z 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych, art. 50. pkt 3. 4 Alternatywna nazwa serwisów, gdzie treść jest zamieszczana przez użytkowników, patrz: wikipedia. org/pl 5 2000/31/EC 6 Z dnia 18 lipca 2002 r. 7 Art. art. 12-14 ww. ustawy. 3

marzec 2011 | 63


technologie

Perspektywy rozwoju telewizji 3D

Nowy wymiar walki o widza Technologia 3D od kilku lat odnosi sukcesy w kinach. Dlaczego tak trudno przenieść je na ekrany telewizyjne? Andrzej Ładysz, ADB

W

styczniu i lutym w polskich kinach zadebiutowało dziewięć nowych produkcji w wersjach 3D: „Megamocny”, „Safari 3D”, „Green Hornet 3D” i „Podróże Guliwera” w styczniu oraz „Sanctum 3D”, „Piekielna zemsta”, „Justin Bieber: Never Say Never”, „Gnomeo i Julia” i „Miś Yogi” w lutym. Jesienią tego roku czeka nas prawdziwy hit – zapowiedziana na 26 września premiera pierwszej polskiej produkcji zrealizowanej całkowicie w technologii 3D: „Bitwa warszawska 1920”. Bez wątpienia dotychczasowe inwestycje były trafione. Widzowie chcą chodzić do kina na filmy w 3D. Wszystko wskazuje na to, że technologia trójwymiarowa zdobyła stałe miejsce w ofercie kinowej i zyskała dziś oddaną widownię. Dlaczego nadawcy telewizyjni mają wciąż problemy z tym, żeby rozpowszechnić 3D w swojej branży i zarobić tyle co kino? Ból głowy z 3D O ile do cieszenia się trójwymiarowym obrazem na dużym ekranie wystarczy bilet wstępu do kina i ewentualnie popcorn, o tyle zapewnienie podobnych wrażeń w domu

64

pociąga za sobą wydatki całkiem innego rodzaju. Po pierwsze, potrzebny jest specjalny telewizor, który wyświetla treści 3D (od kilku do kilkunastu tysięcy złotych), po drugie, potrzeba wyposażyć się, a może i całą rodzinę, w specjalne okulary (lepsze za kilkaset złotych sztuka), a na koniec uiścić stosowne opłaty, najczęściej abonamentowe, za dostęp do tych treści (kilkadziesiąt złotych miesięcznie). Nie jest to jedyny problem. Jak się okazuje, konieczność używania okularów odstręcza telewidzów. O ile w warunkach narzuconych przez kino okulary prawie nie przeszkadzają, o tyle w domu postrzegane są jako spora uciążliwość. Kino rządzi się swoimi prawami: w sali jest ciemno, rozmowy są zabronione, a na czas sensu trzeba wyłączyć telefon. Oglądając telewizję, mamy zaś wiele dystrakcji. Skaczemy po kanałach, prowadzimy rozmowy, korzystamy z innych urządzeń, takich jak telefon, komputer czy choćby żelazko, a w czasie przerwy na reklamę idziemy sobie zaparzyć herbatę. Okulary w tym wszystkim przeszkadzają, a w dodatku trzeba pamiętać, gdzie się je ostatnio położyło. Dochodzi jeszcze problem małego ekranu. Kinowy jest na tyle duży, że nie obejmujemy

go jednym spojrzeniem. Tak najlepiej ogląda się filmy trójwymiarowe. Gorzej wygląda sprawa z małym telewizorem. Powstaje nieraz wrażenie, że oglądane obrazy wychodzą poza ramy ekranu. Wygląda to sztucznie. Dziwnie prezentują się też obrazy 3D, kiedy następują dynamiczne przejścia między planami - bliskim i dalekim. Jakby tego było mało, istnieją wątpliwości, czy 3D to technologia dla wszystkich. Królewski Narodowy Instytut Osób Niewidzących w Wielkiej Brytanii (The Royal National Institute of Blind People) przygotowuje badania, które mają pokazać, jaka część populacji widzi obrazy 3D, gdy są prezentowane za pomocą dostępnych obecnie technologii 3D. Badania odpowiedzą również na pytanie, dla jakiej części oglądanie takich obrazów stanowi dyskomfort. Wiadomo bowiem już, że niektó-


rych widzów od 3D boli głowa. Przedstawiciel tej instytucji stwierdził, że obecnie nikt nie jest w stanie stwierdzić, ile naprawdę osób nie widzi obrazu w trójwymiarze. Był to komentarz do szacunkowych danych przedstawionych na ubiegłorocznej konferencji 3DTV World Forum w Londynie, gdzie powiedziano, że między 2 a 12 proc. populacji w ogóle nie może oglądać trójwymiarowych treści prezentowanych z wykorzystaniem dostępnych obecnie technologii.

Badania odpowiedzą na pytanie, u jakiej części populacji oglądanie filmów 3D wiąże się dyskomfortem. Wiadmo, że między 2 a 12 proc. populacji w ogóle nie może oglądać trójwymiarowych treści prezentowanych z wykorzystaniem dostępnych obecnie technologii.

Czy to sprawi, że nie ma szans? Cofając się do 2005 r., można przywołać doświadczenia z wprowadzaniem telewizji wysokiej rozdzielczości. Wydawało się wtedy, że technologia HD utknęła w martwym punkcie: rozwój oferty HD był blokowany przez brak odbiorników do wyświetlania treści HD. Z drugiej strony te urządzenia nie taniały, bo nie było wystarczająco wielu chętnych do ich kupowania. Nie było, bo brakowało treści. I tu koło się zamykało – wydawało się, że nie ma wyjścia. Niewątpliwie jednak koszty związane z 3D z czasem zmaleją, tak jak stało się z HD. Nastąpi to, gdy wraz z rozwojem rynku, liczba odbiorników i treści osiągnie masę krytyczną. Na temat tego, jaki jest faktycznie rozmiar rynku telewizyjnego w wersji 3D, nadal trwają dyskusje. Bieżące opracowania opierają się na szacunkach i planach produkcji oraz sprzedaży telewizorów 3D, a nie na badaniach oglądalności. Niedawne analizy „Informa Telecoms and Media” wskazują, że do końca 2015 r. z telewizji 3D będą korzystać 22 mln domostw na świecie (wyniki przedstawiono na bazie badań w 53 krajach), a podobne badania przeprowadzone przez „Screen Digest” mówią o europejskim rynku wielkości blisko 33 mln domostw do końca 2014 r. Te wyniki znacząco od siebie odbiegają, ale mają jedną cechę wspólną: przewidują wzrost. Nie ma co do tego wątpliwości, że wzrost nastąpi, tak jak nie ma wątpliwości, że będzie on celem wszystkich uczestników rynku – od producentów treści, poprzez producentów urządzeń odbiorczych i wyświetlających, cały łańcuch związany z rynkiem reklamowym, po operatorów i nadawców. marzec 2011 | 65


technologie

Wierzę w rozwój telewizji 3D i jestem przekonany, że nie pozostanie tylko produktem niszowym.

Rozpatrując zagadnienie predyspozycji widzów do oglądania telewizji 3D, ale nie dysponując jeszcze wynikami badań, można przynajmniej odwołać się do analogii z rewolucją, jaką wprowadziła niegdyś telewizja w kolorze. Wiemy, że około 1,5 proc. mężczyzn i około 0,5 proc. kobiet cierpi na ślepotę barw. Są to dane sumaryczne w odniesieniu do różnych zaburzeń zdolności widzenia kolorów. Ale czy fakt, że z powodu ślepoty barw część użytkowników nie jest w stanie rozróżniać kolorów na ekranie, powstrzymał wdrożenie kolorowej telewizji?

66

Wydaje się, że bariery, które dziś stoją na drodze rozwoju technologii 3D, nie są trudnościami nie do pokonania. W ich rozwiązaniu wielka jest rola producentów i dostawców. Czy zdołają wprowadzić dodatkowe elementy zwiększające atrakcyjność technologii 3D? Czy zdołają złagodzić niedogodności? Nieumiejętne lub nieprzemyślane ruchy mogą zniechęcić użytkowników do kupna niezbędnych urządzeń. Wskazane jest wyczucie. Jednym z filarów kinowego i biznesowego sukcesu „Avatara” było to, że autorzy i producenci odważyli

się ograniczyć liczbę efektów 3D, dzięki czemu uniknięto przesytu i zadbano o komfort widzów. Dzisiejsi konsumenci starannie ważą wydatki, a co za tym idzie, są bardziej wymagający, jeśli chodzi o jakość usług. Jest też kwestia wartości dodanej, jaką w przyszłości może zaoferować technologia 3D. Użytkownicy nie chcą mieć kolejnego Przewodnika po Programach – EPG (ang. Electronic Programme Guide), który byłby zwyczajną kopią wersji 2D. Jeśli 3D ma naprawdę przekonać użytkownika, musi oferować coś nowego, co wnosi do oglądania filmów lub korzystania z menu dodatkową wartość. Podobnie było z wprowadzaniem telewizji cyfrowej. Na samym początku oprócz większej liczby kanałów nie oferowała ona w zasadzie więcej niż telewizja analogowa. Ale już następnym krokiem było udostępnienie różnych wersji językowych w ścieżkach fonii oraz napisów z transkrypcją językową. Dopiero tym telewizja cyfrowa naprawdę wykazała swoją przewagę nad analogową konkurentką.


Wszyscy uczestnicy rynku telewizji 3D doskonale zdają sobie sprawę: okulary trzeba zastąpić czymś innym. Na tegorocznych targach Consumer Electronic Show firmy Sony, LG i Toshiba zademonstrowały przedprodukcyjne prototypy telewizorów 3D, które nie wymagały okularów.

Ważne jest równoczesne przenoszenie obrazu trójwymiarowego na obszar innych multimediów (np. gier komputerowych, fotografii, obrazów wideo).. Dynamiczny rozwój technologii już teraz pozwala na amatorskie produkcje w formacie 3D. Wpłynie to niewątpliwie pozytywnie na rozwój telewizji 3D poprzez wzrost zapotrzebowania na telewizory i wyświetlacze, które jak wykazywałem wcześniej nadal wymagają sporego wydatku. I wreszcie pozostaje komfort widza związany z używaniem okularów. Nie jest to żadna tajemnica i wszyscy uczestnicy rynku telewizji 3D doskonale zdają sobie z tego sprawę: okulary trzeba zastąpić czymś innym. Na tegorocznych targach Consumer Electronic Show, które odbyły się w styczniu w Las Vegas (CES 2011), firmy Sony, LG i Toshiba zademonstrowały przedprodukcyjne prototypy telewizorów działających na bazie powszechnie używanej technologii stereoskopowej, które nie wymagały okularów. Jeszcze pół roku temu mówiło się, że na takie rozwiązania trzeba będzie czekać od pięciu do siedmiu lat lub że wręcz nigdy nie wyjdą poza laboratoria albo zostaną szybko wyparte przez inne rozwiązania. Nie twierdzę, że telewizja 3D wymagająca okularów jest nieakceptowalna. Uważam, iż dziś jest na nią czas i miejsce. Jednak masowa popularyzacja i rozwój wymagają wprowadzania ułatwień, bo czego chcą użytkownicy, jest jasne – docelowo telewizja 3D ma wnieść wrażenie oglądania porównywalnego do świata rzeczywistego, przez całą rodzinę w tym samym czasie i bez okularów. 3D się rozwinie Upowszechnienie i rozwój telewizji 3D zależą od uczynienia jej prostą, łatwo dostępnąpo, jak również pozbawioną niektórych niedogodności dzisiejszej technologi. Wierzę w rozwój telewizji 3D i jestem przekonany, że nie pozostanie tylko produktem niszowym. Zależy to jednak przede wszystkim od tego, na ile będzie potrafiła zapewnić telewidzom odpowiedni poziom wrażeń i złagodzić niedogodności związane z jej oglądaniem. marzec 2011 | 67


technologie

Kamery jak oczy Ogromny finansowy sukces oraz znakomite recenzje pierwszych trójwymiarowych megaprodukcji „Avatara” i „Alicji w krainie czarów” pokazały, że świat dojrzał do przyjęcia nowej technologii. Czym jest naprawdę 3D? Jak wygląda proces produkcji realizowanych w tej technologii filmów?

Ż

eby zrozumieć, jak działa 3D, dobrze zastanowić się najpierw, jak funkcjonuje mózg. Określa on położenie naszego ciała względem innych przedmiotów poprzez ogniskową w oku. Wie, że im bardziej się oddalamy, tym widziany przedmiot jest mniejszy, a obraz mniej szczegółowy. Wie również, że światło, cień, kolor oraz kontrast wpływają na głębię percepcji. Mózg oblicza tę głębię na podstawie różnicy między dwoma widzianymi niezależnie przez każde oko obrazami. Technologia 3D „oszukuje” mózg: tworzy jeszcze doskonalszą iluzję głębi, co z kolei gwarantuje lepszy efekt wizualny.

68

Historia technologii trójwymiarowej U zarania technologii 3D eksperymentowano z wykorzystaniem stereoskopów oraz popularnych view masterów. Wyglądem przypominały bardzo popularne w Polsce Ludowej zabawki, które zapewne większość z nas dobrze pamięta. Były to plastikowe prostokątne pudełka z okularami jak w lornetce, w których przesuwało się trójwymiarowe slajdy. Stereopsja wykorzystuje mechanizm, polegający na tym, że siatkówki lewego i prawego oka otrzymują obrazy wyświetlane z innej perspektywy. Autostereogramowe książki z obrazkami to kolejny przykład pierwszych zastosowań treści trójwymiarowych. Powtarzalność obrazów tworzyła efekt

paralaksy, dzięki któremu zmieniała się głębia postrzeganego obiektu. Te przykłady zastosowania 3D przeczą tezie, że technologia 3D narodziła się w erze cyfrowej. Tak naprawdę była to technologia znana już od 1890 r. Ówczesne zastosowania, choć innowacyjne, nie nadawały się jednak do prezentacji treści dla większej widowni i nie zadomowiły się na rynku produktów masowych. W technologii filmów 3D wykorzystuje się dwie równocześnie filmujące daną scenę kamery. Ustawia się je w tej samej odległości, w jakiej scenę postrzegałoby ludzkie oko, i tworzy dwa odrębne obrazy. Kiedy zostaną scalone, powstaje złudzenie głębi, które znamy pod nazwą trójwymiaru. Mózg widza oglądającego takie obrazy na specjalnym ekranie przez okulary 3D, które rozdzielają obrazy dla prawego i lewego oka, zespala te obrazy w jedną całość i tworzy obraz trójwymiarowy. Przy omawianiu technologii 3D należy wspomnieć o paralaksie. To efekt niezgodności w postrzeganiu pozycji obiektu przez lewe i prawe oko z osobna. Efekt ten możemy zaobserwować, kiedy patrzymy na dowolny przedmiot, zasłaniając przy tym raz prawe, raz lewe oko dłonią. Położenie przedmiotu zdaje się zmieniać w zależności od tego, którym okiem patrzymy. Każde


2012

Wielk sporto ie wydarzeni a we s do sto ą bodźcem nowyc sowania h rozw iązań

obserwuje bowiem świat z nieznacznie innego kąta. Efekt paralaksy widoczny jest też w technologii 3D. O paralaksie dodatniej mówi się wówczas, kiedy obiekt pojawia się poza ekranem, zerowej, kiedy obiekt pojawia się na ekranie, oraz ujemnej, kiedy obiekt pojawia się przed ekranem. Każdy operator nagrywający treści 3D musi dobrze wiedzieć, jaki wpływ na obraz ma paralaksa. Newralgiczny dla procesu tworzenia treści 3D jest sposób współdziałania kamer. Obraz można łatwo zniekształcić przez złe ustawienie linii pionu lub obrotu, niedopasowane śledzenie zoomu, złe kadrowanie, niepoprawny dobór kolorów lub nadmierną konwergencję. Większość

Każde oko obserwuje świat z nieznacznie innego kąta. Nazywamy to efektem paralaksy. Bez tego nie byłoby technologi 3D.

tych czynności można ustawić automatycznie dzięki procesorowi obrazu, który koryguje ustawienia w czasie rzeczywistym. Ma to istotne znaczenie przy transmisjach na żywo. Po zarejestrowaniu obrazów nadal pozostaje szereg czynności do przeprowadzenia na etapie postprodukcji. Wszystkie miksy, przejścia muszą być dopasowane z dokładnością do jednej klatki. Szybkie cięcia i nagłe zbliżenia powodują dyskomfort, bo oczy muszą zmieniać ogniskową. Trójwymiarowa prezentacja Obrazy 3D można wyświetlać na pięć różnych sposobów. W technologii anaglifowej (przy użyciu cyjanu i czerwieni) dwa obrazy zostają na siebie nałożone. Technologia nie wymaga specjalnego ekranu ani projektora. Co prawda w ostatnim czasie obserwujemy powrót do obrazów anaglifowych, w szczególności dzięki prezentacji obrazów i filmów w Internecie, technologia ta jest jednak nadal niedoskonała: trudno z jej pomocą odtworzyć rzeczywiste barwy. Metoda alternatywna polega na użyciu technologii polaryzacji linearnej. Obraz lewy jest polaryzowany pionowo, a prawy poziomo. To rozwiązanie ma także istotną wadę: wymaga od widza, aby trzymał cały czas głowę prosto. W dodatku potrzebny jest specjalny ekran lub projektor. W kinach często stosowana jest polaryzacja kołowa. Ułożenie głowy nie odgrywa tutaj roli, ale marzec 2011 | 69


technologie

minusem jest potrzeba stosowania specjalnego ekranu lub projektora. Technologia aktywna opiera się z kolei na synchronizacji sygnałów poprzez podczerwień dzięki wykorzystaniu specjalnych okularów. Zapewniają one doskonałe rozdzielenie obrazów oraz szeroki kąt widzenia. Okulary wymagają jednak zasilania i nie są wcale tanie. Jak widać, nie ma rozwiązań idealnych – o wyborze technologii decydują czynniki praktyczne, przede wszystkim format projekcji i profil odbiorcy.

Ciągły rozwój to jedyny sposób dla nadawcy, aby zdobyć na rynku pozycję lidera. 3D może odegrać w tym starciu znaczącą rolę. To właściwie wszystko – krótkie wprowadzenie do podstaw naukowych i procesów technologicznych wykorzystywanych w produkcji treści 3D. Czy są to procesy skomplikowane? Bez wątpienia. Przyjęcie przez nadawców formatu 3D wymaga specjalistycznej wiedzy i zmian w dotychczasowym systemie pracy. Nagrywanie filmów 3D Przez lata wypróbowano wiele sposobów nagrywania obrazu w technologii trójwymiarowej: stosowano kombinacje obiektywów i pryzmatów, aby stworzyć przenośną, łatwą w użyciu kamerę 3D. Jednak do dziś najlepszym sposobem nagrywania profesjonalnych filmów trójwymiarowych pozostaje system dwóch kamer na jednym stelażu, tak zwanym rigu. Istnieje kilka konfiguracji rigu 3D. Każda ma zalety

70

i wady. Najwygodniejszy do pracy małym sprzętem jest rig równoległy. Kamery ustawione są obok siebie. Inne rozwiązanie to rig, na którym kamery ustawione są naprzeciw siebie. Umieszczone między nimi lustra odbijają w kierunku kamer obrazy przeznaczone dla prawego i lewego oka. Najpopularniejszy i najefektywniejszy jest rig lustrzany. Półprzepuszczalne lustro odbija filmowaną scenę kamery pionowej, równocześnie przepuszczając obraz do kamery ustawionej poziomo.

Istotnym krokiem w rozwoju produkcji 3D jest wprowadzenie stanowiska stereografera – osoby odpowiedzialnej za monitorowanie i korygowanie obrazu pojawiającego się na monitorach – osobno dla lewego i prawego oka. W ubiegłym roku Sony wyprodukowało dla telewizji BSkyB (Sky) w Wielkiej Brytanii pierwszy na świecie wóz transmisyjny 3D. Transmisja na żywo treści w 3D to dla nadawców kolejny logiczny etap następujący po wdrożeniu transmisji HD.


Piłka w grze! Doświadczenia z ostatnich lat pokazują, że wielkie wydarzenia sportowe są dla producentów i nadawców bodźcem do wdrażania nowych technologii. W ubiegłym roku Sony po raz pierwszy wyprodukowało transmisję z mistrzostw świata w technologii 3D. Ostatnie mistrzostwa świata w piłce nożnej przyniosły ponad dwa miliony użytkowników stronie internetowej World Cup ITV, prezentującej na żywo transmisje z boisk przez cztery tygodnie turniejowych zmagań. Nie mniej ożywczo działają mistrzostwa na rynek reklamy telewizyjnej – znacznie zwiększają się w tym czasie wydatki na reklamę.

Kolejne wielkie emocje zbliżają się wielkimi krokami: piłkarskie mistrzostwa Europy w Polsce i na Ukrainie w czerwcu 2012 r. i olimpiada w Londynie na przełomie lipca i sierpnia. Nadawcy ruszą do boju o widza. 3D to jedna z nielicznych technologii, które są w stanie w radykalny sposób potęgować wrażenia z transmisji. Nadszedł czas, by cała branża zastanowiła się, jak wdrażać tę technologię oraz jak współpracować z klientami i partnerami. Ciągły rozwój to jedyny środek, dzięki któremu europejscy nadawcy będą mogli utrzymać w branży pozycję lidera. Właśnie 3D może odegrać w tej walce znaczącą rolę. Opracowanie: Sony Europe

marzec 2011 | 71


Trendy

Smartfony wygrywają, tablety atakują

Internet na dotyk

Świat polubił urządzenia dotykowe. Zwycięski marsz kontynuują smartfony. W tym roku pojawiły się tablety. Konkurenci rozpychają się łokciami, a rynek ochoczo temu przyklaskuje. Wciąż bowiem jest nienasycony.

S

martfony w ubiegłym roku stanowiły jedną czwartą telefonów, które odebrali klienci Polskiej Telefonii Cyfrowej, operatora sieci Era. Nie mamy danych od innych operatorów, ale można sądzić, że są podobne. W najbliższych miesiącach zaś spodziewamy się ofensywy tabletów. – Zasadnicze różnice między tabletem i smartfonem to wielkość urządzenia i jego przeznaczenie – mówi Wojciech Jabczyński, rzecznik grupy TP. Tablet jest znacznie więk-

72

szy. Nie każdy mieści się w kieszeni, choć na przykład Samsung Galaxy Tab czy Huawei S7 (Orange Tablet) nadają się do noszenia w wewnętrznej kieszeni marynarki. Nie można tego powiedzieć o iPadzie. Smartfon zaś jest urządzeniem kieszonkowym – jak każdy telefon powinien być na tyle mały, żeby można go było niemal zawsze nosić przy sobie. Ma więc przeważnie poręczny wyświetlacz o przekątnej około 4 cali. Były nawet przymiarki do 4,5 cala. Tyle że taki wyświetlacz trudno obsługiwać kciukiem dłoni,

w której jest trzymany, i przez to traci jedną ze swoich użytecznych funkcji. Jest to zresztą dyskusja po trosze akademicka, bo kryteria, co to jest tablet, a co smartfon, nie są do końca sprecyzowane. Właśnie wielkość ekranu jest jednym z podstawowych wyróżników. – Z naszych obserwacji wynika, że są dwie grupy klientów – podkreśla Andrzej Gładki, kierownik działu zarządzania produktami – terminale w Erze. – Jedni wolą używać tablet w domu na kanapie, jako podręcznego „centrum rozrywki”. Takie tablety mają 10-calowe ekrany i są bardziej stacjonarne. Są też zwolennicy korzystania z tabletu w podróży i wtedy wygodniejsze jest mniejsze urządzenie, powiedzmy, 7-calowe. Z pewnością przyjmą się jedne i drugie. Ale moim zdaniem większą popularność zdobędą te pierwsze. Koncepcja tabletu narodziła się wiele lat temu. Pierwsze rozwiązania powstawały w tradycyjnych firmach informatycznych. Ale wtedy jeszcze wychodziły przed szereg.


Były przede wszystkim bardzo drogie i niedopracowane. – Do tej pory w zasadzie nie było dla iPada konkurencji wśród tabletów – uważa Andrzej Gładki. – Drugi pod względem popularności Samsung Galaxy Tab jest z konstrukcyjnego punktu widzenia właściwie przerośniętym smartfonem. To po prostu telefon z większym wyświetlaczem: 7-calowym. Oprócz wielkości różni je bowiem też i funkcjonalność: smartfon to zaawansowany technologicznie telefon dający możliwość korzystania z mobilnego Internetu. Tablet z kolei jest przede wszystkim terminalem internetowym służącym rozrywce – przeglądaniu stron internetowych, oglądaniu filmów czy słuchaniu muzyki. Korzystanie z tabletu jak z telefonu obsługiwanego za pośrednictwem słuchawek z mikrofonem nie jest specjalnie wygodne. Nie wygląda na to jednak, by dostawcom szczególnie zależało na wprowadzaniu ułatwień w tym zakresie. Tablet to nowa kategoria urządzeń, która znajduje niszę między smartfonami a notebookami. Istnieje szansa, że tablety wyprą netbooki. Niemal w każdej funkcji, oprócz pracy na klawiaturze, sprawdzają się lepiej. – Przeglądanie zdjęć, ogląda-

Smartfon jest urządzeniem kieszonkowym. Dzięki niemu Internet można mieć zawsze przy sobie.

W ubiegłym roku mieliśmy do czynienia z eksplozją popularności smartfonów. W 2009 r. miały one 13-proc. udział w sprzedaży Ery. W całym ubiegłym roku wskaźnik ten wzrósł do 25 proc. W czwartym kwartale podskoczył do 35 proc. i na tym poziomie utrzymuje się również w tym roku. Czy w przyszłym ten sukces powtórzą tablety?

Przeglądanie prasy na tablecie? Niemal w każdej funkcji, oprócz pracy na klawiaturze, tablety sprawdzają się lepiej od netbooków i notebooków.

marzec 2011 | 73


Trendy

Smartfony z systemem operacyjnym Android mierzą się z iPhonem (na zdjęciu), który działa na platformie iOS.

nie filmów, sprawdzanie poczty, surfowanie w Internecie: do wszystkich tych zastosowań lepszy jest tablet – zwraca uwagę Adam Grosik, specjalista ds. jakości sprzętu abonenckiego w Departamencie Zarządzania Łańcuchem Dostaw w Polkomtelu, operatorze sieci Plus. – Poza tym ma jeszcze jedną kolosalną zaletę: jest zawsze włączony. Nie traci się kilku minut na uruchomienie. Jedno kliknięcie i jesteśmy w sieci. Czas działania baterii jest również dużo dłuższy niż w dotychczas znanych nam komputerach. Tablet waży około 700 g. Naturalnie mogą być cięższe albo lżejsze. Ale punktem odniesienia, który wskazuje poziom, do którego dążą inni dostawcy, jest nadal iPad, który ciągle pozostaje najlepiej sprzedającym się

produktem w tej kategorii. Od pewnego czasu wielu producentów– HTC, Samsung, LG, Motorola – przygotowywało na iPada „jakąś odpowiedź”. Branża z utęsknieniem czekała na rok 2011, kiedy miał pojawić się Android 3.0 Honeycomb, czyli wersja systemu przeznaczona do tabletów (ewentualnie w urządzeniach 7-calowych – Gingerbread z opcją aktualizacji do Honeycomb). – W dużym uproszczeniu można powiedzieć, że wszystkie te tablety są dość podobne – wyjaśnia Andrzej Gładki. – Spora część z nich bazuje na dwurdzeniowym układzie Tegra 2. Oczywiście towarzyszy mu dedykowany układ graficzny. Dostawca – firma nVidia – twierdzi, że jest to obecnie najlepsze

Do tej pory tablety sprzedaje się w Polsce w ilościach śladowych. Przede wszystkim barierę stanowi cena. Za kilka miesięcy, kiedy pojawią się produkty innych dostawców, konkurencja z pewnością wymusi obniżki. Niewykluczone, że cena rynkowa może oscylować wokół tysiąca złotych.

74

Smartfon ma przeważnie poręczny wyświetlacz o przekątnej około 4 cali. Były nawet przymiarki do 4,5. Tyle że taki wyświetlacz trudno obsługiwać kciukiem dłoni, w której jest trzymany.

rozwiązanie i wielu producentów mu zaufało. Analitycy rynku nie mają wątpliwości: to początek nowej epoki. Dominują urządzenia z systemami iOS i Androidem. Pewnym zaskoczeniem jest zwłaszcza błyskawiczny sukces tego ostatniego. A śnieżna kula toczy się dalej. Urządzenia z systemem operacyjnym Android zmierzą się z iPadem (z iOS), który na razie króluje na światowym rynku, podobnie jak z iPhonem walczą smartfony oparte na platformie Android. Ale inni nie składają broni. Nad swoim tabletem (Playbook), opartym na własnym systemie operacyjnym, pracuje również kanadyjska firma RIM. W lutym tego roku świat obiegła informacja o planach bliskiej współpracy technologicznej Nokii i Microsoftu. Fiński producent, przez wiele lat absolutny lider branży, do tej pory trzymał się swoich rozwiązań. Sam tworzył swoje ekosystemy (urządzenia, system operacyjny, aplikacje, zawartość). Tyle że przestarzały już dzisiaj system operacyjny


Symbian traci udziały w rynku, a przechodząca kryzys firma nie ma jeszcze tabletów. Nokia rozwijała wcześniej (wspólnie z Intelem) platformę MeGoo. Ale te plany nie wypaliły. Microsoft na razie zaś nie ma gotowego Windowsa przeznaczonego do tabletów. Dlatego decyzja o współpracy z Microsoftem potwierdza, że obie firmy czują się zagrożone i wolą zewrzeć szyki. Co z tabletami Nokii – nie wiadomo. Cokolwiek sądzić o problemach Nokii, obie firmy są gigantami. Ich współpraca może zrodzić ciekawe i nowatorskie rozwiązania. To niewątpliwie dobrze dla rozwoju konkurencji. W przyszłości będziemy pewnie świadkami współzawodnictwa między trzema podstawowymi systemami. Rozgrywka będzie tym bardziej zacięta, że włączają się do niej tradycyjni dostawcy IT. Prawdopodobnie najsilniejszą pozycję ma HP po przejęciu Palma, z własnym systemem operacyjnym Web OS (zarówno do tabletów,

jak i smartfonów). Swojej szansy upatrują na tym rynku również dostawcy infrastruktury, między innymi chińskie firmy Huawei i ZTE. Konkurenci ci prezentują całkiem różne style walki, czyli inne modele biznesowe, a więc współzawodnictwo powinno być interesujące. Na razie trudno przesądzać o wygranej. W ubiegłym roku na świecie sprzedano 2 mln urządzeń Samsung Galaxy Tab, zaś iPadów – ponad 7 mln w samym czwartym kwartale. Apple przewiduje, że w tym roku nastąpi skokowy wzrost – do 40 mln. W drugim kwartale tego roku do sklepów mają też dotrzeć inne „regularne” tablety ze specjalnym systemem operacyjnym. Kilka tygodni temu było już sporo premier: zarówno na CES w Las Vegas, jak i na Mobile World Congress w Barcelonie. Na razie, jak każda nowość, mają one poważną wadę: ceny. Te zaczynają się od dwóch tysięcy złotych. Do tej pory tablety sprzedaje się w Polsce w ilościach śladowych. Przyczyn jest kilka.

Przede wszystkim barierę stanowi właśnie cena. Za kilka miesięcy konkurencja z pewnością wymusi jednak obniżki. Zwłaszcza że mogą się pojawić produkty mniej znanych dostawców. Niewykluczone, że cena rynkowa może oscylować nawet w granicach tysiąca złotych. A przy subsydiach operatorskich oferty mogą być jeszcze bardziej atrakcyjne. Operatorzy na pewno nie zrezygnują. Tablety stanowią istotne uzupełnienie portfolio urządzeń, z których mogą korzystać użytkownicy usług telekomunikacyjnych. Zakres zastosowań będzie z pewnością coraz większy. – Jakiś czas temu BMW pokazało uchwyty do zagłówków na tablety dla pasażerów zajmujących tylne siedzenia w samochodach. A przecież to dopiero początek – podkreśla Adam Grosik z Polkomtela. tekst: Mieczysław Starkowski

Przeglądanie zdjęć, oglądanie filmów, słuchanie muzyki, sprawdzanie poczty, surfowanie w Internecie. To typowe funkcje tabletu.

marzec 2011 | 75


trendy

Przenoszenie numerów

Coraz większe zmiany na rynku Rozporządzenie ministra infrastruktury okazało się skuteczne. Według jeszcze niepotwierdzonych danych w ubiegłym roku swój numer przeniosło do innego operatora ponad 860 tys. abonentów telefonii komórkowej – ponad dwa razy więcej niż rok wcześniej. Analitycy rynku przewidują, że zmiany będą się nasilać. Mieczysław T. Starkowski

O

możliwości zmiany operatora z zachowaniem numeru mówiło się od dawna. Chodziło o umożliwienie użytkownikom sieci telekomunikacyjnych skorzystanie z bardziej atrakcyjnych warunków oferowanych przez konkurencyjnego operatora bez konieczności rezygnowania z dotychczasowego numeru telefonu. Wiadomo, że zmiana numeru niesie ze sobą ryzyko utraty części kontaktów, a to zniechęcało dotychczas użytkowników do migracji między operatorami. PNP (Phone Number Portability) oznacza proces umożliwiający zachowanie numeru telefonu przez użytkownika przy zmianie operatora. Uważa się, że PNP jest jednym z ważnych środków sprzyjających rozwojowi konkurencji na rynku usług telekomunikacyjnych.

76

W Unii Europejskiej odpowiednie regulacje wprowadziła Dyrektywa 2002/22/WE Parlamentu Europejskiego i Rady Europy z 7 marca 2002 r. w sprawie usługi powszechnej i związanych z sieciami i usługami łączności elektronicznej praw użytkowników (dyrektywa o usłudze powszechnej). Czytamy w niej między innymi: „Przenoszenie numeru jest kluczowym czynnikiem ułatwiającym podejmowanie wyborów przez konsumentów oraz skuteczną konkurencję w konkurencyjnym środowisku telekomunikacyjnym w ten sposób, że użytkownicy końcowi, którzy sobie tego zażyczą, powinni mieć możliwość zachowania numeru/numerów w publicznej sieci telefonicznej niezależnie od tego, która organizacja świadczy usługę. Niniejsza dyrektywa nie obejmuje zapewnienia tej usługi dodatkowej w przypadku połączeń z publiczną siecią telefonicz-


ną między numerami stacjonarnymi i niestacjonarnymi. Jednakże państwa członkowskie mogą zastosować przepisy dotyczące przenoszenia numerów między sieciami stacjonarnymi i komórkowymi”. W naszym kraju przepisy dyrektywy zostały przyjęte w ustawie z 16 lipca 2004 r. Prawo telekomunikacyjne (Dz. U., nr 171, poz. 1800), obowiązującej od 3 września 2004 r., wraz z późniejszymi zmianami. Artykuły 71 i 71a stanowią: „Abonent będący stroną umowy z dostawcą usług zapewniającym przyłączenie do publicznej sieci telefonicznej może żądać przy zmianie dostawcy usług przeniesienia przydzielonego numeru do istniejącej sieci operatora (...). Za przeniesienie numeru nie pobiera się opłat. (…) Abonent, żądając przeniesienia przydzielonego numeru, może rozwiązać umowę z dotychczasowym dostawcą usług bez zachowania terminów wypowiedzenia określonych w rozwiązywanej umowie. W takim przypadku jest obowiązany do uiszczenia opłaty dotychczasowemu dostawcy w wysokości nieprzekraczającej opłaty abonamentowej

Według danych Urzędu Komunikacji Elektronicznej od startu usługi w 2005 r. do końca września ubiegłego roku przeniesiono prawie 2 mln numerów. Przy tym liczba ta wyraźnie rośnie. W 2008 r. było ich prawie 414 tys. Rok później – już ponad 644 tys., czyli o połowę więcej.

marzec 2011 | 77


trendy

Zoran Vučković analityk w firmie badań rynkowych PMR Research Nowelizacja ustawy Prawo telekomunikacyjne z lipca 2009 r. znacznie ułatwiła proces przenoszenia numerów telefonów komórkowych w Polsce. Zmiana ta miała wpływ na rynek: tylko w 2009 r. operatora komórkowego zmieniło około 420 tys. osób. Rok później liczba ta podwoiła się. W ostatnich dwóch latach najwięcej konsumentów, zachowując numer, migrowało do P4. Baza netto klientów operatora sieci Play w wyniku przenoszenia numerów wzrosła w 2009 r. o 213 tys., a w 2010 r. – o 540 tys. użytkowników. Nie jest to zaskoczeniem, wziąwszy pod uwagę strategię nastawioną na odbieranie klientów innym operatorom, agresywną politykę cenową i asymetryczne stawki MTR. Pozytywne zmiany w zakresie przenośności numerów ułatwiły operatorowi ekspansję na rynku. W tym samym okresie trzej najwięksi operatorzy komórkowi obserwowali odpływ numerów. Play zyskuje w coraz większym stopniu dzięki efektowi skali. W miarę jak baza operatora się zwiększa, oferta darmowych połączeń wewnątrz sieci ma coraz większe znaczenie dla klientów końcowych. Z drugiej strony UKE zdecydował w ubiegłym roku o skróceniu okresu asymetrii dla P4 o rok (do 2012 r.). Mając to na uwadze, operator zmienia własną strategię. Będzie w mniejszym stopniu konkurował ceną, licząc na zagospodarowanie bazy i zwiększenie średnich przychodów na klienta. Nie można przy tym zapominać, że bez wątpienia największym beneficjentem wprowadzonych ułatwień w przenoszeniu numerów jest konsument, który może zdecydować o wyborze najkorzystniejszego dla siebie operatora, nie tracąc numeru. Przenośność dotyczy stosunkowo niewielkiej grupy użytkowników, biorąc pod uwagę całkowitą liczbę kart SIM w Polsce (47 mln na koniec 2010 r. według danych GUS). Jednak już okazała się papierkiem lakmusowym, który może oddawać sytuację i strategię operatorów na rynku.

78

za okres wypowiedzenia. Nie powinna ona być jednak wyższa niż opłata abonamentowa za jeden okres rozliczeniowy, powiększona o roszczenie związane z ulgą przyznaną abonentowi obliczoną proporcjonalnie do czasu pozostającego do zakończenia trwania umowy”. – Operatorom nie spodobały się te regulacje – przypomina Piotr Dziubak, rzecznik prasowy Urzędu Komunikacji Elektronicznej. – Często nie stosowali się do nich, powołując się na przykład na problemy techniczne. Dlatego zdarzało się, że niektórzy abonenci czekali bardzo długo, nawet półtora miesiąca. Nowa sytuacja zaistniała po opublikowaniu rozporządzenia ministra infrastruktury z 17 czerwca 2009 r. (Dz.U., nr 97, poz. 810) w sprawie warunków korzystania z uprawnień w publicznych sieciach telefonicznych. A tak zwane szczegóły procesowe zostały wtedy doprecyzowane w porozumieniu podpisanym przez operatorów. – Procedura przenoszenia numeru zmieniła się latem 2009 r. – przyznaje Katarzyna Meller, rzecznik prasowa Polkomtela, operatora sieci telefonii komórkowej Plus. – Zniesiona została wówczas między innymi opłata ponoszona

przez klienta za przeniesienie. Daje to abonentom dwie możliwości. Najprościej przeniesienie numeru komórkowego następuje w ciągu jednego dnia roboczego na żądanie abonenta, który składa pisemny wniosek u nowego operatora. Abonent udziela przy tym pełnomocnictwa nowemu dostawcy (tak zwanemu biorcy numeru) do realizacji czynności związanych z przeniesieniem, w tym rozwiązania umowy z aktualnym operatorem (dawca numeru). Jak wyjaśnia Katarzyna Meller, zachowano również możliwość samodzielnego wystąpienia przez abonenta o przeniesienie numeru do swojego dostawcy usług telekomunikacyjnych. Abonent składa po prostu wniosek o rezygnacji z zastrzeżeniem dołączenia do składanej rezygnacji potwierdzenia (lub kopii wniosku) wystawionego abonentowi przez biorcę W tym przypadku termin przeniesienia numeru jest datą wyznaczoną regulaminowym biegiem rozwiązania umowy z dawcą. W zależności od dnia złożenia rezygnacji może to trwać od 30 do 60 dni. Z tej drogi najczęściej korzystają klienci korporacyjni, przenoszący

Najbardziej ucierpiała Polska Telefonia Cyfrowa, operator sieci Era. Od 2005 r. straciła netto prawie ćwierć miliona numerów. Największym beneficjentem była firma P4, operator sieci Play, która zyskała ponad pół miliona.


duże, a czasem bardzo duże pakiety numerów (może być ich od dziesiątków do tysięcy w pakiecie). Jednodniowy termin przeniesienia nie ma dla tego rodzaju klientów większego znaczenia. Ale ważne są dodatkowe, negocjowane warunki umowy z nowym operatorem lub renegocjowane z dotychczasowym. – Podobna dwuwariantowa procedura przeniesienia numeru funkcjonuje dla numerów stacjonarnych – dodaje Katarzyna Meller. – Różnica polega na tym, że w skróconym wariancie przeniesienia (na żądanie abonenta) operator ma 7 dni roboczych. Jest to uwarunkowane względami technicznymi, wymagającymi na ogół przełączeń w centralach. Gdy możliwość przeniesienia zostaje potwierdzona, nowy operator zawiera z abonentem umowę o świadczenie usług telekomunikacyjnych z przeniesieniem numeru. – Część operatorów tworzy dla klientów przenoszących numer specjalne oferty, które mają na celu zachęcenie ich do zmiany dostawcy usług – informuje Wojciech Jabczyński, rzecznik grupy TP. – Jednak największy wpływ na ustalanie taryf ma aktualna sytuacja na rynku i przyjęta polityka marketingowa. Możliwość łatwego przenoszenia numerów jest tylko jednym z wielu czynników branych pod uwagę. Według danych Urzędu Komunikacji Elektronicznej od startu usługi w 2005 r. do końca września ubiegłego roku przeniesiono prawie 2 mln numerów. Przy czym liczba ta wyraźnie rośnie. W 2008 r. było ich prawie 414 tys. Rok później – już ponad 644 tys., czyli o połowę więcej.

Bez wątpienia największym beneficjentem wprowadzonych ułatwień w przenoszeniu numerów jest konsument, który nie tracąc numeru, może wybrać najlepszego dla siebie operatora.

Jak podał serwis telepolis.pl, w ubiegłym roku przeniesiono 863 tys. numerów komórkowych. UKE nie opublikował jeszcze oficjalnych danych, ale zdaniem Piotra Dziubaka, rzecznika prasowego urzędu, jest to wielkość bardzo prawdopodobna. Najbardziej ucierpiała Polska Telefonia Cyfrowa, operator sieci Era. Od 2005 r. straciła netto prawie ćwierć miliona numerów. Największym beneficjentem była firma P4, operator sieci Play, który zyskał ponad pół miliona. – W porównaniu z 2009 r. Polacy prze-

nieśli ponad dwa razy więcej numerów komórkowych – podkreśla Marcin Gruszka, rzecznik prasowy Play. – Najchętniej wybieranym operatorem, z 65-proc. udziałem, był Play. Najwięcej klientów przychodzi z Ery, a potem z Orange i Plusa. Widać już, że proporcje między operatorami będą się zmieniać. Niemałą rolę w tych migracjach odgrywa na pewno marketing, ale nie ulega też wątpliwości, że przenośność będzie premiować operatorów z najciekawszą ofertą.

Przenośność numerów w Polsce w 2010 r. Operator

Przyjął Numerów

Oddał Udział

Numerów

Udział

Bilans

Centertel

126 tys.

14,6%

242 tys.

28,0%

-116 tys.

Polkomtel

93 tys.

10,8%

275 tys.

31,9%

-182 tys.

PTC

76 tys.

8,8%

323 tys.

37,4%

-247 tys.

558 tys.

64,7%

20 tys.

2,3%

538 tys.

10 tys.

1,1%

3 tys.

0,4%

7 tys.

P4 Pozostali Źródło: telepolis.pl

marzec 2011 | 79


PRENUMERATA

półroczna

roczna

(2 WYDANIA)

1 egzemplarz 2 egzemplarze 4 egzemplarze

(4 WYDANIA)

129 PLN 239 PLN 439 PLN

239 PLN 439 PLN 839 PLN Ceny netto

Instytucje sektora publicznego, uczelnie wyższe oraz regulatorzy rynku telekomunikacyjnego i medialnego otrzymują od wydawnictwa 50-procentowy rabat

lub wypełnij i wyślij formularz faksem: 22 379 29 01 aprześlij zamówienie e-mailem: prenumerata@prawoiregulacje.pl awypełnij formularz na stronie: www.prawoiregulacje.pl/prenumerata

awyślij zamówienie na adres: MM Conferences S.A., ul. Długa 44/50, 00-241 Warszawa a zrób przelew na konto wydawnictwa: 94 1240 1037 1111 0010 2616 6259 wpisz dokładnie na przelewie swoje dane: Wypełniając przelew, podaj swoje imię i nazwisko lub nazwę firmy oraz adres z kodem pocztowym. W tytule przelewu wpisz: Prenumerata magazynu Prawo i Regulacje Świata Telekomunikacji i Mediów REDAKCJA

Rafał Ostrowski•r.ostrowski@

PRAWO I REGULACJE ŚWIAT A TELEKOMUNIKACJI I MEDIÓ W | grudzień 2010

Aby zamówić prenumeratę: azadzwoń: tel. 22 379 29 00

ŚWIATA PRAWO TELE UNIKACJI I REGULACJE I MEDKOM IÓW MAGAZYN

NR 3

grudzień 2010

4

Problemy ze stawkami opłat licencyjnych

prawoiregulacje.pl| KOORDYNACJA

WYDAWNICZA Michał Rejmer •m.rejmer@mmcpolska Aneta Pernak •a.pernak@ .pl mmcpolska.pl Szczygielski | DTP ConceptStu dio.org | DRUK Drukarnia Perfekt

KOORDYNACJA MERYTORYCZN A PROJEKT GRAFICZNY Piotr

01 okladka_wybrana_OK.indd

Prawo

autorskie

18

Konwergencja w prawie i polityce komunikacyjn ej

54

Jak zorganizować TVP?

72

1

11/17/10 4:19 PM

Formularz zamówienia prenumeraty Magazynu Prawo i Regulacje Świata Telekomunikacji i Mediów NAZWA FIRMY........... ................................................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . N IP......................................................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

PRENUMERATA

półroczna (2 WYDANIA)

1 egzemplarz

129 PLN

IMIĘ I NAZWISKO....... ................................................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 egzemplarze

239 PLN

S TANOWISKO ........................................................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 egzemplarze

439 PLN

DEPARTAM ENT ...... ............................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Ceny netto.

ULICA.................................................................. NR DOMU. . . . . . . . . NR MIESZKANIA. . . . . . . . . . KOD POCZTOWY .................. MIEJSCOWOŚĆ ..................................... KRAJ . . . . . . . . . . . ..... . . . . . . . . .

PRENUMERATA

roczna

(4 WYDANIA)

1 egzemplarz

239 PLN

2 egzemplarze

439 PLN

4 egzemplarze

839 PLN

Bank Polska Kasa Opieki S.A. 94 1240 1037 1111 0010 2616 6259 w terminie wskazanym na fakturze. Upoważniamy firmę MM Conferences SA do umieszczenia znaku towarowego (logo) firmy na stronie www.

Ceny netto.

NR TELEFONU KONTAKTOWEGO ................................... E-MAIL. . . . . . . . . . . . . . . . . . . . . . . ................ . . . . . . Zamawiam prenumeratę z 50-procentowym rabatem dla sektora publicznego Upoważniamy firmę MM Conferences SA do wystawienia faktury VAT bez podpisu odbiorcy. Oświadczam, że należna kwota zostanie przelana na konto MM Conferences SA:

Zgodnie z ustawą z dnia 29 sierpnia 1997 r. o ochronie danych osobowych (tekst jednolity DzU nr 101 poz. 926 z 2002 r.) MM Conferences SA, informuje, że jest administratorem danych osobowych. Wyrażamy zgodę na przetwarzanie danych osobowych w celach promocji i marketingu działalności prowadzonej przez MM Conferences, świadczonych usług oraz oferowanych produktów, a także w celu promocji ofert klientów MM Conferences. Wyrażamy również zgodę na otrzymywanie drogą elektroniczną ofert oraz informacji handlowych dotyczących MM Conferences oraz klientów MM Conferences. Wyrażającemu zgodę na przetwarzanie danych osobowych przysługuje prawo kontroli przetwarzania danych, które jej dotyczą, w tym także prawo ich poprawiania. MM Conferences SA z siedzibą w Warszawie (00-241), ul. Długa 44/50, wpisana do Rejestru Przedsiębiorców prowadzonego przez Sąd Rejonowy dla m.st. Warszawy w Warszawie, XIII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS 0000300045, REGON 141312256, wysokość kapitału zakładowego: 500.000,00 zł, wysokość kapitału opłaconego: 219.038,46 zł.

DATA I PODPIS .........................................................


REDAKCJA

Rafał Ostrowski•r.ostrowski@prawoiregulacje.pl| KOORDYNACJA WYDAWNICZA Michał Rejmer •m.rejmer@mmcpolska.pl KOORDYNACJA MERYTORYCZNA Aneta Pernak •a.pernak@mmcpolska.pl PROJEKT GRAFICZNY Piotr Szczygielski | DTP ConceptStudio.org | DRUK Drukarnia Perfekt Informacje prasowe prosimy wysyłać na adres: redakcja@prawoiregulacje.pl

Profile for michu

Prawo i Regulacje nr 4  

Magazyn Prawo i Regulacje Świata Telekomunikacji i Mediów | Wydanie 4 | Marzec 2011

Prawo i Regulacje nr 4  

Magazyn Prawo i Regulacje Świata Telekomunikacji i Mediów | Wydanie 4 | Marzec 2011

Advertisement