101250896

Page 1


1. Historia sztucznej

2. Generatywna

Czym są „tokeny”?

W jaki sposób stosuje się LLM do problemów pozajęzykowych?

Czym są „własności emergentne” i czy LLM je wykazują?

Czym jest „jailbreaking” i dlaczego jest to poważny problem?

Czym jest „halucynacja” i dlaczego LLM je mają? ...........................

Jakie inne techniki są stosowane w przypadku GAI? .........................

W jaki sposób przyszłe GAI będą się ze sobą komunikować? .................

Jakie są potencjalne przyszłe umiejętności GAI?

3. Prawdopodobny wpływ

Jakie historyczne precedensy są punktami odniesienia do wpływu GAI?

4. Przyszłość pracy

branże i

5. Ryzyko i zagrożenia

W jaki sposób GAI będzie wykorzystywane do szerzenia dezinformacji i propagandy? ...........................................................

Czym jest „uprzedzenie algorytmiczne”? ...................................

Czy ludzie zaczną zwracać się po wsparcie emocjonalne do maszyn zamiast do ludzi? ........................................................

Jak systemy GAI wpłyną na sposób, w jaki się komunikujemy? ...............

Na czym polega „problem z wyrównaniem”? ...............................

Czy „zabójcze roboty” czają się tuż za rogiem? ..............................

Czy powinniśmy martwić się o „superinteligencję” i „osobliwość”?

6. Status prawny systemów GAI

Czy program komputerowy może zawierać umowy i kontrakty? ..............

Czy ludzie powinni ponosić pełną odpowiedzialność za działania swoich agentów inteligentnych? ..........................................

Czy należy przyznać GAI prawa, takie jak prawo własności? ..................

Czy GAI może popełnić przestępstwo? .....................................

W jaki sposób można pociągnąć GAI do odpowiedzialności za czyny przestępcze? ....................................................

Dlaczego nie można po prostu zaprogramować Gai tak, aby przestrzegały prawa i innych zasad? ....................................................

7. Regulacje, polityka publiczna, globalna konkurencja

Czy GAI są chronione przez przepisy dotyczące wolności słowa?..............

Czy produkcja GAI może być chroniona prawami autorskimi?

Jakie systemy regulacyjne są brane pod uwagę? ............................

Jakie nowe przepisy i regulacje są odpowiednie dla GAI?

8. Zagadnienia filozoficzne i implikacje

jest filozofia sztucznej inteligencji?

9. Wyjście

niebezpiecznych treści. Jednak może się to okazać trudniejsze do opanowania, ponieważ możliwości i złożoność tych systemów stale rosną.

Czym jest „halucynacja” i dlaczego LLM ją mają?

Jak wiecie, LLM nie sprawdzają całego zbioru sekwencji słów, na których są szkolone, podczas odpowiedzi na nasze pytanie lub podpowiedź – byłoby to niepraktyczne. Oznacza to, że niekoniecznie mają dostęp do wszystkich oryginalnych treści, a jedynie do zredukowanego statystycznego streszczenia tych informacji. Podobnie jak wy, LLM może „znać” wiele słów, ale nie może odtworzyć dokładnych sekwencji, w których się znalazły. Podobnie jak ludzie, nie może sobie przypomnieć wszystkiego, co kiedykolwiek przeczytał lub słyszał.

Jeśli poproszę was o zacytowanie rozmowy, którą odbyliście w zeszłym roku, prawdopodobnie uda wam się zrekonstruować coś dość zbliżonego do oryginału, a przynajmniej coś, co wyraża sedno tego, co zostało powiedziane. Być może błędnie zapamiętaliście, o której japońskiej restauracji była mowa, ale przynajmniej dobrze pamiętacie, że tematem było sushi. To samo dotyczy LLM. Dlatego często są skłaniane do zadania polegającego na wymyślaniu rzeczy, co zostało szyderczo nazwane „halucynacjami”, choć to jest niesprawiedliwe. Jest to reakcja na nasze zaburzone przekonanie, że system komputerowy będzie dokładnie i pedantycznie przywoływał przechowywane informacje. Z pewnością nie – dlaczego mój laptop powinien trzymać wyższe standardy? Jako bezpośredni przykład przytaczam to, co powiedział GPT-4, kiedy zapytałem: „czy znasz ostatnie sto słów Ulissesa Jamesa Joyce’a?”:

Moje dane szkoleniowe obejmują różnorodne źródła, w tym książki, strony internetowe i inne teksty, ale nie obejmują całości konkretnych książek ani nie umożliwiają mi ich szczegółowego przywołania. Mogę jednak powiedzieć, że słynne ostatnie wersy Ulissesa Jamesa Joyce’a są często cytowane i znane z powodu zastosowanej techniki literackiej, czyli strumienia świadomości z powtarzającymi się twierdzącymi „tak”. Oto często cytowany, choć niedosłowny fragment: „a potem poprosiłem go oczami, aby ponownie zapytał tak, a potem on zapytał mnie, czy tak, a jego serce szalało i tak, powiedziałem tak, tak”.

Nie jest to dokładnie ostatnie sto słów Ulissesa i zawsze najlepiej odwołać się do rzeczywistego tekstu, aby znaleźć dosłowny cytat.

(Dla porównania, ostatnie sześćdziesiąt słów Ulissesa to „dobrze on jak inny i wtedy poprosiłam go oczyma żeby poprosił znowu tak a wtedy on poprosił mnie czy ja tak powiem tak mój kwiecie górski i najpierw objęłam go ramionami tak i przyciągnąłem go w dół ku sobie tak że mógł uczuć moje piersi pachnące tak a serce biło mu jak szalone i tak powiedziałam tak chcę. Tak”22)*

Halucynacje przybierają różne formy, ale na początku powszechne było po prostu zmyślanie faktów lub odniesień. Zdumiewające jest to, że LLM odnosi się konkretnie do artykułu w gazecie, który w rzeczywistości nie istnieje, ale mamy wiele przykładów dokładnie takich zachowań.

Jedną z zabawnych sztuczek, które krążyły wkrótce po upublicznieniu pierwszych LLM, było poproszenie go, żeby napisał nekrolog dla użytkownika wydającego polecenie. Oczywistym problemem jest to, że użytkownik prawdopodobnie nadal żyje. Ale co najmniej jeden LLM konsekwentnie przyjmował tę prośbę, co implikowało, że użytkownik jednak nie żyje. To oczywiście nie ma sensu, ale z drugiej strony system nie jest jeszcze żywy, a już rozmawia! Co zabawne, podałby dokładną datę i sposób odejścia użytkownika z tego świata.

Podstawowym problemem jest to, że LLM z trudem odróżnia to, co prawdziwe, od tego, co wyimaginowane. Przynajmniej na razie nie ma dobrych sposobów na sprawdzenie dokładności tego, co podejrzewa lub uważa za przypuszczalnie prawdziwe. Nawet po sprawdzeniu innych źródeł, takich jak Internet23, nie ma gwarancji, że system znajdzie wiarygodne informacje. Wiele odpowiedzi powoduje, że system musi zacząć rozumować w sposób kontrfaktyczny, na przykład „Jeśli wczoraj poślizgnąłem się na lodzie na chodniku, to co najprawdopodobniej się ze mną stało?”. Zatem, gdy sugerujemy, że już nie żyjemy, system może racjonalnie założyć podczas odpowiedzi, że jest to prawda. W końcu nie spodziewa się, że go okłamiemy.

* Cytat w tłumaczeniu Macieja Słomczyńskiego, J. Joyce, Ulisses, PIW, Warszawa 1981.

2. Generatywna sztuczna inteligencja (GAI) 73

Czy komputer może myśleć?

Znany angielski matematyk Alan Turing rozważał tę kwestię w eseju z 1950 r. zatytułowanym Computing Machinery and Intelligence („Maszyny liczące a inteligencja”)3. Proponuje w nim zasadniczo poddanie tego zagadnienia pod głosowanie. Konstruując to, co nazywa „grą imitacji”, wyobraził sobie przesłuchującego znajdującego się w oddzielnym pomieszczeniu i komunikującego się z mężczyzną i kobietą wyłącznie pisemnie (najlepiej na maszynie) i próbującego odgadnąć, który uczestnik jest mężczyzną, a który kobietą. Mężczyzna próbuje oszukać przesłuchującego, że jest kobietą, a kobieta mówi prawdę (na próżno, jak zauważa Turing), żeby pomóc przesłuchującemu w rozwiązaniu zagadki. Następnie prosi czytelnika, żeby wyobraził sobie maszynę zamiast mężczyzny, a istotę ludzką zamiast kobiety4. Gra imitacji jest obecnie powszechnie nazywana „testem Turinga”. (Jeśli słyszałeś o podpicowanej lukrem poprawności politycznej wersji testu, w której maszyna po prostu stara się przekonać człowieka, że również jest istotą ludzką, zachęcam do lektury oryginalnego tekstu Turinga).

Wbrew powszechnemu przekonaniu, że Turing proponował „egzamin wstępny”, aby ustalić, kiedy maszyny „osiągnęły pełnoletniość” i zaczęły myśleć, w rzeczywistości spekulował, iż nasze powszechne użycie terminu „myśleć” w końcu rozszerzy się i zostanie odpowiednio zastosowane do niektórych maszyn lub programów o wystarczających możliwościach. Szacował, że czasem, kiedy to może nastąpić, będzie koniec XX wieku, co było niezwykle trafnym przypuszczeniem, biorąc pod uwagę, że obecnie rutynowo określamy komputery mianem „myślących”, głównie wtedy gdy niecierpliwie czekamy na ich odpowiedź. Zacytujmy Turinga: „Uważam, że oryginalne pytanie: «Czy maszyny mogą myśleć?» jest zbyt bezsensowne, aby zasługiwało na dyskusję. Niemniej jednak wierzę, że pod koniec wieku użycie słów i ogólnie opinie ludzi wykształconych zmienią się tak bardzo, że będzie można mówić o maszynach myślących bez oczekiwania, iż ktoś się temu przeciwstawi”.

Czy Turing miał rację? Czy to pytanie jest zbyt bezsensowne, aby zasługiwało na dyskusję? (A przez implikację: czy ta dyskusja jest stratą czasu?). Oczywiście zależy to od tego, co rozumiemy przez słowo „myśleć”.

Możemy uznać myślenie za zdolność do manipulowania symbolami w celu przeprowadzenia rozumowania od początkowych założeń aż do wniosków. Z tej perspektywy nie powinno budzić kontrowersji, że programy komputerowe, tak jak je obecnie interpretujemy, są zdolne do takich manipulacji, a zatem są zdolne do myślenia. Ale może samo mieszanie zupy z symboli nie wystarczy. Czy ta „zupa” musi odnosić się do czegoś w realnym świecie, aby kwalifikować się jako myślenie?

Gałąź filozofii i językoznawstwa, która zajmuje się takimi pytaniami, nazywa się „semiotyką” i bada użycie symboli w rozumowaniu i komunikacji. Powszechnie rozróżnia się składnię, która stanowi reguły aranżacji i manipulacji symbolami, oraz semantykę, która jest znaczeniem symboli. O ile składnię dość łatwo zrozumieć, o tyle semantykę już nie.

Szybki przykład może pomóc. Pewnie myślicie, że liczby same w sobie mają znaczenie, ale tak nie jest. Aby zwizualizować dlaczego, weźmy pod uwagę następujące symbole „!”, „@”, „#” i „$”połączone przez symbol „+”, którego możemy użyć do połączenia dowolnej pary symboli z zestawu w („=”) inny symbol z zestawu:

! + ! = @

! + @ = #

@ + ! = #

! + # = $

# + ! = $

@ + @ = $

Teraz zagrajmy w małą grę: zaczynamy od zestawu symboli i śledzimy je zgodnie z powyższymi zasadami, aby zobaczyć, gdzie wylądujemy. Brzmi jak dobry sposób na zajęcie pięciolatka na kilka minut, ale nie do końca przykuwa naszą uwagę jako wyrażanie fundamentalnej prawdy o strukturze naszego wszechświata… dopóki nie zastąpimy różnych symboli, pozostawiając wszystko inne takim samym:

1 + 1 = 2

1 + 2 = 3

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.