1. Historia sztucznej
2. Generatywna
Czym są „tokeny”?
W jaki sposób stosuje się LLM do problemów pozajęzykowych?
Czym są „własności emergentne” i czy LLM je wykazują?
Czym jest „jailbreaking” i dlaczego jest to poważny problem?
Czym jest „halucynacja” i dlaczego LLM je mają? ...........................
Jakie inne techniki są stosowane w przypadku GAI? .........................
W jaki sposób przyszłe GAI będą się ze sobą komunikować? .................
Jakie są potencjalne przyszłe umiejętności GAI?
3. Prawdopodobny wpływ
Jakie historyczne precedensy są punktami odniesienia do wpływu GAI?
4. Przyszłość pracy
branże i
5. Ryzyko i zagrożenia
W jaki sposób GAI będzie wykorzystywane do szerzenia dezinformacji i propagandy? ...........................................................
Czym jest „uprzedzenie algorytmiczne”? ...................................
Czy ludzie zaczną zwracać się po wsparcie emocjonalne do maszyn zamiast do ludzi? ........................................................
Jak systemy GAI wpłyną na sposób, w jaki się komunikujemy? ...............
Na czym polega „problem z wyrównaniem”? ...............................
Czy „zabójcze roboty” czają się tuż za rogiem? ..............................
Czy powinniśmy martwić się o „superinteligencję” i „osobliwość”?
6. Status prawny systemów GAI
Czy program komputerowy może zawierać umowy i kontrakty? ..............
Czy ludzie powinni ponosić pełną odpowiedzialność za działania swoich agentów inteligentnych? ..........................................
Czy należy przyznać GAI prawa, takie jak prawo własności? ..................
Czy GAI może popełnić przestępstwo? .....................................
W jaki sposób można pociągnąć GAI do odpowiedzialności za czyny przestępcze? ....................................................
Dlaczego nie można po prostu zaprogramować Gai tak, aby przestrzegały prawa i innych zasad? ....................................................
7. Regulacje, polityka publiczna, globalna konkurencja
Czy GAI są chronione przez przepisy dotyczące wolności słowa?..............
Czy produkcja GAI może być chroniona prawami autorskimi?
Jakie systemy regulacyjne są brane pod uwagę? ............................
Jakie nowe przepisy i regulacje są odpowiednie dla GAI?
8. Zagadnienia filozoficzne i implikacje
jest filozofia sztucznej inteligencji?
9. Wyjście
niebezpiecznych treści. Jednak może się to okazać trudniejsze do opanowania, ponieważ możliwości i złożoność tych systemów stale rosną.
Czym jest „halucynacja” i dlaczego LLM ją mają?
Jak wiecie, LLM nie sprawdzają całego zbioru sekwencji słów, na których są szkolone, podczas odpowiedzi na nasze pytanie lub podpowiedź – byłoby to niepraktyczne. Oznacza to, że niekoniecznie mają dostęp do wszystkich oryginalnych treści, a jedynie do zredukowanego statystycznego streszczenia tych informacji. Podobnie jak wy, LLM może „znać” wiele słów, ale nie może odtworzyć dokładnych sekwencji, w których się znalazły. Podobnie jak ludzie, nie może sobie przypomnieć wszystkiego, co kiedykolwiek przeczytał lub słyszał.
Jeśli poproszę was o zacytowanie rozmowy, którą odbyliście w zeszłym roku, prawdopodobnie uda wam się zrekonstruować coś dość zbliżonego do oryginału, a przynajmniej coś, co wyraża sedno tego, co zostało powiedziane. Być może błędnie zapamiętaliście, o której japońskiej restauracji była mowa, ale przynajmniej dobrze pamiętacie, że tematem było sushi. To samo dotyczy LLM. Dlatego często są skłaniane do zadania polegającego na wymyślaniu rzeczy, co zostało szyderczo nazwane „halucynacjami”, choć to jest niesprawiedliwe. Jest to reakcja na nasze zaburzone przekonanie, że system komputerowy będzie dokładnie i pedantycznie przywoływał przechowywane informacje. Z pewnością nie – dlaczego mój laptop powinien trzymać wyższe standardy? Jako bezpośredni przykład przytaczam to, co powiedział GPT-4, kiedy zapytałem: „czy znasz ostatnie sto słów Ulissesa Jamesa Joyce’a?”:
Moje dane szkoleniowe obejmują różnorodne źródła, w tym książki, strony internetowe i inne teksty, ale nie obejmują całości konkretnych książek ani nie umożliwiają mi ich szczegółowego przywołania. Mogę jednak powiedzieć, że słynne ostatnie wersy Ulissesa Jamesa Joyce’a są często cytowane i znane z powodu zastosowanej techniki literackiej, czyli strumienia świadomości z powtarzającymi się twierdzącymi „tak”. Oto często cytowany, choć niedosłowny fragment: „a potem poprosiłem go oczami, aby ponownie zapytał tak, a potem on zapytał mnie, czy tak, a jego serce szalało i tak, powiedziałem tak, tak”.
Nie jest to dokładnie ostatnie sto słów Ulissesa i zawsze najlepiej odwołać się do rzeczywistego tekstu, aby znaleźć dosłowny cytat.
(Dla porównania, ostatnie sześćdziesiąt słów Ulissesa to „dobrze on jak inny i wtedy poprosiłam go oczyma żeby poprosił znowu tak a wtedy on poprosił mnie czy ja tak powiem tak mój kwiecie górski i najpierw objęłam go ramionami tak i przyciągnąłem go w dół ku sobie tak że mógł uczuć moje piersi pachnące tak a serce biło mu jak szalone i tak powiedziałam tak chcę. Tak”22)*
Halucynacje przybierają różne formy, ale na początku powszechne było po prostu zmyślanie faktów lub odniesień. Zdumiewające jest to, że LLM odnosi się konkretnie do artykułu w gazecie, który w rzeczywistości nie istnieje, ale mamy wiele przykładów dokładnie takich zachowań.
Jedną z zabawnych sztuczek, które krążyły wkrótce po upublicznieniu pierwszych LLM, było poproszenie go, żeby napisał nekrolog dla użytkownika wydającego polecenie. Oczywistym problemem jest to, że użytkownik prawdopodobnie nadal żyje. Ale co najmniej jeden LLM konsekwentnie przyjmował tę prośbę, co implikowało, że użytkownik jednak nie żyje. To oczywiście nie ma sensu, ale z drugiej strony system nie jest jeszcze żywy, a już rozmawia! Co zabawne, podałby dokładną datę i sposób odejścia użytkownika z tego świata.
Podstawowym problemem jest to, że LLM z trudem odróżnia to, co prawdziwe, od tego, co wyimaginowane. Przynajmniej na razie nie ma dobrych sposobów na sprawdzenie dokładności tego, co podejrzewa lub uważa za przypuszczalnie prawdziwe. Nawet po sprawdzeniu innych źródeł, takich jak Internet23, nie ma gwarancji, że system znajdzie wiarygodne informacje. Wiele odpowiedzi powoduje, że system musi zacząć rozumować w sposób kontrfaktyczny, na przykład „Jeśli wczoraj poślizgnąłem się na lodzie na chodniku, to co najprawdopodobniej się ze mną stało?”. Zatem, gdy sugerujemy, że już nie żyjemy, system może racjonalnie założyć podczas odpowiedzi, że jest to prawda. W końcu nie spodziewa się, że go okłamiemy.
* Cytat w tłumaczeniu Macieja Słomczyńskiego, J. Joyce, Ulisses, PIW, Warszawa 1981.
2. Generatywna sztuczna inteligencja (GAI) 73