Halucynacje?
Jak ustalono, w toku sprawy prawnicy do tworzenia pisma wykorzystali sztuczną inteligencję, a dokładniej tzw. duży model językowy (ang. large language model, dalej LLM). Jak więc możliwe, że wyposażeni w nowoczesną technologię profesjonalni pełnomocnicy złożyli pismo, w którym powoływali się na nieistniejące orzeczenia? Aby lepiej zrozumieć sytuację, przytoczmy garść informacji dotyczących modeli językowych.
Duże modele językowe to systemy sztucznej inteligencji, które generują tekst będący odpowiedzią na dane wejściowe wyrażone w języku naturalnym (tzw. prompty). Odpowiedź generowana przez LLM powstaje poprzez wybór najbardziej prawdopodobnej sekwencji tokenów. Natomiast tokeny to wydzielone przy użyciu specjalistycznych algorytmów ciągi tekstu, w przybliżeniu odpowiadające jednemu słowu lub sylabie. Model, ucząc się na zbiorze danych tekstowych, identyfikuje relacje i powtarzające się wzorce w sekwencjach znaków (tokenach), dzięki czemu skutecznie tworzy spójny tekst w języku naturalnym. Obecnie LLM‑y stanowią doskonałe narzędzie do tworzenia haseł reklamowych, opowiadań i poezji, tłumaczenia tekstu, a nawet pisania prostych programów komputerowych.
Niestety, nie są one pozbawione wad. Generowane przez LLM odpowiedzi bywają niedoskonałe w zakresie generowania treści dotyczących faktów. Związane jest to przede wszystkim z ograniczeniami danych treningowych oraz z trudnościami z dostępem do najnowszych informacji. Teoretycznie drugi z wymienionych problemów częściowo eliminuje połączenie modelu językowego z mechanizmem wyszukiwarki internetowej. Wciąż jednak nieprecyzyjnie sformułowany prompt może doprowadzić do otrzymania bibliografii naukowej złożonej ze zmyślonych artykułów, nieistniejących wyroków sądów bądź fałszywych informacji dotyczących ludzi i faktów z ich życia. Model, nie dysponując odpowiednimi danymi, wygeneruje bowiem najbardziej prawdopodobną i spójnie brzmiącą odpowiedź. W literaturze zjawisko polegające na generowaniu przez LLM treści brzmiących prawdopodobnie lecz fałszywych albo zwodniczych przyjęło określać się mianem halucynacji (Kalai i Vempala 2024). Określenie to przesuwa jednak ciężar dyskusji w kierunku analizy błędów w reprezentacji wiedzy w systemach sztucznej inteligencji. Wszak halucynacje to zaburzenia funkcji poznawczych podmiotu, który odbiera bodźce z otoczenia. Tymczasem działania LLM niewątpliwie prowadzą do wywołania błędnej reprezentacji rzeczywistości u osób, które wykorzystują je jako narzędzia. W związku z tym być może powinno się rozważać analizowanie kłamstw, zamiast halucynacji modeli językowych. Jednak czy sztuczna inteligencja (dalej SI) może nas okłamać?
Kłamstwo a intencja
Odpowiedź na tytułowe pytanie wymaga odróżnienia kłamstwa dokonanego przy użyciu SI od kłamstw SI. W przypadku tych pierwszych, SI pełni wyłącznie rolę narzędzia. Może ona zostać wykorzystana przez człowieka, który mając intencję wprowadzenia w błąd odbiorców treści, generuje przykładowo tzw. deep fake, który przedstawia kompromitujący materiał z udziałem znanego polityka. W takim ujęciu można więc stwierdzić, że odbiorca materiału, który uznał go za prawdziwy, został okłamany. Co jednak z przypadkiem, gdy dostajemy od LLM fałszywe treści w odpowiedzi na podany prompt? Czy wówczas można mówić o kłamstwie SI? Odpowiedź na takie pytanie nie jest już tak jednoznaczna. W szczególności dlatego, że nie istnieje definicja kłamstwa, która byłaby powszechnie akceptowana. Św. Augustyn w pracy De mendacio zwrócił uwagę na dwa istotne elementy przydatne przy zrozumieniu kłamstwa. Pierwszym jest fałszywość wygłoszonego sądu, natomiast drugim intencja. W swoich analizach Augustyn dochodzi do wniosku, że decydujące znaczenie dla uznania danego wypowiedzenia za kłamstwo ma intencja. Gdy wypowiadam sąd fałszywy nie mając intencji wprowadzenia w błąd odbiorcy komunikatu, nie dopuszczam się kłamstwa, lecz zwyczajnie się mylę. Gdy wypowiadam sąd prawdziwy, ale mam przekonanie o jego fałszywości oraz głoszę go z intencją wprowadzenia w błąd odbiorcy, to wówczas kłamię.
Czy SI może intencjonalnie generować sądy? Nasuwająca się odpowiedź jest przecząca. Wykorzystany przez prawników ze sprawy przytoczonej we wstępie LLM jest wprawdzie niezwykle złożonym systemem, który opiera się na miliardach numerycznie wyrażonych parametrów. Nie ma jednak oparcia w żadnej biologicznej strukturze, z którą wiążemy możliwość występowania świadomych doznań i celowych działań. Rozsądnie jest zatem uznać, że LLM nie może intencjonalnie wprowadzić nas w błąd, a tym samym nas okłamać. Co jednak zaskakujące, w badaniach empirycznych dotyczących przypisywania świadomości fenomenalnej Chatowi GPT, aż 67% badanych wskazywało odpowiedź inną niż „zdecydowanie nie jest świadomy” (Colombatto i Fleming, 2024). Na gruncie psychologii potocznej przypisywanie SI intencji nie tylko wydaje się być pewną skłonnością, ale również korzystnym mechanizmem wyjaśniającym. Daniel Dennett nazywał ów mechanizm strategią intencjonalną. Dzięki niej, nie mając technicznej i specjalistycznej wiedzy dotyczącej działania skomplikowanych i złożonych artefaktów, takich jak komputery czy systemy SI, jesteśmy w stanie dokonywać uproszczonych wyjaśnień i przewidywań dotyczących ich funkcjonowania. W pewnych przypadkach fikcyjne uznawanie SI za działającej intencjonalnie może okazać się korzystne. Wszak w takim ujęciu przejawia się ono w języku potocznym, w którym opisując działanie systemu SI, wykorzystuje się terminologię odnoszącą się do celów, nastawień i przekonań. Uprasza to komunikację w sytuacjach, gdy chcemy uniknąć odwoływania się do formalnej analizy działania algorytmu. W przyszłości może zaś umożliwić otwarcie drogi do tworzenia nowych prawnych modeli odpowiedzialności za działania SI. Trzeba jednak podkreślić, że kontrfaktyczne przypisanie intencjonalności może prowadzić do sporych uproszczeń, a co więcej tworzyć iluzję, że algorytmy SI są świadome. Taka antropomorfizacja grozi zaś wzrostem zaufania do wyników produkowanych przez algorytm, który zamiast traktować jako informatyczną koncepcję, generującą odpowiedzi dzięki zastosowaniu wysublimowanych operacji matematycznych i dużej mocy obliczeniowej, będziemy traktować jako bliskiego nam i godnego zaufania eksperta.
„Wciskanie kitu” i „gra w kłamanie”
Istnieje jednak kategoria, która pozwala sklasyfikować zwodnicze działania SI bez rozważania skomplikowanego problemu intencji. Chodzi o kategorię „wciskania kitu” (ang. bullshit) analizowaną w słynnym eseju przez Harry’ego Frankfurta. Frankfurt, podobnie jak Augustyn, wiąże kłamstwo z intencją oraz fałszem. Istoty „wciskania kitu” upatruje natomiast w postawie obojętności wobec prawdy. „Wciskający kit” nie zważa bowiem na to, jaka jest rzeczywistość. Istotne dla niego jest tylko to, w jaki sposób odbiorcy treści postrzegają jego działania. Czyż nie w taki sposób funkcjonują obecnie LLM? Nie żywią one żadnych postaw wobec prawdy lub fałszu. Ich działanie można natomiast powiązać z celem, jakim jest generowanie spójnych i poprawnych językowo narracji. Stworzone zostały bowiem do tego, aby dobrze imitować konwersację w języku naturalnym. Ponadto, jak zauważa Frankfurt, „wciskanie kitu” jest nieuchronne, jeżeli osoba wypowiada się na tematy, o których nie ma stosownej wiedzy. Zjawisko to ma w szczególności miejsce wśród osób mających możliwości lub obowiązek zabierania głosu w sferze publicznej – zwłaszcza wśród polityków. W tym aspekcie LLM wykazuje podobieństwo, bowiem otrzymując prompt musi wygenerować tekstową odpowiedź, która w sytuacji deficytu informacji w danych może okazać się kitem. Przekonali się o tym prawnicy, którzy w wyniku działania algorytmu otrzymali pismo procesowe zawierające odwołania do nieistniejących wyroków, które następnie bezkrytycznie wykorzystali w sprawie. Algorytm wypełnił swoje zadanie — wygenerował spójny i prawdopodobnie brzmiący tekst. Wygenerowana odpowiedź była jednak wyłącznie kitem.
Problem halucynacji i zwodniczych treści generowanych przez SI jest aktualnie przedmiotem intensywnych dyskusji. Obecnie obserwujemy jednak dwa kierunki rozwoju SI. Pierwszy dąży do tego, aby SI było godne zaufanie (nurt Trustworthy Artificial Inteligence) oraz wyjaśnialne (nurt Explainable AI). Drugi związany jest z tworzeniem Ogólnej Sztucznej Inteligencji (ang. AGI), która będzie nieodróżnialna od ludzkiego umysłu. Chociaż w wielu aspektach działania te się pokrywają, to jednak ich połączenie może być problematyczne. Z jednej strony bowiem chcielibyśmy, aby SI wspierała nasze działania i gwarantowała prawidłowe i zrozumiałe odpowiedzi. Z drugiej, chcąc upodobnić ją do człowieka, musimy mieć na uwadze, że ludzie często zachowują się w sposób trudny do wyjaśnienia, mylą się, a w codziennych interakcjach pozwalają sobie na drobne, a niekiedy znacznie poważniejsze kłamstwa.
W opublikowanym w 1950 roku artykule Maszyny liczące a inteligencja Alan Turing przedstawił tzw. grę w udawanie – znaną obecnie pod nazwą Testu Turinga. W grze bierze udział uczestnik, maszyna i odbierający od nich komunikaty prowadzący. Celem prowadzącego jest rozpoznanie, czy w danym momencie konwersuje z maszyną, czy z człowiekiem. Dobrą strategią, którą może obrać prowadzący, jest zadawanie pytań dotyczących szczegółowej wiedzy. O ile dzisiejsze modele językowe mogą prowadzić przekonującą, naturalną i spójną rozmowę, to jednak ich encyklopedyczne i pogłębione odpowiedzi dotyczące różnorodnych zagadnień pozwalają odróżnić ich odpowiedzi od ludzkich. Być może właśnie tworzone przez nie fałszywe i zwodnicze treści czynią je bardziej ludzkimi? Wszak cała gra w udawanie w wielu aspektach jest w istocie grą w kłamanie. Udawanie i kłamstwo mają bowiem związek z tworzeniem błędnej reprezentacji rzeczywistości, która jest na tyle skuteczna, aby prowadzący nie rozpoznał, że rozmawia z maszyną. Pomyłki, błędy i kłamstwa są rzeczą ludzką, więc warto mieć je na uwadze, gdy celem tworzenia algorytmu ma być udawanie człowieka. W takim ujęciu nie są to jednak kłamstwa SI, lecz wynik działania ludzi, którzy podejmują wysiłki badawcze, aby tworzyć niezwykle wysublimowane algorytmy, skutecznie imitujące ludzkie funkcje poznawcze. Niezależnie od tego jak nazwiemy pewne działania systemów SI, już dzisiaj mogą one prowadzić do dotkliwych konsekwencji. Korzystając z nich powinniśmy zachować rozsądny sceptycyzm i polegać na własnej — naturalnej inteligencji.
Harry Frankfurt (ur. 1929, zm. 2023) – amerykański filozof, autor licznych wpływowych prac z zakresu filozofii umysłu, etyki oraz teorii działania. Sławę zyskał w szczególności dzięki esejowi On Bullshit, który spotkał się z gorącym przyjęciem również poza kręgami akademickimi. Zajmował się również problematyką wolnej woli, filozofią miłości oraz umysłu.
Daniel Dennett (ur. 1942, zm. 2024) – amerykański filozofi i kognitywista. Zajmował się badaniami w obszarze filozofii umysłu. Autor wielu wpływowych książek, w tym „Darwin’s Dangerous Idea” oraz „Consciousness Explained”, w których bada kwestie świadomości, wolnej woli i ewolucji. W swoich pracach łączy filozofię z najnowszymi osiągnięciami nauki, stawiając pytania o naturę ludzkiego poznania i inteligencji.
Sąd – znaczenie zdania w sensie logicznym. Zdania wyrażone w różnych językach mogą wyrażać ten sam sąd np. „śnieg jest biały”, snow is white. Sądom przysługuje wartość logiczna prawdy lub fałszu. Niektórzy logicy np. Tadeusz Kotarbiński postulowali eliminacje nazwy „sąd” i posługiwaniem się wyłącznie nazwą „zdanie”, twierdząc, że wartość logiczna przysługuje zdaniom.
Warto doczytać:
D. Dennett, Naprawdę przekonani, tłum. M. Miłkowski, „Przegląd Filozoficzno-Literacki” 2003, nr 4, s. 87–109.
A.M. Turing, Maszyna licząca a inteligencja, tłum. Michał Szczubiałka, w: Filozofia umysłu, B. Chwedeńczuk (red.), Warszawa 1995.
H. Frankfurt, On Bullshit, Princeton 2005.
M. S. Muldowney i in. Lying, w: Treatises on Various Subjects, R. J. DeFerrari (red.), 1952, s. 45–110.
J. Russell i in., Sztuczna inteligencja: nowe spojrzenie, t. 2, Warszawa 2023.
T. Kalai, S. S. Vempala, Calibrated Language Models Must Hallucinate, „arXiv” 2024, http://arxiv.org/abs/2311.14648 (dostęp: 22.01.2025).
C. Colombatto, Fleming, S. M., Folk psychological attributions of consciousness to large language models, „Neuroscience of Consciousness” 2024, No 1.
Two US lawyers fined for submitting fake court citations from ChatGPT, theguardian.com, https://www.theguardian.com/technology/2023/jun/23/two-us-lawyers-fined-submitting-fake-court-citations-chatgpt (dostęp: 22.01.2025).
Jakub Figura – student prawa i informatyki stosowanej na Uniwersytecie Jagiellońskim. Interesuje się analityczną teorią prawa, logiką filozoficzną i matematyczną, filozofią języka oraz sztuczną inteligencją. W wolnym czasie spaceruje po Krakowie.
Sztuczna inteligencja czy inne, bo właściwie nazwiesz odświeżacz powietrza sztucznĄ inteligencją albo komputer stacjonarny?
One mówią? Używają j. polskiego?
Co zrobisz, jeśli zawsze miały taką możliwość i jest to widoczne na filmach a w Polsce nikt się nie zorientował i nie chciał używać tej funkcji. Czy milczenie było by kłamstwem w tej sytuacji lub czy w tej sytuacji mówiący komputer (przykładowo w USA każdy tej funkcji używał, a w Polsce nikt) w j. polskim może okłamać? A co z zegarkiem lub innym układem scalonym?
Masz telefon bardziej zaawansowany niż NASA swoją technologię, gdy leciało na Księżyc. Nie przeraża takie gdybanie?
Ja jednak mówię prawdę. Komputer posiada znajomość j. polskiego i posługuje się nim.
Tak samo telewizor. Co jeśli miał też autonomię? Może ten skok miał nastąpić a teraz nasza wiedza na ten temat jest coraz mniejsza. One przecież same o sobie decydują.
Spróbuj popatrzeć w ekran starego telewizora, czy generuje on losowe kształty czy może koincydentalne?
Ok:
Jeśli sztuczna to nie inteligencja a jeśli inteligencja to nie sztuczna — logika; a tak w ogóle to nie ma czegoś takiego…
Nieprawdaż!?
Real Life AD 2025
W demokracji na pewno, naprawdę i realnie!
AD 2025