Filozofowie Eric Schwitzgebel, Anna Strasser i Matthew Crosby opracowali eksperyment, w którym wyszkolili sieć neuropodobną, stanowiącą model językowy oparty na uczeniu głębokim (GPT‑3, opracowany przez laboratorium OpenAI) do generowania tekstu mającego naśladować fragmenty dzieł Daniela Dennetta (za zgodą filozofa).
Podstawowym materiałem, na którym wytrenowano sieć, były odpowiedzi Dennetta na szereg pytań filozoficznych (np. dotyczących wolnej woli i istoty jaźni, tego, czy psy i szympansy odczuwają ból, a nawet ulubionych aspektów myśli Davida Chalmersa). Odpowiedzi filozofa na wybrane pytania oraz te wygenerowane przez model zostały przedstawione uczestnikom. Ich zadaniem było rozróżnienie, które cztery z pięciu wypowiedzi pochodzą od sztucznej inteligencji, a której autorem jest Dennett.
Pula uczestników składała się z trzech grup:
- 302 przypadkowych czytelników filozoficznego bloga jednego z autorów eksperymentu,
- 98 absolwentów różnych kierunków studiów z internetowej platformy badawczej Prolific,
- 25 uznanych ekspertów zajmujących się myślą Dennetta.
Uczestnicy badania z drugiej grupy sprawdzili się w zadaniu niewiele lepiej od poziomu wyboru losowego (średnio 1,2 trafienia na 5; zgadywanie to: 1 trafienie na 5). Zgodnie z oczekiwaniami odpowiedzi filozofa najtrafniej identyfikowali badani z grupy trzeciej, przy czym czytelnicy bloga poradzili sobie porównywalnie do ekspertów. Średni wynik znawców myśli Dennetta stanowił jednak tylko 5,1 poprawnych odpowiedzi na 10, co oznacza, że model potrafił zmylić ich dość często. Być może w przyszłości badaczom udałoby się stworzyć AI przystosowaną do formuły Testu Turinga, pozwalającą na złożoną interakcję, która przypominałaby filozoficzną dyskusję z Dennettem.
A czy Wy dalibyście się zmylić „sztucznemu Dennettowi”? Możecie sami sprawdzić > tutaj!
Opracowanie: Mira Zyśko
Źródła: Artykuł w vice.com, wpis w The Splintered Mind
Skomentuj