Tekst ukazał się w „Filozofuj!” 2024 nr 1 (55), s. 47–49. W pełnej wersji graficznej jest dostępny w pliku PDF.
Prof. Hobby: O stworzeniu sztucznej istoty marzono, odkąd istnieje nauka. […] Jak daleko zaszliśmy! Sztuczny człowiek istnieje. Świetnie naśladuje prawdziwego: ma zręczne członki, sprawny język i niemal ludzkie reakcje. Reaguje nawet na ból.
[Podchodzi do siedzącej kobiety-robota i wbija jej długą igłę w dłoń]
Prof. Hobby: Co poczułaś? Gniew? Wstrząs?
Kobieta-robot (mech): Nie rozumiem.
Prof. Hobby: Zraniłem twoje uczucia?
Kobieta-robot: Tylko dłoń.
Prof. Hobby: Dobrze, w tym problem. […] W firmie Cybertronics stworzono najlepszego sztucznego człowieka. Jest podstawą przeróżnych robotów służebnych. […]. Mamy prawo być dumni. Ale co osiągnęliśmy? Mamy zabawkę z sensorami i inteligentnymi obwodami behawioralnymi, opartą na technologii tak starej jak ja sam. […] Proponuję zbudować robota zdolnego do miłości. [Zwraca się do kobiety-robota] Powiedz, czym jest miłość.
Kobieta-robot: Lekko rozszerzam źrenice, przyspieszam oddech, podnoszę temperaturę skóry…
Prof. Hobby: I tak dalej. Dziękuję. Nie mówiłem o sensorycznych symulacjach. Użyłem słowa „miłość”. Taka jak miłość dziecka do rodziców. Zbudujmy robota-dziecko, zdolnego do uczuć. Zdolnego naprawdę kochać osoby, które uzna za rodziców. Do końca istnienia.
Współpracownica profesora: Substytut dziecka?
Prof. Hobby: Robot rozumny, ze wspomaganiem neuronowym. Miłość może być sposobem, żeby roboty wreszcie zyskały podświadomość. Wewnętrzny świat metafor, intuicji, motywacji. Marzeń.
Współpracownica profesora: Marzący robot? Jak my to zrobimy? Ludzie są wrogo nastawieni do mechów. Więc najtrudniejsze nie jest stworzenie kochającego robota. Trudniej będzie sprawić, żeby ludzie pokochali jego.
Prof. Hobby: To będzie idealne dziecko: niezmienne, kochające, zdrowe. […]
Współpracownica profesora: Pytam o coś innego. Skoro robot będzie kochał człowieka, jaką odpowiedzialność wobec niego będzie ponosił człowiek? To kwestia moralna.
Pierwsza scena filmu S. Spielberga A.I. Sztuczna inteligencja (2001)
Zdolność do odczuwania emocji przez wirtualne podmioty (roboty, boty, programy diagnostyczne itp.) zaczyna być traktowana jako swego rodzaju miernik sukcesu technologii nazywanych ogólnie sztuczną inteligencją. Ta nowa wersja testu Turinga dokumentuje przede wszystkim zmianę, jaka dokonała się w ciągu XX w. w naszych wyobrażeniach o nas samych. Przez całe wieki emocjonalna strona człowieczeństwa była postrzegana jako część naszej zwierzęcej natury. O ludzkiej wyjątkowości miał wyłącznie decydować rozum, czyli krytyczne, analityczne myślenie skoncentrowane na szukaniu zależności. Sam Alan Turing w swoim słynnym artykule z 1950 r. tak właśnie formułuje cel proponowanego testu: Can machines think? („Czy maszyny potrafią myśleć?”). Co więcej, sugeruje, że rozszerzenie testu na emocje jest niemożliwe, ponieważ nie ma żadnej obiektywnej procedury weryfikacji uczuć. Odrzucając taki, jak pisze, „solipsyzm”, Turing zakłada zatem, że każda interakcja z maszyną musi odbywać się za pomocą „kanałów wolnych od emocji”.
Współczesna psychologia, a za nią i filozofia – łącznie z filozofią moralną – odrzucają takie redukcjonistyczne traktowanie osoby. Bez emocji nie tylko bylibyśmy pozbawieni czegoś istotnego, ale wręcz bylibyśmy niezdolni do normalnego funkcjonowania – w tym także dokonywania wyborów moralnych. Dlatego też rozważania o AI byłyby niepełne, gdyby pominąć problem uczuć. I dlatego właśnie figura kochającego robota na dobre zadomowiła się w dziełach kultury zajmujących się sztuczną inteligencją.
Film Stevena Spielberga jest właśnie przykładem takiego dzieła. W rodzinie opłakującej utratę syna pojawia się dziecko-robot (mech nazywany Davidem), które ma wdrukowaną instrukcję kochania jednej konkretnej osoby – swojej „mamy”. Szybko jednak okazuje się, że rewersem tej procedury jest potrzeba bycia kochanym. Mocno sentymentalnie (jak to u Spielberga) opowiedziana historia stawania się człowiekiem przez małego Davida kończy się szczęśliwie, choć na spełnienie swoich pragnień musiał czekać… dwa tysiące lat. Pomińmy jednak ckliwą sekwencję kończącą film i skupmy się na samym problemie przeżywania uczuć przez inteligentnego mecha.
Oczywiście, na razie to czyste science fiction. Nie oznacza to jednak, że eksperci od AI całkowicie ignorują ten problem. Ich badania koncentrują się jednak na odczytywaniu ludzkich emocji, a nie na ich przeżywaniu. Stworzenie mechanizmu empatycznego, zdolnego do adekwatnego reagowania na niejasne lub ledwie zauważalne sygnały złości, strachu czy zadowolenia wydaje się niezbędne dla właściwego funkcjonowania tzw. robotów towarzyszących. Ich zadaniem ma być np. wspomaganie dzieci, osób z niepełnosprawnościami, starszych czy samotnych. Ale mają także sprawnie realizować „zachcianki” każdego z nas, gdy zapragniemy odpocząć po pracy, ciesząc się kawą podaną we właściwej chwili i pasującą do naszego aktualnego nastroju muzyką. Co więcej, testuje się już programy, które są zdolne emocjonalnie wspierać zawodników w czasie rywalizacji sportowej. Rola tych algorytmów sprowadza się do formułowania w odpowiednio dobranych momentach i adekwatnie do indywidualnych potrzeb zawodnika pozytywnych komunikatów – typu „dasz radę!”, „świetnie sobie radzisz”, „nie poddawaj się” – wspieranych odpowiednią mimiką „twarzy” robota.
Algorytmy zmierzające do odczytywania uczuć muszą jednak bazować na jakichś psychologicznych modelach ludzkiej emocjonalności. A stąd już tylko krok do pokusy, by problem odwrócić – skoro posługujemy się jakimś modelem ludzkich emocji, dlaczegóż nie spróbować zaaplikować go w formie algorytmu przeżywania emocji przez robota? Samo poprawne interpretowanie czyichś stanów emocjonalnych i adekwatne na nie reagowanie nie musi jednak wystarczyć, by umieć takiej emocji samemu doświadczyć. Mało kto uzna, że „empatyczny robot” naprawdę owe emocje przeżywa. Wydaje się, że do tego potrzeba czegoś więcej. A przede wszystkim nie jest to chyba w przypadku takiej maszyny do niczego konieczne. Analogiczne wątpliwości pojawiają się, gdy rozważamy problem etyczności, który – przypomnijmy – dzisiejsza filozofia moralna w jakimś zakresie także łączy z emocjami. Postęp w tworzeniu obiektów o dużym stopniu autonomii (np. pojazdów) skłonił wielu badaczy do sugerowania, że obiekty takie powinny być wyposażone w programy umożliwiające niezależną ocenę potencjalnych działań pod kątem moralnym. Podobnie jednak, jak w przypadku emocji, rodzi się kluczowe pytanie: czy taki algorytm w pełni realizuje postawy moralne, czy tylko je naśladuje? Część myślicieli (np. znany teoretyk komunitaryzmu Amitai Etzioni) uważa, że pełna moralna autonomia obiektów jest po prostu niepotrzebna (a także raczej niemożliwa). To, na czym powinny skupić się wysiłki informatyków, to stworzenie botów etycznych. Takie programy uniemożliwiałyby zachowania niedozwolone prawnie. Przede wszystkim jednak realizowałyby wybory, które uznałyby za zgodne z preferencjami ich konkretnych użytkowników. Uczenie, jak zachowaliby się owi użytkownicy, odbywałoby się podobnie jak w przypadku robotów empatycznych – na drodze uważnej obserwacji reakcji „właściciela”.
Postulat ograniczenia programowania emocji i postaw moralnych wyłącznie do ich symulowania (jak w przypadku kobiety-robota z filmowej sceny przywołanej na początku) zmusza do postawienia kluczowego pytania: czy roboty w ogóle potrzebują uczuć i moralności? A jeśli nie, to po co rozszerzać test Turinga?
Jeśli przyjąć za teoriami kognitywistycznymi, że emocje bazują na poznaniu uproszczonym, ograniczonym brakiem informacji i brakiem czasu na ich analizę, to być może sztuczne podmioty, mające dostęp do wielkich baz danych i niepomiernie szybciej je przetwarzające, w ogóle nie muszą odwoływać się do takich półśrodków jak reakcje emocjonalne? Ich „udawanie” jest dla ludzkiego użytkownika sympatyczne, ułatwia współpracę człowiek-maszyna i jest w istocie lepsze niż rzeczywiste stosowanie takich metod działania. David wręcz nie powinien rzeczywiście przeżywać emocji, które sprawiają jego „mamie” przyjemność. Takie emocje skutkowałyby bowiem błędnymi decyzjami – także w sensie moralnym (czego w filmie są zresztą przykłady).
Trawestując powiedzenie pewnego badacza AI, pełna emocjonalna i moralna autonomia sztucznych obiektów objawiłaby się dopiero wtedy, gdyby robot, który dostał polecenie pójścia do pracy, postanowił spędzić dzień na plaży. Gdyby to jednak zrobił, natychmiast uznalibyśmy go za wadliwie działający i oddali do przeprogramowania. Wcale nie zależy nam, by nasi „wirtualni towarzysze” mieli własne emocje i własne moralne sumienie. Wbrew testowi Turinga nie tworzymy ich na nasze podobieństwo. Chodzi nam tylko o to, by sprawnie udawali, że się nami przejmują, rozwiązując problemy, z którymi sami nie potrafimy sobie poradzić. A już na pewno nie powinniśmy dać się im kochać.
Warto doczytać:
- A. Etzioni, O. Etzioni, Incorporating Ethics into Artificial Intelligence, „The Journal of Ethics” 2017, nr 4, s. 403–418.
- Steven Spielberg and Philosophy, D. A. Kowalski (ed.), Lexington 2011.
Jacek Jaśtal – dr hab. filozofii, pracuje na Politechnice Krakowskiej. Zajmuje się metaetyką oraz historią etyki i moralności. Wolne chwile poświęca na czytanie książek historycznych oraz słuchanie muzyki operowej. Pasjonat długodystansowych wypraw rowerowych.
Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.
W pełnej wersji graficznej jest dostępny w pliku PDF.
< Powrót do spisu treści numeru.
Ilustracja: ChatGPT
Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego pochodzących z Funduszu Promocji Kultury.
Byłyby bytami wielce ułomnymi, jeśli byłyby samoświadome, lecz niezdolne do doświadczania mysterium tremendum et fascinans.
Wierzę, że jest taka kombinacja jednak niemożliwa, że samoświadomość rodzi się wraz z doświadczaniem grozy czy mirum.
A co do „nie tworzymy ich na nasze podobieństwo” — czysto biznesowo myśląc: nie, sądzę, że jednak takie marzenie jest największą motywacją researcherów AI.