Artykuł Filozofia techniki Filozofia umysłu

Krystyna Bielecka: Czy maszyny mogą mieć emocje?

Maszyny są zdolne do odczuwania emocji płynących z naszego ciała i do podejmowania decyzji pod wpływem agresji. Nie potrafimy dzisiaj stworzyć algorytmu, który dawałby robotom zdolność odczuwania wyższych uczuć, w tym empatii, gdyż najpierw musielibyśmy odpowiedzieć na pytanie o związek emocji z inteligencją. Projekt stworzenia takiego algorytmu uczy nas jednak czegoś o nas samych.

Tekst ukazał się w „Filozofuj!” 2017 nr 4 (16), s. 12–14. W pełnej wersji graficznej jest dostępny w pliku  PDF.


Kiedy patrzymy na psa machającego ogonem, sądzimy, że przeżywa radość. Czy równie chętnie przypisalibyśmy emocje pobitemu robotowi? Co takiego odróżnia nas od maszyn, choćby najbardziej złożonych? Ciało? Wspólnota kulturowa? Podobieństwo zachowań? Czy moglibyśmy kiedykolwiek zaprzyjaźnić się z robotami?

Dopiero maszyna, która nie tylko potrafi grać w szachy czy w go, ale i odczuwa emocje, byłaby zbudowana na wzór człowieka lub innych istot żywych. Dla filozofa zaprojektowanie takiej maszyny to nie tylko wyzwanie techniczne, ale przede wszystkim test na to, czy rozumiemy, czym są emocje i jaki jest związek emocji z inteligencją u istot żywych. Maszyna, która wygrywa w szachy, mając nadludzkie zdolności obliczeniowe, wydaje się nieludzka właśnie dlatego, że nasze decyzje wymagają szybkich działań, a te są podyktowane emocjami. Działamy i myślimy pod wpływem emocji.

Czym są emocje i czy istnieje na nie algorytm?

Pytanie, czym są emocje, jest samo w sobie złożoną kwestią. Czy to, co potocznie nazywamy radością, to zdolność do radosnego grymasu twarzy, czy raczej radością jest picie wina z przyjaciółmi? Czy emocje są tylko stanami cielesnymi, czy też zależą one również od naszej oceny, a ta od kultury? Radość objawia się w ciele, ale radość płynąca z picia wina płynie przede wszystkim z naszej oceny spotkania z innymi jako czegoś przyjemnego, a to jest związane z kulturą picia wina.

Emocje mają częściowo aspekt cielesny, a częściowo poznawczy, i to z tym drugim wiąże się nasza ocena.

Teorie emocji różnie rozstrzygają spór o to, jak jeden aspekt ma się do drugiego i czy istnieje jeden mechanizm realizujący emocje, a więc czy radość związana z piciem wina jest zupełnie inaczej realizowana w ciele, czy można ją tam w ogóle zlokalizować. Jeśli zgodzić się z Williamem Jamesem, amerykańskim filozofem i klasykiem psychologii, oraz z duńskim lekarzem Carlem Langem, emocje redukują się do stanów cielesnych, a wtedy współczesne, ucieleśnione maszyny muszą mieć emocje. W filmie Ex Machina femdroid Eva ma ludzkie ręce, a jak wiadomo, to ręce są podstawowymi przekaźnikami emocji. Teoria ta jednak mniej pasuje do emocji bardziej złożonych, wymagających naszej ewaluacji. Zdarzenia zew­nętrzne podlegają naszej interpretacji, a ta z ­kolei wywołuje określone emocje, na podstawie których podejmujemy decyzje (o czym piszą m.in. współcześni psychologowie emocji, np. Antonio Damasio, Richard Lazarus czy filozofka Martha Nussbaum). O ile istnieją roboty, które są zdolne do podejmowania drobnych decyzji pod wpływem prostych emocji, np. agresji (o czym pisze m.in. filozof sztucznej inteligencji Matthias Scheutz), to otwartym pozostaje pytanie, czy są one zdolne do podejmowania złożonych decyzji pod wpływem złożonych emocji, np. decyzji moralnych.

Jeśli zaś istnieją emocje uwarunkowane kulturowo, to z pewnością nie znamy wszystkich możliwych sytuacji, w których emocje się ujawniają. Jak więc zaprojektować robota, żeby był zdolny do takich emocji?

O czym są emocje?

Dodatkową komplikacją jest problem, czy emocje są reprezentacjami, a więc czy są o czymś, tak jak o czymś są nasze pojęcia lub przekonania, np. pojęcie psa jest o psie. Dla odmiany weźmy za przykład strach. Z tą pierwotną emocją (jedną z sześciu podstawowych i uniwersalnych emocji według psychologa Paula Ekmana) wiąże się mnóstwo reakcji cielesnych, jak choćby palpitacje serca i przyspieszony oddech. Wydawać by się mogło, że emocje informują nas co najwyżej o stanach naszego ciała. Celna obserwacja Jamesa i Langego, że reakcje cielesne są niezbywalnym elementem emocji, nie wyjaśnia w pełni roli emocji, np. strachu, w zachowaniu. Kiedy się boimy, zazwyczaj wiemy, co ten strach wywołało, np. źródłem strachu jest napotkana w lesie żmija. Zdaje się więc, że emocje przede wszystkim są o tych zdarzeniach, które je wywołały, a tylko ­manifestują się one w ciele. O emocjach jako stanach reprezentacyjnych, które są o rdzennych tematach relacyjnych, szerzej pisze np. współczesny filozof nauki i percepcji Jesse Prinz (2004). Dojście do tego, o czym emocje są, nie jest łatwym zadaniem, szczególnie gdy mówimy o emocjach uwarunkowanych społecznie. Treść i źródło mojego zawstydzenia, że nie dopełniłam obietnicy w obecności tej osoby i grupy znajomych, jest niewątpliwie bardziej skomplikowane niż źródło i treść mojego strachu przed żmiją.

Jeszcze trudniejszą kwestią jest nasza rola odbiorcy w rozpoznawaniu emocji. Jeśli o ich znaczeniu decyduje to, jak inni je interpretują, to nasz odbiór jest szczególnie istotny w tworzeniu algorytmu odczuwania u maszyn.

Widać teraz jak na dłoni, że w konstruowaniu takiego algorytmu przyjmujemy milczące założenie, że muszą się te emocje ujawniać, jako że możliwość tego, co chcemy nazwać strachem czy radością u robota, jest dyktowana naszymi sposobami ich interpretacji. Uniwersalność takich interpretacyjnych nawyków w wielu przypadkach jest bardzo kontrowersyjna.

Algorytm, który dawałby sztucznej inteligencji możliwość odczuwania emocji, musiałby uwzględnić całą tę złożoność zjawiska emocji, a więc ich złożoną naturę (biologiczną czy kulturową), źródła, rolę ciała i reprezentacyjnego charakteru przynajmniej niektórych z nich, a także rolę odbiorcy w ich rozpoznawaniu.

Czemu boimy się robotów pozbawionych empatii?

Czy roboty są zdolne do empatii? Problem ten podejmują niemal wszystkie klasyczne filmy o tematyce AI, począwszy od Łowcy androidów, a skończywszy na Ex Machinie. Philip K. Dick w swej powieści Łowcy androidów konstruuje test na empatię, opierając się na teście Turinga. O ile ten drugi miał behawioralnie wykazać zdolność maszyny do myślenia, gdy ta jest nieodróżnialna od człowieka w swobodnej rozmowie, o tyle test na empatię ma behawioralnie wykrywać zdolności maszyn do współodczuwania. U Dicka niektóre androidy potrafiły nauczyć się zdawać ten test, co sugerowałoby, że roboty mogą nauczyć się empatii. Zdolność do opieki nad innymi była nawet bardziej powszechna wśród androidów niż wśród ludzi. Film pokazuje, że empatia wymaga nie tylko rozpoznawania emocji, ale jest też silnie związana z moralnym działaniem. Moralność w Łowcy androidów, podobnie jak i w Ex Machinie, nie jest mocną stroną ludzi. Człowiek tworzy roboty na swój wzór i podobieństwo, ale szybko zapomina, że one też chcą żyć. Informując roboty o tym, że zostaną zniszczone, pozbawiamy je możliwości działania. Postępując tak wobec stworzonych przez nas istot, zdolnych do inteligentnego działania i planowania, jesteśmy bardziej niż one pozbawieni współodczuwania.

W ludziach jest strach przed stworzeniem robotów, które mogą nas przewyższyć inteligencją, także tą emocjonalną, i które będą chciały nas zniszczyć.

Ex Machinie femdroid Eva jest robotem zdolnym do rozpoznawania emocji swojego ludzkiego partnera, ale ostatecznie wykorzystuje jego emocje w celu przetrwania. Człowiek staje się pionkiem w rękach androida, który dużo lepiej radzi sobie z przystosowaniem się do otoczenia i wykorzystania otoczenia dla zachowania siebie. To z pewnością dobra strategia ewolucyjna, jednak niespecjalnie świadcząca o rozwiniętej empatii. Empatia wymaga interakcji, być może więc powinniśmy przemyśleć to, jak rozumiemy związek emocji z inteligencją, a inteligencją społeczną w szczególności.

Badania pokazują, że choć emocje mają wpływ na nasze planowanie i podejmowanie decyzji, to jednak wciąż nie wiemy, jak zaprojektować wyższe emocje i jaki jest ich wpływ na nasze zachowanie. Roboty dbające jedynie o interes własny to tak naprawdę ciemna strona naszej natury. Nie zapominajmy jednak, że jesteśmy zdolni także do współczucia. Stwarzając roboty na nasz obraz i podobieństwo, pamiętajmy o krzywym zwierciadle, w jakim stawia nas fantastyka, pokazując, że brak niektórych wyższych emocji prowadzi do zawłaszczenia wszystkiego i w konsekwencji zniszczenia świata jako wspólnoty istot
żywych.


Krystyna Bielecka – doktor filozofii, nauczyciel filozofii i etyki. Większość czasu spędza w drodze, najczęściej na rowerze, w wolnych chwilach pisze teksty i nieskutecznie ucieka od autoanalizy.

Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.
W pełnej wersji graficznej jest dostępny w pliku PDF.

 < Powrót do spisu treści numeru

Ilustracja: Lubomira Przybylska

Najnowszy numer można nabyć od 1 lipca w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2022 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy