Artykuł Epistemologia

Krystyna Bielecka: Czy maszyny mogą mieć emocje?

Maszyny są zdolne do odczuwania emocji płynących z naszego ciała i do podejmowania decyzji pod wpływem agresji. Nie potrafimy dzisiaj stworzyć algorytmu, który dawałby robotom zdolność odczuwania wyższych uczuć, w tym empatii, gdyż najpierw musielibyśmy odpowiedzieć na pytanie o związek emocji z inteligencją. Projekt stworzenia takiego algorytmu uczy nas jednak czegoś o nas samych.

Najnowszy numer: Nowy człowiek?

Zapisz się do newslettera:

---

Filozofuj z nami w social media

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2017 można zamówić > tutaj.

Magazyn można też nabyć od 23 listopada w salonikach prasowych wielu sieci. Szczegóły zob. > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „TUTAJ”.

Tekst ukazał się w „Filo­zo­fuj” 2017 nr 4 (16), s. 12–14. W pełnej wer­sji graficznej jest dostęp­ny w pliku  PDF.


Kiedy patrzymy na psa macha­jącego ogonem, sądz­imy, że przeży­wa radość. Czy równie chęt­nie przyp­isal­ibyśmy emoc­je pobite­mu robot­owi? Co takiego odróż­nia nas od maszyn, choć­by najbardziej złożonych? Ciało? Wspól­no­ta kul­tur­owa? Podobieńst­wo zachowań? Czy moglibyśmy kiedykol­wiek zaprzy­jaźnić się z rob­o­t­a­mi?

Dopiero maszy­na, która nie tylko potrafi grać w szachy czy w go, ale i odczuwa emoc­je, była­by zbu­dowana na wzór człowieka lub innych istot żywych. Dla filo­zo­fa zapro­jek­towanie takiej maszyny to nie tylko wyzwanie tech­niczne, ale przede wszys­tkim test na to, czy rozu­miemy, czym są emoc­je i jaki jest związek emocji z inteligencją u istot żywych. Maszy­na, która wygry­wa w szachy, mając nad­ludzkie zdol­noś­ci obliczeniowe, wyda­je się nie­ludz­ka właśnie dlat­ego, że nasze decyz­je wyma­ga­ją szy­b­kich dzi­ałań, a te są podyk­towane emoc­ja­mi. Dzi­ałamy i myślimy pod wpły­wem emocji.

Czym są emocje i czy istnieje na nie algorytm?

Pytanie, czym są emoc­je, jest samo w sobie złożoną kwest­ią. Czy to, co potocznie nazy­wamy radoś­cią, to zdol­ność do rados­nego gry­ma­su twarzy, czy raczej radoś­cią jest picie wina z przy­jaciół­mi? Czy emoc­je są tylko stana­mi cielesny­mi, czy też zależą one również od naszej oce­ny, a ta od kul­tu­ry? Radość objaw­ia się w ciele, ale radość płyną­ca z picia wina płynie przede wszys­tkim z naszej oce­ny spotka­nia z inny­mi jako czegoś przy­jem­nego, a to jest związane z kul­turą picia wina.

Emoc­je mają częś­ciowo aspekt cielesny, a częś­ciowo poz­naw­czy, i to z tym drugim wiąże się nasza oce­na.

Teorie emocji różnie rozstrzy­ga­ją spór o to, jak jeden aspekt ma się do drugiego i czy ist­nieje jeden mech­a­nizm real­izu­ją­cy emoc­je, a więc czy radość związana z piciem wina jest zupełnie inaczej real­i­zowana w ciele, czy moż­na ją tam w ogóle zlokali­zować. Jeśli zgodz­ić się z Williamem Jame­sem, amerykańskim filo­zofem i klasykiem psy­chologii, oraz z duńskim lekarzem Car­lem Langem, emoc­je reduku­ją się do stanów cielesnych, a wtedy współczesne, ucieleśnione maszyny muszą mieć emoc­je. W filmie Ex Machi­na fem­droid Eva ma ludzkie ręce, a jak wiado­mo, to ręce są pod­sta­wowy­mi przekaźnika­mi emocji. Teo­ria ta jed­nak mniej pasu­je do emocji bardziej złożonych, wyma­ga­ją­cych naszej ewalu­acji. Zdarzenia zew­nętrzne podle­ga­ją naszej inter­pre­tacji, a ta z ­kolei wywołu­je określone emoc­je, na pod­staw­ie których pode­j­mu­je­my decyz­je (o czym piszą m.in. współcześni psy­chol­o­gowie emocji, np. Anto­nio Dama­sio, Richard Lazarus czy filo­zof­ka Martha Nuss­baum). O ile ist­nieją robo­ty, które są zdolne do pode­j­mowa­nia drob­nych decyzji pod wpły­wem prostych emocji, np. agresji (o czym pisze m.in. filo­zof sztucznej inteligencji Matthias Scheutz), to otwartym pozosta­je pytanie, czy są one zdolne do pode­j­mowa­nia złożonych decyzji pod wpły­wem złożonych emocji, np. decyzji moral­nych.

Jeśli zaś ist­nieją emoc­je uwarunk­owane kul­tur­owo, to z pewnoś­cią nie znamy wszys­t­kich możli­wych sytu­acji, w których emoc­je się ujaw­ni­a­ją. Jak więc zapro­jek­tować rob­o­ta, żeby był zdol­ny do takich emocji?

O czym są emocje?

Dodatkową kom­p­likacją jest prob­lem, czy emoc­je są reprezen­tac­ja­mi, a więc czy są o czymś, tak jak o czymś są nasze poję­cia lub przeko­na­nia, np. poję­cie psa jest o psie. Dla odmi­any weźmy za przykład stra­ch. Z tą pier­wot­ną emocją (jed­ną z sześ­ciu pod­sta­wowych i uni­w­er­sal­nych emocji według psy­cholo­ga Paula Ekmana) wiąże się mnóst­wo reakcji cielesnych, jak choć­by pal­pi­tac­je ser­ca i przyspies­zony odd­ech. Wydawać by się mogło, że emoc­je infor­mu­ją nas co najwyżej o stanach naszego ciała. Cel­na obserwac­ja Jame­sa i Langego, że reakc­je cielesne są niezby­wal­nym ele­mentem emocji, nie wyjaś­nia w pełni roli emocji, np. stra­chu, w zachowa­niu. Kiedy się boimy, zazwyczaj wiemy, co ten stra­ch wywołało, np. źródłem stra­chu jest napotkana w lesie żmi­ja. Zda­je się więc, że emoc­je przede wszys­tkim są o tych zdarzeni­ach, które je wywołały, a tylko ­man­i­fes­tu­ją się one w ciele. O emoc­jach jako stanach reprezen­ta­cyjnych, które są o rdzen­nych tem­at­ach rela­cyjnych, szerzej pisze np. współczes­ny filo­zof nau­ki i per­cepcji Jesse Prinz (2004). Dojś­cie do tego, o czym emoc­je są, nie jest łatwym zadaniem, szczegól­nie gdy mówimy o emoc­jach uwarunk­owanych społecznie. Treść i źródło mojego zaw­sty­dzenia, że nie dopełniłam obiet­ni­cy w obec­noś­ci tej oso­by i grupy zna­jomych, jest niewąt­pli­wie bardziej skom­p­likowane niż źródło i treść mojego stra­chu przed żmi­ją.

Jeszcze trud­niejszą kwest­ią jest nasza rola odbior­cy w rozpoz­nawa­niu emocji. Jeśli o ich znacze­niu decy­du­je to, jak inni je inter­pre­tu­ją, to nasz odbiór jest szczegól­nie istot­ny w tworze­niu algo­ryt­mu odczuwa­nia u maszyn.

Widać ter­az jak na dłoni, że w kon­struowa­niu takiego algo­ryt­mu przyj­mu­je­my mil­czące założe­nie, że muszą się te emoc­je ujaw­ni­ać, jako że możli­wość tego, co chce­my nazwać stra­chem czy radoś­cią u rob­o­ta, jest dyk­towana naszy­mi sposoba­mi ich inter­pre­tacji. Uni­w­er­sal­ność takich inter­pre­ta­cyjnych nawyków w wielu przy­pad­kach jest bard­zo kon­trow­er­syj­na.

Algo­rytm, który dawał­by sztucznej inteligencji możli­wość odczuwa­nia emocji, musi­ał­by uwzględ­nić całą tę złożoność zjawiska emocji, a więc ich złożoną naturę (bio­log­iczną czy kul­tur­ową), źródła, rolę ciała i reprezen­ta­cyjnego charak­teru przy­na­jm­niej niek­tórych z nich, a także rolę odbior­cy w ich rozpoz­nawa­niu.

Czemu boimy się robotów pozbawionych empatii?

Czy robo­ty są zdolne do empatii? Prob­lem ten pode­j­mu­ją niemal wszys­tkie klasy­czne filmy o tem­atyce AI, począwszy od Łow­cy androidów, a skończy­wszy na Ex Machinie. Philip K. Dick w swej powieś­ci Łow­cy androidów kon­stru­u­je test na empatię, opier­a­jąc się na teś­cie Turinga. O ile ten dru­gi miał behaw­io­ral­nie wykazać zdol­ność maszyny do myśle­nia, gdy ta jest nieo­dróż­nial­na od człowieka w swo­bod­nej roz­mowie, o tyle test na empatię ma behaw­io­ral­nie wykry­wać zdol­noś­ci maszyn do współod­czuwa­nia. U Dic­ka niek­tóre androidy potrafiły nauczyć się zdawać ten test, co sug­erowało­by, że robo­ty mogą nauczyć się empatii. Zdol­ność do opie­ki nad inny­mi była nawet bardziej powszech­na wśród androidów niż wśród ludzi. Film pokazu­je, że empa­tia wyma­ga nie tylko rozpoz­nawa­nia emocji, ale jest też sil­nie związana z moral­nym dzi­ałaniem. Moral­ność w Łow­cy androidów, podob­nie jak i w Ex Machinie, nie jest moc­ną stroną ludzi. Człowiek tworzy robo­ty na swój wzór i podobieńst­wo, ale szy­bko zapom­i­na, że one też chcą żyć. Infor­mu­jąc robo­ty o tym, że zostaną zniszc­zone, pozbaw­iamy je możli­woś­ci dzi­ała­nia. Postępu­jąc tak wobec stwor­zonych przez nas istot, zdol­nych do inteligent­nego dzi­ała­nia i planowa­nia, jesteśmy bardziej niż one pozbaw­ieni współod­czuwa­nia.

W ludzi­ach jest stra­ch przed stworze­niem robot­ów, które mogą nas przewyższyć inteligencją, także tą emocjon­al­ną, i które będą chci­ały nas zniszczyć.

Ex Machinie fem­droid Eva jest robot­em zdol­nym do rozpoz­nawa­nia emocji swo­jego ludzkiego part­nera, ale ostate­cznie wyko­rzys­tu­je jego emoc­je w celu przetr­wa­nia. Człowiek sta­je się pio­nkiem w rękach androi­da, który dużo lep­iej radzi sobie z przys­tosowaniem się do otoczenia i wyko­rzys­ta­nia otoczenia dla zachowa­nia siebie. To z pewnoś­cią dobra strate­gia ewolucyj­na, jed­nak niespec­jal­nie świad­czą­ca o rozwiniętej empatii. Empa­tia wyma­ga inter­akcji, być może więc powin­niśmy prze­myśleć to, jak rozu­miemy związek emocji z inteligencją, a inteligencją społeczną w szczegól­noś­ci.

Bada­nia pokazu­ją, że choć emoc­je mają wpływ na nasze planowanie i pode­j­mowanie decyzji, to jed­nak wciąż nie wiemy, jak zapro­jek­tować wyższe emoc­je i jaki jest ich wpływ na nasze zachowanie. Robo­ty dba­jące jedynie o interes włas­ny to tak naprawdę ciem­na strona naszej natu­ry. Nie zapom­i­na­jmy jed­nak, że jesteśmy zdol­ni także do współczu­cia. Stwarza­jąc robo­ty na nasz obraz i podobieńst­wo, pamię­ta­jmy o krzy­wym zwier­ci­a­dle, w jakim staw­ia nas fan­tasty­ka, pokazu­jąc, że brak niek­tórych wyższych emocji prowadzi do zawłaszczenia wszys­tkiego i w kon­sek­wencji zniszczenia świa­ta jako wspól­no­ty istot
żywych.


Krysty­na Bielec­ka – Dok­tor filo­zofii, nauczy­ciel filo­zofii i ety­ki. Więk­szość cza­su spędza w drodze, najczęś­ciej na row­erze, w wol­nych chwilach pisze tek­sty i nieskutecznie ucieka od autoanal­izy.

Tekst jest dostęp­ny na licencji: Uznanie autorstwa-Na tych samych warunk­ach 3.0 Pol­s­ka.
W pełnej wer­sji graficznej jest dostęp­ny w pliku PDF.

 < Powrót do spisu treś­ci numeru

Ilus­trac­ja: Lubomi­ra Przy­byl­s­ka

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy