Antropologia Artykuł Etyka Filozofia w filmie

Anna Hamanowicz: Granice człowieczeństwa

Czy mamy obowiązki moralne wobec sztucznej inteligencji? Rozwalenia laptopa młotkiem nikt nie nazwałby morderstwem. Dlaczego więc zniszczenie do złudzenia przypominającego człowieka robota miałoby mieć jakiekolwiek konsekwencje moralne? Co się stanie, gdy dojdziemy do takiego zaawansowania w technologii, że nasze roboty faktycznie zaczną być nieodróżnialne od ludzi?

Najnowszy numer: Kim jest osoba?

Zapisz się do newslettera:

---

Filozofuj z nami w social media

Najnowszy numer można nabyć od 1 sierpnia w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2018 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Tekst ukazał się w „Filo­zo­fuj” 2017 nr 6 (18), s. 46–47. W pełnej wer­sji graficznej jest dostęp­ny w pliku  PDF.


Miłość do grobowej deski (i jeszcze dalej)

Pada deszcz. Chłopak o imie­niu Ash siedzi w samo­chodzie, przeglą­da wiado­moś­ci na tele­fonie, odpisu­je na niek­tóre, jest zupełnie pogrążony w zamieszcza­niu coraz to więk­szej iloś­ci pry­wat­nych danych w sieci. Nie od razu słyszy swo­ją dziew­czynę, Marthę, która przyniosła dwie kawy i moknie przed samo­cho­dem. Wresz­cie reflek­tu­je się, otwiera drzwi i wpuszcza ją. Okaże się to ich ostat­nią wspól­ną jazdą samo­cho­dem. Następ­nego dnia chłopak nie wraca z pra­cy. Dziew­czy­na odchodzi od zmysłów, dzwoni po zna­jomych, aż do jej drzwi puka san­i­tar­iusz. Na pogrze­bie koleżan­ka pro­ponu­je zdruz­gotanej dziew­czynie sko­rzys­tanie z aplikacji zbier­a­jącej wszys­tkie infor­ma­c­je zamieszczane w medi­ach społecznoś­ciowych i tworzącej na ich pod­staw­ie symu­la­tor, dzię­ki które­mu Martha będzie mogła roz­maw­iać ze swoim zmarłym ukochanym. Pomi­mo oporów wresz­cie decy­du­je się spróbować. Niedłu­go roz­mowa ze sztucznie odt­wor­zonym Ashem – najpierw pisem­na, potem też głosowa – prz­er­adza się w testowanie wer­sji demo androi­da do złudzenia przy­pom­i­na­jącego chłopa­ka.

Granice iluzji

Tak moż­na streś­cić w kilku zda­ni­ach odcinek seri­alu Czarne lus­tro (ang. Black Mir­ror) zaty­tułowany Zaraz wracam (Be Right Back). Każdy odcinek seri­alu anal­izu­je i prog­nozu­je, jak tech­nolo­gia może wpłynąć na nasze życie. Zaraz wracam jest świet­ną anal­izą psy­chi­ki żałob­ni­ka i granic, jakie jest on gotów przekroczyć, byle tylko odzyskać stra­coną ukochaną osobę.

Odcinek staw­ia całe mnóst­wo pytań natu­ry moral­nej. Czy nasza akty­wność w sieci będzie wyko­rzysty­wana do tworzenia symu­la­torów? Po częś­ci już jest wyko­rzysty­wana do dobiera­nia reklam dos­tosowanych do naszych wyszuki­wań. Czy opra­cow­anie aplikacji, które stworzą łudzącą kopię zmarłego, nie doprowadzi do uza­leżnienia od tkwienia w przeszłoś­ci i braku możli­woś­ci pójś­cia naprzód? Aplikacji pisem­nej, głosowej, wresz­cie – tworzącej androi­da? Jak pode­jść do tego prob­le­mu w kon­tekś­cie filo­zofii sztucznej inteligencji?

Dogłęb­na anal­iza pytań, jakie staw­ia ten odcinek, stanow­iła­by bazę dla serii artykułów. W tym chcę się przyjrzeć jed­ne­mu zagad­nie­niu, które pojaw­ia się w najbardziej chy­ba emocjonu­jącej i szoku­jącej sce­nie. [Uwa­ga spoil­er!] Pod koniec odcin­ka, gdy Martha wresz­cie dochodzi do wniosku, że żyje przeszłoś­cią, że opiera się na iluzji – boleśnie real­isty­cznej, ale jed­nak iluzji – swo­jego zmarłego kochanka, zabiera go nad urwisko i każe skoczyć. Android bez mrug­nię­cia mówi: „Ok. Jeśli jesteś tego naprawdę pew­na”. Ona wybucha: „Widzisz, Ash zaczął­by płakać, był­by prz­er­ażony”. I w tym momen­cie chłopak zaczy­na łza­w­ić, trząść się i prosić: „O Boże, nie, nie chcę umrzeć, nie chcę tego zro­bić, nie każ mi”. A kobi­eta wrzeszczy z frus­tracji, krzy­czy, że to nie fair.

I zabiera chłopa­ka z powrotem. W jej oczach – chłopa­ka, a nie adnroi­da, który jak Cle­ver­bot właśnie zare­je­strował nową infor­ma­cję, nowe polece­nie i je zre­al­i­zował. W ułamku sekundy dziew­czy­na zmieniła zdanie. Nie mogła kazać postaci, która okaza­ła lęk przed śmier­cią, skoczyć. Cho­ci­aż wiedzi­ała, że android nie jest żywą osobą, że nie czu­je bólu, że nie ma świado­moś­ci poza tą zapro­gramowaną i nabytą na pod­staw­ie obserwacji i sug­estii swo­jego właś­ci­ciela.

Podob­nie szoku­jącą sceną jest ta, w której dziew­czy­na w trak­cie roz­mowy z symu­la­torem przy­pad­kowo upuszcza tele­fon. Wpa­da w his­ter­ię, „Przepraszam, upuś­ciłam cię”, zaczy­na przepraszać stłuc­zony aparat, cała dygocze, jak gdy­by właśnie omsknął się jej palec na spuś­cie naład­owanego pis­to­le­tu.

Pomyślmy o naszych komórkach, o naszych iPadach, nieodłącznych towarzyszach codzi­en­nego życia. Przy­pom­ni­jmy sobie Tam­agotchi, Far­mVille, Sim­sy, Sec­ond Life i inne aplikac­je tworzące alter­naty­wne rzeczy­wis­toś­ci i – co kluc­zowe dla naszych rozmyślań – alter­naty­wne życia.

Granice moralności

Gdzie jest grani­ca moral­noś­ci? Wielu pis­arzy staw­iało już to pytanie, cho­ci­aż­by Philip K. Dick w swoim kul­towym Czy androidy śnią o elek­trycznych owcach? Zas­tanówmy się, co spraw­ia, że niek­tórych trak­tu­je­my jak równych sobie, a innych nie. Czy różnicą jest to, że ktoś ma zdol­ność odd­y­cha­nia i prowadzenia innych, pod­sta­wowych czyn­noś­ci życiowych? Wielu obrońców praw zwierząt zgodz­iło­by się. Inni ograniczyli­by obow­iązek moral­ny do ludzi. Część religi­jnych ludzi zao­ponowała­by, mówiąc, że obow­iązek moral­ny posi­a­da się wobec stworzeń mają­cych duszę. Czy wyz­nacznikiem moral­noś­ci ma być podobieńst­wo do nas samych? Bern­hard Walden­fels napisał w swo­jej Topografii Obcego: „Gdy­bym wiedzi­ał, czemu się dzi­wię i czego się trwożę, to zdzi­wie­nie i stra­ch znikły­by niczym fan­tom. W obu przy­pad­kach doświad­cze­nie obcego akty­wiz­u­je granicę między włas­nym i obcym, i to tym bardziej, im bliżej obce do nas pod­chodzi. Na pół zna­jomy gry­mas szym­pa­nsa wywołu­je więk­szy niepokój niż brzęcze­nie komara, a upi­orne ruchy rob­o­ta, który w fig­urze Gole­ma lub Goethańskiego ucz­nia czarnok­siężni­ka przy­biera postać misty­czną, wyda­ją się nam bardziej obce niż młotek czy miotła, które spoko­jnie czeka­ją na to, by się nimi posłużyć”. Czy ten na pół zna­jomy gry­mas szym­pa­nsa wywołu­je niepokój, bo widz­imy w nim jakąś nami­astkę nas? Czy wresz­cie, jak we wspom­ni­anym dziele Phili­pa Dic­ka, android przeko­nany o tym, że jest człowiekiem, tudzież człowiek psy­chicznie chory, przeko­nany, że jest robot­em, powin­ni być inaczej trak­towani?

Granice człowieczeństwa

Właś­ci­wie najważniejszym i najtrud­niejszym pytaniem, jakie wyła­nia się z powyższych reflek­sji jest: kim jest człowiek? Gdzie są granice człowieczeńst­wa? Kiedy czyn niemoral­ny wobec człowieka sta­je się niemoral­ny wobec iden­ty­cznego rob­o­ta? Czy tak łat­wo jest nami manip­u­lować samym tylko odgry­waniem emocji, że zupełnie zaw­iesza­my nasz racjon­al­ny pogląd na sytu­ację?

Coraz trud­niej jest nadążyć nad roz­wo­jem tech­nologii, która ofer­u­je nam takie cuda, jak np. android o imie­niu Sophia. Inspirowana wyjątkową urodą Audrey Hep­burn Sophia wys­tępu­je w pro­gra­mach telewiz­ji śni­adan­iowej. Jej twór­ca, David Han­son, tłu­maczy, że Sophia odbiera bodźce wiz­ualne, potrafi przepra­cowywać emoc­je i kon­wer­sac­je i tym samym tworzy relac­je z ludź­mi. Głównym zamysłem twór­c­zoś­ci Hanse­na jest wynalezie­nie robot­ów, które za pomocą rozwiniętej empatii i kreaty­wnoś­ci będą w stanie rozwiązy­wać prob­le­my zbyt skom­p­likowane dla ludzi.

W świecie, w którym Alan Tur­ing­dawno już opra­cow­ał test na sztuczną inteligencję, w którym – odczuwa­jąc samot­ność – może­my roz­maw­iać z botem na Skyp­ie, coraz bardziej zaciera się grani­ca między człowiekiem a jego lichym odbi­ciem, jak w tytułowym Black Mir­ror. Odbi­ciem, które niedłu­go może zastąpi ory­gi­nał i doprowadzi do tego, że pewnego dnia rozwale­nie kom­put­era młotkiem poskutku­je doży­wociem. Albo przy­na­jm­niej dłu­gotr­wałą żałobą.


Anna Hamanow­icz – Stu­den­t­ka studiów mag­is­ter­s­kich Jew­ish Civ­i­liza­tions w Hei­del­ber­gu i Skan­dy­naw­isty­ki na Uni­w­er­syte­cie Gdańskim. Członk­i­ni pra­cowni badaw­czej Jew­ish Stud­ies Research Group przy UG. Jej najwięk­szą pasją jest nau­ka i badanie języków. Intere­su­je się m.in. kul­tur­a­mi semi­cki­mi, dalekowschod­ni­mi, staroskan­dy­nawski­mi, mitologią i lit­er­aturą oraz sztuką i his­torią queer.

Tekst jest dostęp­ny na licencji: Uznanie autorstwa-Na tych samych warunk­ach 3.0 Pol­s­ka.

< Powrót do spisu treś­ci numeru.



Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy