Antropologia Artykuł Etyka Filozofia w filmie

Anna Hamanowicz: Granice człowieczeństwa

Czy mamy obowiązki moralne wobec sztucznej inteligencji? Rozwalenia laptopa młotkiem nikt nie nazwałby morderstwem. Dlaczego więc zniszczenie do złudzenia przypominającego człowieka robota miałoby mieć jakiekolwiek konsekwencje moralne? Co się stanie, gdy dojdziemy do takiego zaawansowania w technologii, że nasze roboty faktycznie zaczną być nieodróżnialne od ludzi?

Najnowszy numer: Filozofia czasu

Zapisz się do newslettera:

---

Filozofuj z nami w social media

Najnowszy numer można nabyć od 23 marca w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2018 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Tekst ukazał się w „Filozofuj” 2017 nr 6 (18), s. 46–47. W pełnej wersji graficznej jest dostępny w pliku  PDF.


Miłość do grobowej deski (i jeszcze dalej)

Pada deszcz. Chłopak o imieniu Ash siedzi w samochodzie, przegląda wiadomości na telefonie, odpisuje na niektóre, jest zupełnie pogrążony w zamieszczaniu coraz to większej ilości prywatnych danych w sieci. Nie od razu słyszy swoją dziewczynę, Marthę, która przyniosła dwie kawy i moknie przed samochodem. Wreszcie reflektuje się, otwiera drzwi i wpuszcza ją. Okaże się to ich ostatnią wspólną jazdą samochodem. Następnego dnia chłopak nie wraca z pracy. Dziewczyna odchodzi od zmysłów, dzwoni po znajomych, aż do jej drzwi puka sanitariusz. Na pogrzebie koleżanka proponuje zdruzgotanej dziewczynie skorzystanie z aplikacji zbierającej wszystkie informacje zamieszczane w mediach społecznościowych i tworzącej na ich podstawie symulator, dzięki któremu Martha będzie mogła rozmawiać ze swoim zmarłym ukochanym. Pomimo oporów wreszcie decyduje się spróbować. Niedługo rozmowa ze sztucznie odtworzonym Ashem – najpierw pisemna, potem też głosowa – przeradza się w testowanie wersji demo androida do złudzenia przypominającego chłopaka.

Granice iluzji

Tak można streścić w kilku zdaniach odcinek serialu Czarne lustro (ang. Black Mirror) zatytułowany Zaraz wracam (Be Right Back). Każdy odcinek serialu analizuje i prognozuje, jak technologia może wpłynąć na nasze życie. Zaraz wracam jest świetną analizą psychiki żałobnika i granic, jakie jest on gotów przekroczyć, byle tylko odzyskać straconą ukochaną osobę.

Odcinek stawia całe mnóstwo pytań natury moralnej. Czy nasza aktywność w sieci będzie wykorzystywana do tworzenia symulatorów? Po części już jest wykorzystywana do dobierania reklam dostosowanych do naszych wyszukiwań. Czy opracowanie aplikacji, które stworzą łudzącą kopię zmarłego, nie doprowadzi do uzależnienia od tkwienia w przeszłości i braku możliwości pójścia naprzód? Aplikacji pisemnej, głosowej, wreszcie – tworzącej androida? Jak podejść do tego problemu w kontekście filozofii sztucznej inteligencji?

Dogłębna analiza pytań, jakie stawia ten odcinek, stanowiłaby bazę dla serii artykułów. W tym chcę się przyjrzeć jednemu zagadnieniu, które pojawia się w najbardziej chyba emocjonującej i szokującej scenie. [Uwaga spoiler!] Pod koniec odcinka, gdy Martha wreszcie dochodzi do wniosku, że żyje przeszłością, że opiera się na iluzji – boleśnie realistycznej, ale jednak iluzji – swojego zmarłego kochanka, zabiera go nad urwisko i każe skoczyć. Android bez mrugnięcia mówi: „Ok. Jeśli jesteś tego naprawdę pewna”. Ona wybucha: „Widzisz, Ash zacząłby płakać, byłby przerażony”. I w tym momencie chłopak zaczyna łzawić, trząść się i prosić: „O Boże, nie, nie chcę umrzeć, nie chcę tego zrobić, nie każ mi”. A kobieta wrzeszczy z frustracji, krzyczy, że to nie fair.

I zabiera chłopaka z powrotem. W jej oczach – chłopaka, a nie adnroida, który jak Cleverbot właśnie zarejestrował nową informację, nowe polecenie i je zrealizował. W ułamku sekundy dziewczyna zmieniła zdanie. Nie mogła kazać postaci, która okazała lęk przed śmiercią, skoczyć. Chociaż wiedziała, że android nie jest żywą osobą, że nie czuje bólu, że nie ma świadomości poza tą zaprogramowaną i nabytą na podstawie obserwacji i sugestii swojego właściciela.

Podobnie szokującą sceną jest ta, w której dziewczyna w trakcie rozmowy z symulatorem przypadkowo upuszcza telefon. Wpada w histerię, „Przepraszam, upuściłam cię”, zaczyna przepraszać stłuczony aparat, cała dygocze, jak gdyby właśnie omsknął się jej palec na spuście naładowanego pistoletu.

Pomyślmy o naszych komórkach, o naszych iPadach, nieodłącznych towarzyszach codziennego życia. Przypomnijmy sobie Tamagotchi, FarmVille, Simsy, Second Life i inne aplikacje tworzące alternatywne rzeczywistości i – co kluczowe dla naszych rozmyślań – alternatywne życia.

Granice moralności

Gdzie jest granica moralności? Wielu pisarzy stawiało już to pytanie, chociażby Philip K. Dick w swoim kultowym Czy androidy śnią o elektrycznych owcach? Zastanówmy się, co sprawia, że niektórych traktujemy jak równych sobie, a innych nie. Czy różnicą jest to, że ktoś ma zdolność oddychania i prowadzenia innych, podstawowych czynności życiowych? Wielu obrońców praw zwierząt zgodziłoby się. Inni ograniczyliby obowiązek moralny do ludzi. Część religijnych ludzi zaoponowałaby, mówiąc, że obowiązek moralny posiada się wobec stworzeń mających duszę. Czy wyznacznikiem moralności ma być podobieństwo do nas samych? Bernhard Waldenfels napisał w swojej Topografii Obcego: „Gdybym wiedział, czemu się dziwię i czego się trwożę, to zdziwienie i strach znikłyby niczym fantom. W obu przypadkach doświadczenie obcego aktywizuje granicę między własnym i obcym, i to tym bardziej, im bliżej obce do nas podchodzi. Na pół znajomy grymas szympansa wywołuje większy niepokój niż brzęczenie komara, a upiorne ruchy robota, który w figurze Golema lub Goethańskiego ucznia czarnoksiężnika przybiera postać mistyczną, wydają się nam bardziej obce niż młotek czy miotła, które spokojnie czekają na to, by się nimi posłużyć”. Czy ten na pół znajomy grymas szympansa wywołuje niepokój, bo widzimy w nim jakąś namiastkę nas? Czy wreszcie, jak we wspomnianym dziele Philipa Dicka, android przekonany o tym, że jest człowiekiem, tudzież człowiek psychicznie chory, przekonany, że jest robotem, powinni być inaczej traktowani?

Granice człowieczeństwa

Właściwie najważniejszym i najtrudniejszym pytaniem, jakie wyłania się z powyższych refleksji jest: kim jest człowiek? Gdzie są granice człowieczeństwa? Kiedy czyn niemoralny wobec człowieka staje się niemoralny wobec identycznego robota? Czy tak łatwo jest nami manipulować samym tylko odgrywaniem emocji, że zupełnie zawieszamy nasz racjonalny pogląd na sytuację?

Coraz trudniej jest nadążyć nad rozwojem technologii, która oferuje nam takie cuda, jak np. android o imieniu Sophia. Inspirowana wyjątkową urodą Audrey Hepburn Sophia występuje w programach telewizji śniadaniowej. Jej twórca, David Hanson, tłumaczy, że Sophia odbiera bodźce wizualne, potrafi przepracowywać emocje i konwersacje i tym samym tworzy relacje z ludźmi. Głównym zamysłem twórczości Hansena jest wynalezienie robotów, które za pomocą rozwiniętej empatii i kreatywności będą w stanie rozwiązywać problemy zbyt skomplikowane dla ludzi.

W świecie, w którym Alan Turingdawno już opracował test na sztuczną inteligencję, w którym – odczuwając samotność – możemy rozmawiać z botem na Skypie, coraz bardziej zaciera się granica między człowiekiem a jego lichym odbiciem, jak w tytułowym Black Mirror. Odbiciem, które niedługo może zastąpi oryginał i doprowadzi do tego, że pewnego dnia rozwalenie komputera młotkiem poskutkuje dożywociem. Albo przynajmniej długotrwałą żałobą.


Anna Hamanowicz – Studentka studiów magisterskich Jewish Civilizations w Heidelbergu i Skandynawistyki na Uniwersytecie Gdańskim. Członkini pracowni badawczej Jewish Studies Research Group przy UG. Jej największą pasją jest nauka i badanie języków. Interesuje się m.in. kulturami semickimi, dalekowschodnimi, staroskandynawskimi, mitologią i literaturą oraz sztuką i historią queer.

Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.

< Powrót do spisu treści numeru.



Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy