Tekst ukazał się w dziale „Próby filozoficzne”, poświęconym pracom adeptów filozofii.
Pojęcie morderstwa, czyli według polskiego prawa przestępstwa polegającego na umyślnym pozbawieniu życia człowieka będę rozumiał szerzej w kategorii moralności, jako umyślne pozbawienie życia, ze względu na przedmiot tekstu: roboty. Warunkiem pozostaje fakt przyznania praw robotom, w tym najważniejszego: prawa do życia, które zabroniłoby wszelkim innym jednostkom wyłączenia wybranej maszyny.
Roboty należy rozróżnić na: fizyczne elementy konstrukcyjne maszyny oraz oprogramowanie. O ile fizyczna budowa robota nie tworzy filozoficznych pytań na temat jego statusu moralnego, o tyle oprogramowanie, szczególnie Sztuczna Inteligencja (AI), zmusza filozofów do zestawienia go ze statusem moralnym człowieka i zwierząt. Oprogramowanie komputerowe, którego nośnikiem jest maszyna, może być podzielone: na Sztuczną Inteligencję – rozumianą szeroko jako system obliczeniowy wykazujący inteligentne zachowanie w ramach osiągnięcia celu, jak uczenie się czy wnioskowanie (V. C. Müller, 2020), oraz zbiór ograniczonych algorytmów, opartych na drzewie decyzyjnym.
Warunek praw ludzkich i zwierzęcych
Warunkiem traktowania likwidacji robota jako morderstwa jest uznanie, że niektóre roboty posiadają prawo do życia. Uważam, że geneza prawa do życia, rozumianego jako zasada moralna przyjęta przez społeczeństwo, może nam wiele powiedzieć o warunkach „posiadania” takiego prawa. Hobbes twierdzi w Lewiatanie, że przed wprowadzeniem praw ogólnych, które zabraniają ludziom zabijać i czynić przeciwko innym, istniał stan naturalny, stan wojny każdego z każdym. Ludzie w obawie o swoje dobro – rozumiane jako stan swego cierpienia – stworzyli zbiór zasad, które miały zabezpieczać ich życie, zdrowie, a z czasem majątek. Niezależnie od tego, czy umowy społeczne powstały z instynktu czy rozumu, zostały one przyjęte by chronić ludzi przed cierpieniem ze strony innych, w tym przed zabijaniem.
Prawa człowieka mogą być potencjalnie rozszerzone na inne byty: zwierzęta i być może roboty, ponieważ rolą tych praw nie jest obrona przed cierpieniem wyłącznie ludzi, lecz przed szeroko pojętym cierpieniem. Ta teoria pojawia się w utylitarnej filozofii Jeremiego Benthama, który zauważył, że “Nie należy pytać, czy zwierzęta mogą rozumować, ani czy mogą mówić, lecz czy mogą cierpieć” (Bentham, 1958, s. 419). Problemy świadomości, inteligencji, zdolności kognitywnych i wielu innych składowych „umysłu” są niezwykle ważnymi elementami rozważań na temat życia, lecz ich nieobiektywność względem postulatów równości wszystkich wobec prawa sprawia, że powinniśmy kwalifikować byty na podstawie ich możliwości cierpienia.
Istnieje wiele teorii, które poszukują odpowiedzi na pytanie, co sprawia że cierpimy. Czy to samoświadomość, czy sama świadomość? Czy świadomość różnych istot tworzy hierarchię, a co za tym idzie istota z większym stopniem świadomości wobec innej, na przykład świnia względem krowy zasługuje na więcej praw? Jak we wszelkich dyskusjach na temat natury życia nie istnieje jego jedna wspólna definicja, na szczęście na potrzeby tego problemu nie musimy się do niej odnosić. By ujrzeć cierpienie nie trzeba zaglądać pod mikroskop i obserwować impulsów komórek, badać zwierząt samoświadomych swojej egzystencji, czy rozprawiać o nich w traktatach. Wystarczy udać się do najbliższej fabryki chowu przemysłowego drobiu i zaobserwować cierpienie zwierząt (Sabela, 2020, s. 20), gdzie dostrzec można w sposób empiryczny fizyczny ból zadawany bytom, które wykazują i fizyczne i emocjonalne objawy cierpienia, które możemy zinterpretować za pomocą analogii – posiadając podobne struktury biologiczne jako ludzie stawiając siebie na miejscu zwierząt (Singer 1980 s. 49–61). Argument przez analogię pozwala nam nadać prawa do obrony przed bólem (psychicznym i fizycznym) zwierzętom. W kontekście tego tekstu stawia to nas przed pytaniem, jak powinniśmy traktować roboty i ich status prawny.
Roboty cierpiące?
„«Zjawisko wewnętrzne» wymaga zewnętrznych kryteriów” (Wittgenstein, 1953 s. 218), by mówić o statusie maszyn, musimy więc oprzeć się na wiedzy logicznej i komputerowej. Teoretyczne zamordowanie robota rozumiem przez szeroko pojęte zezłomowanie – moment, w którym robot nie jest w stanie ponownie funkcjonować. Wyłączenie maszyny od źródła prądu można traktować raczej jako uśpienie, podobnie jak niektórych pacjentów wprowadza się w stan śpiączki farmakologicznej. To rozumowanie zawęża potencjalne „morderstwa” do możliwości zniszczenia robota poprzez wymazanie oprogramowania lub zniszczenie go do stopnia uniemożliwiającego działanie i odczyt systemu komputerowego.
Imitacja, a prawdziwe cierpienie – wymiar pragmatyczny i Chiński Pokój Searle’a
Czy więc istnieje możliwość zamordowania „inteligentnej lodówki przyszłości”, a w bardziej pragmatycznej wizji zaawansowanej Sztucznej Inteligencji będącej na przykład doradcą premiera, czy internetową przyjaciółką? Podstawowy warunek posiadania praw: warunek cierpienia wymagałby, by roboty obliczeniowe miały wgrane oprogramowanie, które pozwala im cierpieć. Taka sytuacja wydaje się jednak mało właściwa – dlaczego mielibyśmy umożliwiać bytom cierpienie i czucie bólu, jeżeli cały nasz kodeks opiera się na jego niezadawaniu, i mało prawdopodobna – jaki byłby w tym cel?
Istnieje jednak możliwość, że Silna Sztuczna Inteligencja, posiadająca własną świadomość (Bringsjord and Govindarajulu, 2020), sama wykształciłaby i zaprogramowała w sobie możliwość cierpienia, czy odczuwania strachu. Ewolucja wykształciła te cechy wśród ludzkości i zwierząt, ponieważ cierpienie miało chronić jednostki zwierzęce przed śmiercią zadaną przez drapieżniki i umożliwić im przekazanie genów potomstwu. W przypadku AI, taka sytuacja wydaje mi się mało prawdopodobna, ponieważ nie posiada ona zagrożeń środowiskowych, a co ważniejsze nie musi przekazywać swoich cech nowym pokoleniom, tak jak w przypadku ewolucji biologicznej, lecz sama aktualizuje się. Nie wiemy jednak wszystkiego na temat rozwoju Sztucznej Inteligencji. Prawo Moore’a, to empiryczna obserwacja wskazująca, że liczba tranzystorów w układzie scalonym podwaja się co około dwa lata. To właśnie wzrost mocy obliczeniowej komputerów staje się wyzwaniem dla ludzkości w kontekście przewidywania jak komputery będą się zachowywać – widać to na przykładzie komputerów szachowych, jak Alpha Zero, których ruchy na szachownicy stały się niezrozumiałe dla współczesnych arcymistrzów. Pomimo, że nie istnieje praktyczne uzasadnienie po co roboty miałyby cierpieć, programy komputerowe zaczynają przekraczać nasze ludzkie granice zrozumienia ich działań. Należy się przyjrzeć samej możliwości potencjalnego zaistnienia robotów „cierpiących” a co za tym idzie odpowiedzi na pytanie: czy roboty z oprogramowaniem bólu cierpią, czy imitują cierpienie?
W swoim artykule Minds, Brains and Programs (1980) John Searle opublikował argument, który przeszedł do dyskursu pod nazwą Chińskiego Pokoju. Jest to eksperyment myślowy, w którym zamknięty w pokoju nieznający języka chińskiego człowiek pełni rolę komputera poprzez przyjmowanie pytań po chińsku (input) i korzystając z przygotowanej wcześniej książki z instrukcjami (program) produkuje odpowiedzi (output). Eksperyment porównuje człowieka do komputera, który produkuje odpowiedzi z kluczem, lecz nie rozumie ich znaczenia, tak jak człowiek zamknięty w pokoju nie rozumie języka chińskiego. O ile wielu filozofów próbowało zaprzeczyć argumentacji Searle’a w kontekście świadomości Sztucznej Inteligencji, poprzez redukcję człowieka do biologicznego komputera, czy prób wykazania, że AI jest w stanie wykształcić właściwości semantyczne, o tyle nie dotyczy to cierpienia. Nawet jeżeli argument Searle’a zostanie obalony w kontekście świadomości, co współcześnie jeszcze się definitywnie nie zdarzyło, uważam, że roboty nadal będą w stanie jedynie imitować cierpienie, a nie je odczuwać.
Argument przeciwko Sztucznej Inteligencji i funkcjonalizmowi (Levin, 2018) pojawia się nie tylko w Chińskim Pokoju, ale także w innych eksperymentach myślowych, w tym w tzw. Chińskim Narodzie wprowadzonym przez Neda Blocka. Wyobraźmy sobie, że każdy obywatel Chin otrzymałby listę telefonów, na które miałby zadzwonić, w momencie gdy sam otrzyma telefon. Gdy Xi słyszy dzwonek telefonu, dzwoni do kolejnych osób na swojej liście, które następnie dzwonią na numery, które same otrzymały. Taki schemat, mógłby być skonstruowany podobnie do schematu działania neuronu i systemu nerwowego, który przesyła w naszym ciele informację o zadawanym nam bólu (Block, 1978). W mojej interpretacji Chińskiego Narodu qualia, które odczuwamy – w tym na przykład ból, nie wywodzą się z samej funkcji przesyłania informacji przez neurony, lecz z aktualnej degradacji komórek w danej części ciała, tak jak cały naród chiński nie może „kolektywnie” cierpieć, gdy żadna jednostka nie odczuwa bólu.
Myśl wśród robotów
W przypadku gdyby jednak Osobliwość, wyłoniła się i imitowała cierpienie tak skutecznie, że nie bylibyśmy w stanie go odróżnić od realnego cierpienia, istnieją metody by ocenić „zdolności myślenia” AI, w tym tzw. Test Turinga, czyli czyli zaproponowany w 1950 roku roku przez Turinga eksperyment, w którym robot i człowiek prowadzą ze sobą konwersację w jednym pokoju. W drugim pokoju znajduje się śledzący rozmowę, którego zadaniem jest wskazanie człowieka, tylko na podstawie rozmowy, której się przysłuchuje – w rozumieniu Turinga test miał za zadanie udowodnić, czy roboty są w stanie imitować ludzkie zachowanie, a ostatecznie myśleć. Dotychczas, robotom nie udało się skutecznie przejść tej próby, co w połączeniu z argumentem Chińskiego Pokoju potwierdzałoby tezę tego tekstu.
Obecnie nie powstały jeszcze programy, które przeszłyby Test Turinga, choć same zasady zaliczenia (Turing 1950, s. 433) są raczej propozycją, a nie warunkiem przejścia testu. Pomimo problemów z samym warunkiem zdania testu, nowocześniejsze systemy komputerowe, jak OpenAI GPT‑3, zdają się nie być skuteczne w oszukiwaniu przesłuchujących (Computerphile, 2020). Należy przeanalizować więc, czy maszyny Turinga są w ogóle w stanie przejść sam test.
Uważam, że ciekawym atakiem na Test Turinga, a tym samym na na roboty jako byty ze świadomością, jest Argument Lucasa-Penrose’a. Argument opiera się na teorii niekompletności Gödela, według której „w każdym spójnym formalnym systemie F, w którym możemy przeprowadzić pewne zdania arytmetyczne, istnieją zdania opisane w systemie F, których prawdziwości lub fałszywości nie da się udowodnić” (Raatikainen, 2020). Oznacza to, że w systemach formalnych istnieje zdanie „Jestem nie do udowodnienia w F”, gdzie F to system formalny, co prowadzi do jego niekompletności. Jeden z autorów krytyki zdawalności komputerów w Teście Turinga, John Lucas, uważa w Minds, Machines and Gödel (1961), że systemy komputerowe są analogiczne do systemu formalnego Gödela i jego operacje matematyczne można zestawić z obliczeniami komputerowymi. W teorii kroki algorytmiczne robota można by przepisać na kartkę i przedstawić człowiekowi, który będzie w stanie prześledzić proces obliczeniowy robota – proces, który w rozumieniu logiki będzie procesem formalnym opartym na schemacie „p → q”. W momencie, gdy do systemu wprowadzimy zdanie F, na podstawie teorii niekompletności Gödela możemy stwierdzić, że system nie będzie w stanie udzielić na nie odpowiedzi, przy czym człowiek, według Lucasa, będzie w stanie stwierdzić o prawdziwości lub nieprawdziwości zdania. Jeżeli rzeczywiście ten argument jest prawdziwy, to żadna maszyna nie jest w stanie zdać testu Turinga i może zostać zredukowana do niezwykle zaawansowanego kalkulatora, którego technicznie nie można zamordować.
Teoria Lucasa zakłada jednak, że ludzie, którzy w odróżnieniu od robotów są w stanie stwierdzić, że zdanie F jest prawdziwe lub fałszywe, nie są spójnymi systemami formalnymi, co budzi kontrowersje i krytykę, szczególnie w gronie zwolenników mechanistycznej koncepcji umysłu. Argument Lucasa krytykował między innymi Paul Benacerraf twierdząc, że istnieje szansa zredukowania całej ludzkości do maszyn Turinga (Benacerraf, 1967), poprzez zrozumienie „algorytmu człowieka” i na jego podstawie stworzenia zdania F dla ludzkości. Byłoby to swoiste sprawdzam teorii Lucasa. Pytanie, czy Benacerraf miałby czas i możliwości obliczeniowe do stwierdzenia prawdziwości swojego zdania F, tak jak chciałaby tego teoria Gödela. Niestety na razie ani Benacerraf ani żaden inny filozof nie zaproponowali zdania F dla ludzkości. Pozostaje nam czekać, lecz na ten moment maszyny nie są w stanie przejść testu Turinga i mogą zostać zredukowane do wybitnie skomplikowanego, lecz ograniczonego systemu obliczeniowego.
Moim celem było wykazanie, że warunkiem posiadania prawa do życia w rozumieniu moralnym jest zdolność do cierpienia oraz wykazanie, że maszyny przy obecnym stanie wiedzy nie są w stanie cierpieć, a tym samym nie można ich zamordować. Nawet jeżeli roboty wykształciłyby pewną „świadomość”, Chiński Pokój i twierdzenia Gödela nie pozwalają, aby mogły być zestawione z ludzką świadomością. Pozostaje jedynie zadać kolejne pytania, czy rozwój Sztucznej Inteligencji zbliży człowieczeństwo do maszyn, a ludzkość porzuci swój eksepcjonalizm, czy przeciwnie – podkreśli wyjątkowość gatunku homo sapiens sapiens, na tle znanych nam bytów.
Powyższy tekst jest publicystyczną wersją eseju na XXXIII Olimpiadę Filozoficzną.
Warto doczytać:
P. Benacerraf, God, the Devil, and Gödel, „Monist” 1967 t. 51 nr 1
J. Bentham, Wprowadzenie do zasad moralności i prawodawstwa, BKF, przeł. B. Nawroczyński, Warszawa, 1958,
N. Block, The Trouble with Functionalism, „Minnesota Studies in the Philosophy of Science” 1978 nr 9, PhilPapers, URL: https://philpapers.org/rec/BLOTWF (dostęp: 11.06.2021)
S. Bringsjord and N. Govindarajulu, Artificial Intelligence, w: The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.), URL; https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/ (dostęp: 11.06.2021)
Computerphile, GPT3: An Even Bigger Language Model – Computerphile, 2020, URL: https://www.youtube.com/watch?v=_8yVOC4ciXc (dostęp: 11.06.2021)
J. Levin, Functionalism, w: The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.), URL; https://plato.stanford.edu/archives/fall2018/entries/functionalism (dostęp: 11.06.2021)
V. Müller, Ethics of Artificial Intelligence and Robotics, w: The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.)
URL: https://plato.stanford.edu/archives/win2020/entries/ethics-ai/ (dostęp: 11.06.2021)
P. Raatikainen, Gödel’s Incompleteness Theorems, w: The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.)
URL: https://plato.stanford.edu/archives/win2020/entries/goedel-incompleteness (dostęp: 11.06.2021)
B. Sabela, Wielka Łapanka, „Magazyn Pismo” 2020 nr 6
J. Searle 1980, The Chinese Room, w: The MIT Encyclopedia of the Cognitive Sciences, R.A. Wilson and F. Keil (eds.), Cambridge Massachusetts 1999
P. Singer, Zwierzęta i ludzie jako istoty równe sobie, „Etyka” 1980 nr 18
URL: https://etyka.uw.edu.pl/index.php/etyka/article/view/713/669 (dostęp: 11.06.2021)
A. Turing, Computing Machinery and Intelligence, „Mind” 1950 nr 59
L. Wittgenstein, Dociekania Filozoficzne, tłum. B. Wolniewicz, Warszawa 2000
Antoni Dziwura – jest absolwentem Liceum Batorego w Warszawie i aktualnie aplikuje na studia filozoficzne i ekonomiczne w Wielkiej Brytanii. Szczególnie interesuje się logiką i filozoficznym aspektem matematyki. Pasjonuje się również IV rewolucją przemysłową, geografią społeczną i sportem.
1. Zabijanie jest złe nie tylko dlatego, że powoduje cierpienie. Gdybym nie mogła cierpieć, chyba jeszcze bardziej ceniłabym swoje prawo do życia.
2. Jaki jest związek między zaliczeniem testu Turinga a zdolnością do cierpienia? Można sobie wyobrazić maszynę nieposiadającą świadomości (a więc niecierpiącą), ale doskonale “udającą” człowieka (także cierpiącego). Z kolei zwierzęta raczej testu Turinga nie zaliczą.