Filozofia w literaturze

Natasza Szutta: Algorytm a mądrość praktyczna

świat przyszłości, robot w księżycowym krajobrazie
Liczne opowiadania i powieści science fiction wyprzedzały swoją epokę, przewidując, jak będzie wyglądał świat w erze sztucznej inteligencji. Obecnie mamy okazję sprawdzić, w jakim stopniu te przewidywania się realizują. O ile w wielu dziedzinach naszego życia robotyka znalazła ważne zastosowanie, o tyle nie wydaje się, by w obszarze podejmowania moralnych decyzji mądrość praktyczną udało się zastąpić algorytmem.

Tekst ukazał się w „Filozofuj!” 2024 nr 1 (55), s. 20–21. W pełnej wersji graficznej jest dostępny w pliku PDF.


Trzy prawa robotyki Asimowa

Isaak Asimow to jeden z najbardziej wpływowych pisarzy science fiction XX w. Jest autorem wielu książek i opowiadań, których bohaterami są roboty. W opowiadaniu pt. Zabawa w berka sformułował trzy prawa robotów, które stały się fundamentem etycznym robotyki. Pierwsze prawo robotyki (PPR) głosiło: „Robot nie może skrzywdzić istoty ludzkiej ani przez zaniechanie działania dopuścić, by doznała ona krzywdy”. Oznacza to, że celem robotów jest ochrona ludzi przed jakąkolwiek krzywdą. Drugie prawo robotyki (DPR) brzmiało: „Robot musi bezwzględnie wykonywać ludzkie rozkazy, chyba że stoją one w sprzeczności z pierwszym prawem”. Roboty powinny zatem być posłuszne wobec wydawanych im rozkazów, jeśli nie szkodzą one ludziom. Trzecie prawo robotyki (TPR) głosiło: „Robot musi chronić siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem”. To znaczy, że robot powinien się bronić, o ile nie narusza w takiej sytuacji pierwszych dwóch praw.

Konflikt działań wynikających z praw robotyki

W wielu wypadkach działanie zgodne ze wszystkimi powyższymi prawami okaże się niemożliwe. Wyobraźmy sobie sytuację, gdy człowiek musi z ważnych powodów podjąć jakieś ryzykowne działanie zagrażające jego zdrowiu. Robot (ze względu na PPR) powinien natychmiast uniemożliwić mu jego wykonanie, pomimo rozkazów nieingerowania (DPR), ze względu na większe zagrożenie w przypadku zaniechania działania. Można też wyobrazić sobie sytuację, gdy robot otrzymuje rozkaz wykonania zadania (DPR), które stanowi zagrożenie dla niego samego, co z kolei koliduje z TPR (Zaginiony robot).

Konflikt praw może także wynikać z trudności interpretacyjnych poszczególnych przepisów. Co należy rozumieć np. przez ludzką krzywdę? Czy chodzi o zagrożenie ludzkiego życia lub zdrowia, czy raczej wszelkie poczucie dyskomfortu? W opowiadaniu pt. Kłamca robot Herbie ma nadzwyczajną umiejętność czytania ludzkich myśli, w związku z czym zna intymne pragnienia i oczekiwania ludzi. Chcąc oszczędzić im nieprzyjemnych rozczarowań, mówi im tylko to, co pragną usłyszeć. Nie przewiduje jednak, że na dłuższą metę jego zachowanie może doprowadzić do bardzo poważnych nieporozumień i prawdziwego rozgoryczenia.

Jednak sytuacje konfliktu obowiązków, wynikających z praw robotyki, nie są w świecie robotów tak wielkim problemem jak dylematy. Roboty Asimowa zupełnie nie radzą sobie w przypadkach, gdy każde z podejmowanych przez nie rozwiązań powoduje krzywdę lub zagrożenie dla życia człowieka. To dla nich sytuacja bez wyjścia, która skutkuje uszkodzeniem obwodów i całkowitą dysfunkcjonalnością (Ucieczka). Wybór tzw. mniejszego zła wymagałby przeprogramowania robotów.

Rozwiązywanie problemów moralnych i rozstrzyganie dylematów

Obecnie sztuczna inteligencja jest ograniczona do wykonywania konkretnych zadań lub funkcji. Roboty są programowane na podstawie określonych algorytmów i reguł, a ich zachowanie jest w dużej mierze przewidywalne. Najnowsze technologie nie są jeszcze w stanie radzić sobie ze skomplikowanymi problemami moralnymi, a tym bardziej z moralnymi dylematami. Trzeba jednak przyznać, że ludzie też mają z tym poważne kłopoty.

Pomoc w podejmowaniu trudnych decyzji i rozstrzyganiu moralnych dylematów oferują różne teorie etyczne, jak np. deontologia czy utylitaryzm, formułując uniwersalne zasady moralne. Jednak także samo sztywne trzymanie się tych zasad wydaje się niewystarczające. Radykalny zakaz łamania tzw. rygorów deontycznych („nie kłam”, „dotrzymuj obietnic”, „pomagaj w potrzebie”) czy nakaz maksymalizowania szczęścia większości może w pewnych sytuacjach powodować więcej zła niż dobra. Podejmowanie dobrych moralnie decyzji wymaga znacznie więcej. Chodzi o umiejętność subtelnej analizy sytuacyjnego kontekstu, zarówno podmiotowego (obejmującego kondycję – możliwości i ograniczenia – moralnego sprawcy), jak i przedmiotowego (m.in. okoliczności działania czy możliwych konsekwencji działania – krótkofalowych/długofalowych, bezpośrednich/pośrednich itp.). Inaczej mówiąc, w moralności istnieje olbrzymia potrzeba posiadania praktycznej mądrości, która jest warunkiem koniecznym podejmowania mądrych wyborów, a w konsekwencji także mądrego działania. Zalgoryt­mizowanie takiej umiejętności wydaje się nieosiągalne.

Mądrość praktyczna jako umiejętność podejmowania mądrych decyzji

Jason D. Swartwood, odwołując się do badań empirycznych na temat decyzji podejmowanych przez ekspertów w różnych dziedzinach życia, proponuje rozumienie mądrości praktycznej jako złożonej umiejętności, która obejmuje liczne – trudne do zalgorytmizowania – zdolności: intuicyjne – zdolności szybkiego, łatwego, często bez udziału świadomości, identyfikowania, co tu i teraz powinienem uczynić (rodzaj moralnej wrażliwości, dostrzegania ważnych z moralnego punktu widzenia racji do działania); deliberatywne – zdolności wykorzystywania świadomych (gdy intuicyjne nie wystarczają) i wymagających czasu oraz wysiłku procesów poszukiwania i oceniania tego, co powinienem uczynić (np. w toku dochodzenia do refleksyjnej równowagi); metapoznawcze – zdolności pozwalające ocenić, kiedy można polegać na intuicji, a kiedy należy włączyć deliberację; samoregulacyjne – umożliwiające kierowanie swoimi uczuciami, motywami oraz zachowaniem, by faktycznie czynić to, co zostało uznane za powinne; samoformacyjne – zdolności pozwalające ocenić, jak dostosować swoją praktykę i doświadczenie, by być jeszcze bardziej efektywnym i niezawodnym w działaniu.

W świetle powyższego ujęcia zalgorytmizowanie mądrości praktycznej, koniecznej do podejmowania słusznych decyzji moralnych, jest niemożliwe. Chodzi tu o takie decyzje, które nie są jedynie bezmyślnym stosowaniem się do moralnych zasad, lecz właściwym reagowaniem na zaistniałe racje moralne, w całej ich złożoności i komplikacji, jak to w realnym życiu bywa.


Warto doczytać:

  • I. Asimow, Ja – robot, tłum. J. Śmigiel, Bydgoszcz 1993.
  • J. D. Swartwood, Wisdom as an Expert Skill, „Ethical Theory and Moral Practice” 2013, nr 3, s. 511–528.

Natasza Szutta – dr hab. filozofii, prof. UG. Pracuje w Instytucie Filozofii Uniwersytetu Gdańskiego. Specjalizuje się w etyce, metaetyce i psychologii moralności. Pasje: literatura, muzyka, góry, ogród i nade wszystko własne dzieci.

Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.

W pełnej wersji graficznej jest dostępny w pliku PDF.

< Powrót do spisu treści numeru. Ilustracja: ChatGPT


Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego pochodzących z Funduszu Promocji Kultury.

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy