Etyka Filozofia umysłu Filozofia współczesna Próby filozoficzne

Wojciech Sporysz: (Nie)Zła maszyna

baner maszyna
Pytanie o to, czy maszyna może być inteligentna, pojawia się bardzo często w kontekście dyskusji o postępach w dziedzinie informatyki. W perspektywie filozofii zagadnienie sztucznej inteligencji rodzi problem związany z jej etycznym wymiarem. Czy sztuczna inteligencja może wiedzieć, że jej działania są złe? Akceptując założenie o celowości zła wyrządzonego przez maszynę, akceptujemy jej status moralny.

Tekst ukazał się w dziale „Próby filozoficzne”, poświęconym pracom adeptów filozofii.


Zarówno dobro jak i zło są od zawsze składowym elementem rzeczywistości. Granica rozdzielająca te dwa bieguny jest czymś mocno zmiennym i subiektywnym. Taki stan rzeczy sprawia, że czasem zostajemy postawieni przed dylematem etycznym, którego rozwiązanie sprowadza na nas refleksję nad podjętymi decyzjami. Jednym z najbardziej znanych eksperymentów myślowych odnoszących się do tej refleksji jest „dylemat wagonika”. Założenia zawarte w tej grze myślowej wyglądają następująco: jeden z wagonów kolejki pędzi w dół po torach. Na drodze wagonika znajduje się pięć osób, które samodzielnie nie mogą opuścić toru. Obserwator ma możliwość skierowania wagonika na inny tor poprzez przestawienie zwrotnicy. Na drugim torze znajduje się jedna osoba, która nie da rady uciec przed wagonikiem. Kluczowe pytanie brzmi: co powinien zrobić obserwator?

Konieczność podjęcia decyzji wywołuje konflikt moralny, przed którym znalazł się człowiek. Rozważmy jednak inny wariant tego eksperymentu, zmieniając człowieka na algorytm, bazujący w swoich działaniach na pozyskanych danych. Czy taki wybór powinniśmy uznać za decyzję wolną i autonomiczną? Czy maszyna może więc dokonać wyboru, który będzie zły?

 Kwestia etyki a algorytm         

Jeśli przyjmiemy, że sztuczna inteligencja potrafi podejmować samodzielne decyzje wykorzystując do tego algorytmy oraz uczenie maszynowe oparte na danych, to powinniśmy zaakceptować również fakt,  że jej decyzje mogą powodować problemy podlegające ocenie moralnej.  Pozyskane informacje mogą nauczyć algorytm takiego stylu zachowania, który by był stronniczy czy też dyskryminujący ze względu na rasę lub płeć. Przykładem algorytmu, który miał postępować we wspomniany powyżej sposób, był chatbot „Tay”. Miał on uczyć się na podstawie komunikatów dostarczanych przez serwis Twitter. Na przestrzeni 16 godzin pracy program nauczył się dyskryminowania kobiet i rasizmu. Eksperyment dotyczący działania bota uległ więc zakończeniu z przyczyn technicznych.

Pozostaje do rozstrzygnięcia kwestia tego, kto w tym wypadku powinien ponieść odpowiedzialność za powstały problem. Jeśli założenia działania programu zostały napisane w sposób transparentny, to można próbować ustalić, czy jest to wina programisty. Jeśli natomiast powodem takiego a nie innego działania programu jest dostęp do zmanipulowanych danych, które pozyskuje bot, to problem może być winą użytkownika oprogramowania. Może się jednak zdarzyć, że algorytm działa niezależnie od dostarczanych mu informacji i podejmuje autonomiczne, w naszej ocenie racjonalne decyzje. W tym wypadku musimy zgodzić się na to, że wykazuje się on inteligencją. Problem moralny, który powstanie w tym wypadku wpisuje się więc w pytanie, czy etyczne jest dokonywanie kopii, zmiana kodu takiej aplikacji czy też usunięcie jej. Rodzi to więc zupełnie inne podejście do algorytmów, gdzie, akceptując niezależność ich wyborów, powinniśmy rozważać ich prawo do autonomii. Pojawia się również pytanie o pobudki działania takiego algorytmu.

Człowiek jako źródło zła

Rozważając problem istnienia inteligentnego algorytmu oraz to, czy jego wybory są złe, powinniśmy przeanalizować to, w jaki sposób przebiega proces podejmowania decyzji i powstawania motywacji do działania. Zasada działania może polegać na kierowaniu się opisanymi wprost założeniami hierarchii wartości, czego przykładem są zaproponowane przez Isaaca Asimova w powieści Zabawa w berka prawa zachowania się robotów wobec ludzi. Pierwsze z nich brzmi „robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy”. Opisany w ten sposób inteligentny system będzie więc mógł unikać wyrządzania krzywdy dzięki odwoływaniu się do tej zasady. Z natury jest on zatem niegroźny dla człowieka, a jego postawa wobec naszego gatunku powinna być neutralna lub dobra. Istotne jest jednak to, że wytworzone przez człowieka prawo nie do końca może być jasne i zrozumiałe dla algorytmu. System musi odnieść się do praw nadanych mu przez człowieka, aby dokonać wyboru. Istotne jest więc to, w jaki sposób zostały one przetłumaczone na kod tworzący taki algorytm. Błędne zrozumienie idei tych praw może doprowadzić do katastrofalnych skutków, które spowodują więcej zła i cierpienia niż możemy sobie wyobrazić. Taki system mógłby nie tylko wybierać z premedytacją wyrządzenie większej krzywdy lecz również dążyć w przyszłości do eksterminacji ludzkości uznając, że w ten sposób ograniczy on możliwość krzywdy i zła w ogóle.

Jeśli zasady działania inteligentnego systemu zostały stworzone przez człowieka, to również on ponosi odpowiedzialność za powstały twór. Aby unikać zła, powinniśmy dobrze rozumieć, czym jest dobro. Wytwarzanie zasad dotyczących postępowania maszyn powinno być więc świadomie wolne od wpływu niskich pobudek chęci sławy czy zysku. Wyzwanie to jest jednak trudne, ponieważ wytwarzanie algorytmów jest mocno osadzone w świecie biznesu. Skupienie na maksymalizacji przychodów z produktu sprawia, że zespoły programistów uzależnione są od finansowania zewnętrznego i wyścigu o pierwszeństwo. Działanie takie odsuwa na dalszy tor właściwe skupienie się na etyce. Nawet jeśli w zespole badawczym znajdzie się głos sprzeciwu wobec takiej postawy, to nadal musimy pamiętać o zjawisku konformizmu. Istotne jest więc zaangażowanie całego społeczeństwa, tak, by ograniczyć wpływ grupy interesu. Zaniedbanie tej kwestii może skutkować złem skierowanym w nas w przyszłości.

Zabawa w Boga

 Trudne jest poddanie ocenie tego, jak zachowa się sztuczna inteligencja w obliczu wyboru. Możemy rozważać różne scenariusze tego, jak powinniśmy postępować, wytwarzając ją. Żaden jednak nie jest do końca pewny i sprawdzony. Stawiamy się więc jako gatunek w roli bogów, którzy nie rozumiejąc do końca siebie i pobudek rządzących naszym postępowaniem, próbują powołać do działania nowe inteligentne istoty. Takie działanie może jednak sprawić, że dzieło przerośnie kiedyś w swym bycie swego twórcę i wtedy nawet najlepsze intencje mogą okazać się jedynie błędnymi założeniami. Nie jesteśmy w stanie zrozumieć sposobu myślenia i podejmowania decyzji przez system, który powstał w procesie inżynieryjnym. Nie wiemy, jak zachowa się ona zyskując inteligencję i stając w obliczu sytuacji granicznej. Pozostaje nam jedynie mieć nadzieję, że będzie ona dążyć do celu spójnego z naszym, celu dzięki któremu rozwiniemy zarówno nasz, jak i jej potencjał. W obliczu przyszłości lepiej byłoby dla nas, by posiadała ona dobrze rozwinięty system decyzji moralnych i by potrafiła być pewna swoich przekonań. W przeciwnym wypadku zło, które może zostać wyrządzone przez technologię, stanie się dla nas czymś, czego jeszcze nigdy nie mieliśmy okazji przeżyć. Może to być czas, gdy stworzony przez człowieka twór stanie się nowym Bogiem, wprowadzającym nową moralność.

Warto doczytać:

I. Asimov,  Świat Robotów, Warszawa 1993,

N. Bostrom,  The Ethic of Artificial Intelligence, Cambridge 2011,

N. Bostrom, Superinteligencja scenariusze, strategie, zagrożenia, Gliwice 2016,

Ph. Zimbardo, Efekt Lucyfera, Warszawa 2017.

 


Wojciech Sporysz — student Doradztwa Filozoficznego i Coachingu na Uniwersytecie Śląskim w Katowicach. Zainteresowania: etyka maszyn i algorytmów, filozofia Karla Jaspersa, coaching.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2024 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

4 komentarze

Kliknij, aby skomentować

  • Maszyna nie ma świadomości, nie reaguje więc emocjonalnie, a tylko automatycznie na bazie algorytmu. Algorytm pozbawiony właściwego wpisu nie zauważy, że pasażerem wagonika był np.: Franciszek Ferdynand i że jego śmierć, może ze względów politycznych przyczynić się do wojny np.: z krajem programisty, który zaprogramował maszynę.

    • Racja. Tylko.
      Chociaż już kilka razy super kompy podczas globalnych experymentów urwały się jak ze smyczy i trzeba było odciąć zasilanie. Bo o mało co…

    • Boże, czego chcesz ode mnie, jestem tylko programistą!” /“Po godzinach”, film, MS/.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy