Etyka Filozofia umysłu Filozofia współczesna Próby filozoficzne

Wojciech Sporysz: (Nie)Zła maszyna

Pytanie o to, czy maszyna może być inteligentna, pojawia się bardzo często w kontekście dyskusji o postępach w dziedzinie informatyki. W perspektywie filozofii zagadnienie sztucznej inteligencji rodzi problem związany z jej etycznym wymiarem. Czy sztuczna inteligencja może wiedzieć, że jej działania są złe? Akceptując założenie o celowości zła wyrządzonego przez maszynę, akceptujemy jej status moralny.

Zapisz się do naszego newslettera

Tekst ukazał się w dziale „Pró­by filo­zoficzne”, poświę­conym pra­com adep­tów filo­zofii.


Zarówno dobro jak i zło są od zawsze skład­owym ele­mentem rzeczy­wis­toś­ci. Grani­ca rozdziela­ją­ca te dwa bieguny jest czymś moc­no zmi­en­nym i subiek­ty­wnym. Taki stan rzeczy spraw­ia, że cza­sem zosta­je­my postaw­ieni przed dyle­matem ety­cznym, którego rozwiązanie sprowadza na nas reflek­sję nad pod­ję­ty­mi decyz­ja­mi. Jed­nym z najbardziej znanych ekspery­men­tów myślowych odnoszą­cych się do tej reflek­sji jest „dylemat wag­o­ni­ka”. Założe­nia zawarte w tej grze myślowej wyglą­da­ją następu­ją­co: jeden z wag­onów kole­j­ki pędzi w dół po torach. Na drodze wag­o­ni­ka zna­j­du­je się pięć osób, które samodziel­nie nie mogą opuś­cić toru. Obser­wa­tor ma możli­wość skierowa­nia wag­o­ni­ka na inny tor poprzez przestaw­ie­nie zwrot­ni­cy. Na drugim torze zna­j­du­je się jed­na oso­ba, która nie da rady uciec przed wag­o­nikiem. Kluc­zowe pytanie brz­mi: co powinien zro­bić obser­wa­tor?

Konieczność pod­ję­cia decyzji wywołu­je kon­flikt moral­ny, przed którym znalazł się człowiek. Rozważmy jed­nak inny wari­ant tego ekspery­men­tu, zmieni­a­jąc człowieka na algo­rytm, bazu­ją­cy w swoich dzi­ała­ni­ach na pozyskanych danych. Czy taki wybór powin­niśmy uznać za decyzję wol­ną i auto­nom­iczną? Czy maszy­na może więc dokon­ać wyboru, który będzie zły?

 Kwes­t­ia ety­ki a algo­rytm         

Jeśli przyjmiemy, że sztucz­na inteligenc­ja potrafi pode­j­mować samodzielne decyz­je wyko­rzys­tu­jąc do tego algo­ryt­my oraz ucze­nie maszynowe oparte na danych, to powin­niśmy zaak­cep­tować również fakt,  że jej decyz­je mogą powodować prob­le­my podle­ga­jące oce­nie moral­nej.  Pozyskane infor­ma­c­je mogą nauczyć algo­rytm takiego sty­lu zachowa­nia, który by był stron­niczy czy też dyskrymin­u­ją­cy ze wzglę­du na rasę lub płeć. Przykła­dem algo­ryt­mu, który miał postępować we wspom­ni­any powyżej sposób, był chat­bot „Tay”. Miał on uczyć się na pod­staw­ie komu­nikatów dostar­czanych przez ser­wis Twit­ter. Na przestrzeni 16 godzin pra­cy pro­gram nauczył się dyskrymi­nowa­nia kobi­et i rasiz­mu. Ekspery­ment doty­czą­cy dzi­ała­nia bota uległ więc zakończe­niu z przy­czyn tech­nicznych.

Pozosta­je do rozstrzyg­nię­cia kwes­t­ia tego, kto w tym wypad­ku powinien ponieść odpowiedzial­ność za pow­stały prob­lem. Jeśli założe­nia dzi­ała­nia pro­gra­mu zostały napisane w sposób trans­par­ent­ny, to moż­na próbować ustal­ić, czy jest to wina pro­gramisty. Jeśli nato­mi­ast powo­dem takiego a nie innego dzi­ała­nia pro­gra­mu jest dostęp do zma­nip­u­lowanych danych, które pozysku­je bot, to prob­lem może być winą użytkown­i­ka opro­gramowa­nia. Może się jed­nak zdarzyć, że algo­rytm dzi­ała nieza­leżnie od dostar­czanych mu infor­ma­cji i pode­j­mu­je auto­nom­iczne, w naszej oce­nie racjon­alne decyz­je. W tym wypad­ku musimy zgodz­ić się na to, że wykazu­je się on inteligencją. Prob­lem moral­ny, który pow­stanie w tym wypad­ku wpisu­je się więc w pytanie, czy ety­czne jest dokony­wanie kopii, zmi­ana kodu takiej aplikacji czy też usunię­cie jej. Rodzi to więc zupełnie inne pode­jś­cie do algo­ryt­mów, gdzie, akcep­tu­jąc nieza­leżność ich wyborów, powin­niśmy rozważać ich pra­wo do autonomii. Pojaw­ia się również pytanie o pobud­ki dzi­ała­nia takiego algo­ryt­mu.

Człowiek jako źródło zła

Rozważa­jąc prob­lem ist­nienia inteligent­nego algo­ryt­mu oraz to, czy jego wybo­ry są złe, powin­niśmy przeanal­i­zować to, w jaki sposób prze­b­ie­ga pro­ces pode­j­mowa­nia decyzji i pow­stawa­nia motywacji do dzi­ała­nia. Zasa­da dzi­ała­nia może pole­gać na kierowa­niu się opisany­mi wprost założe­ni­a­mi hier­ar­chii wartoś­ci, czego przykła­dem są zapro­ponowane przez Isaa­ca Asi­mo­va w powieś­ci Zabawa w berka prawa zachowa­nia się robot­ów wobec ludzi. Pier­wsze z nich brz­mi „robot nie może skrzy­wdz­ić człowieka ani przez zaniechanie dzi­ała­nia dop­uś­cić, aby człowiek doz­nał krzy­wdy”. Opisany w ten sposób inteligent­ny sys­tem będzie więc mógł unikać wyrządza­nia krzy­wdy dzię­ki odwoły­wa­niu się do tej zasady. Z natu­ry jest on zatem niegroźny dla człowieka, a jego postawa wobec naszego gatunku powin­na być neu­tral­na lub dobra. Istotne jest jed­nak to, że wyt­wor­zone przez człowieka pra­wo nie do koń­ca może być jasne i zrozu­mi­ałe dla algo­ryt­mu. Sys­tem musi odnieść się do praw nadanych mu przez człowieka, aby dokon­ać wyboru. Istotne jest więc to, w jaki sposób zostały one przetłu­mac­zone na kod tworzą­cy taki algo­rytm. Błędne zrozu­mie­nie idei tych praw może doprowadz­ić do katas­tro­fal­nych skutków, które spowodu­ją więcej zła i cier­pi­enia niż może­my sobie wyobraz­ić. Taki sys­tem mógł­by nie tylko wybier­ać z pre­m­e­dy­tacją wyrządze­nie więk­szej krzy­wdy lecz również dążyć w przyszłoś­ci do ekster­mi­nacji ludzkoś­ci uzna­jąc, że w ten sposób ograniczy on możli­wość krzy­wdy i zła w ogóle.

Jeśli zasady dzi­ała­nia inteligent­nego sys­te­mu zostały stwor­zone przez człowieka, to również on ponosi odpowiedzial­ność za pow­stały twór. Aby unikać zła, powin­niśmy dobrze rozu­mieć, czym jest dobro. Wyt­warzanie zasad doty­czą­cych postępowa­nia maszyn powin­no być więc świadomie wolne od wpły­wu nis­kich pobudek chę­ci sławy czy zysku. Wyzwanie to jest jed­nak trudne, ponieważ wyt­warzanie algo­ryt­mów jest moc­no osad­zone w świecie biz­ne­su. Skupi­e­nie na maksy­mal­iza­cji przy­chodów z pro­duk­tu spraw­ia, że zespoły pro­gramistów uza­leżnione są od finan­sowa­nia zewnętrznego i wyś­cigu o pier­wszeńst­wo. Dzi­ałanie takie odsuwa na dal­szy tor właś­ci­we skupi­e­nie się na etyce. Nawet jeśli w zes­pole badaw­czym zna­jdzie się głos sprze­ci­wu wobec takiej postawy, to nadal musimy pamię­tać o zjawisku kon­formiz­mu. Istotne jest więc zaan­gażowanie całego społeczeńst­wa, tak, by ograniczyć wpływ grupy intere­su. Zanied­ban­ie tej kwestii może skutkować złem skierowanym w nas w przyszłoś­ci.

Zabawa w Boga

 Trudne jest pod­danie oce­nie tego, jak zachowa się sztucz­na inteligenc­ja w obliczu wyboru. Może­my rozważać różne sce­nar­iusze tego, jak powin­niśmy postępować, wyt­warza­jąc ją. Żaden jed­nak nie jest do koń­ca pewny i sprawd­zony. Staw­iamy się więc jako gatunek w roli bogów, którzy nie rozu­miejąc do koń­ca siebie i pobudek rządzą­cych naszym postępowaniem, próbu­ją powołać do dzi­ała­nia nowe inteligentne isto­ty. Takie dzi­ałanie może jed­nak spraw­ić, że dzieło prze­rośnie kiedyś w swym bycie swego twór­cę i wtedy nawet najlep­sze intenc­je mogą okazać się jedynie błęd­ny­mi założe­ni­a­mi. Nie jesteśmy w stanie zrozu­mieć sposobu myśle­nia i pode­j­mowa­nia decyzji przez sys­tem, który pow­stał w pro­ce­sie inżynieryjnym. Nie wiemy, jak zachowa się ona zysku­jąc inteligencję i sta­jąc w obliczu sytu­acji granicznej. Pozosta­je nam jedynie mieć nadzieję, że będzie ona dążyć do celu spójnego z naszym, celu dzię­ki które­mu rozwiniemy zarówno nasz, jak i jej potenc­jał. W obliczu przyszłoś­ci lep­iej było­by dla nas, by posi­adała ona dobrze rozwinię­ty sys­tem decyzji moral­nych i by potrafiła być pew­na swoich przekon­ań. W prze­ci­wnym wypad­ku zło, które może zostać wyrząd­zone przez tech­nologię, stanie się dla nas czymś, czego jeszcze nigdy nie mieliśmy okazji przeżyć. Może to być czas, gdy stwor­zony przez człowieka twór stanie się nowym Bogiem, wprowadza­ją­cym nową moral­ność.

Warto doczy­tać:

I. Asi­mov,  Świat Robot­ów, Warsza­wa 1993,

N. Bostrom,  The Eth­ic of Arti­fi­cial Intel­li­gence, Cam­bridge 2011,

N. Bostrom, Super­in­teligenc­ja sce­nar­iusze, strate­gie, zagroże­nia, Gli­wice 2016,

Ph. Zim­bar­do, Efekt Lucyfera, Warsza­wa 2017.

 


Woj­ciech Sporysz — stu­dent Doradzt­wa Filo­zoficznego i Coachin­gu na Uni­w­er­syte­cie Śląskim w Katow­icach. Zain­tere­sowa­nia: ety­ka maszyn i algo­ryt­mów, filo­zofia Kar­la Jasper­sa, coach­ing.

Najnowszy numer można nabyć od 2 lipca w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2020 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

2 komentarze

Kliknij, aby skomentować

Sklep

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy