Etyka Filozofia umysłu Filozofia współczesna Próby filozoficzne

Wojciech Sporysz: (Nie)Zła maszyna

Pytanie o to, czy maszyna może być inteligentna, pojawia się bardzo często w kontekście dyskusji o postępach w dziedzinie informatyki. W perspektywie filozofii zagadnienie sztucznej inteligencji rodzi problem związany z jej etycznym wymiarem. Czy sztuczna inteligencja może wiedzieć, że jej działania są złe? Akceptując założenie o celowości zła wyrządzonego przez maszynę, akceptujemy jej status moralny.

Zapisz się do naszego newslettera

Tekst uka­zał się w dzia­le „Pró­by filo­zo­ficz­ne”, poświę­co­nym pra­com adep­tów filo­zo­fii.


Zarów­no dobro jak i zło są od zawsze skła­do­wym ele­men­tem rze­czy­wi­sto­ści. Gra­ni­ca roz­dzie­la­ją­ca te dwa bie­gu­ny jest czymś moc­no zmien­nym i subiek­tyw­nym. Taki stan rze­czy spra­wia, że cza­sem zosta­je­my posta­wie­ni przed dyle­ma­tem etycz­nym, któ­re­go roz­wią­za­nie spro­wa­dza na nas reflek­sję nad pod­ję­ty­mi decy­zja­mi. Jed­nym z naj­bar­dziej zna­nych eks­pe­ry­men­tów myślo­wych odno­szą­cych się do tej reflek­sji jest „dyle­mat wago­ni­ka”. Zało­że­nia zawar­te w tej grze myślo­wej wyglą­da­ją nastę­pu­ją­co: jeden z wago­nów kolej­ki pędzi w dół po torach. Na dro­dze wago­ni­ka znaj­du­je się pięć osób, któ­re samo­dziel­nie nie mogą opu­ścić toru. Obser­wa­tor ma moż­li­wość skie­ro­wa­nia wago­ni­ka na inny tor poprzez prze­sta­wie­nie zwrot­ni­cy. Na dru­gim torze znaj­du­je się jed­na oso­ba, któ­ra nie da rady uciec przed wago­ni­kiem. Klu­czo­we pyta­nie brzmi: co powi­nien zro­bić obser­wa­tor?

Koniecz­ność pod­ję­cia decy­zji wywo­łu­je kon­flikt moral­ny, przed któ­rym zna­lazł się czło­wiek. Roz­waż­my jed­nak inny wariant tego eks­pe­ry­men­tu, zmie­nia­jąc czło­wie­ka na algo­rytm, bazu­ją­cy w swo­ich dzia­ła­niach na pozy­ska­nych danych. Czy taki wybór powin­ni­śmy uznać za decy­zję wol­ną i auto­no­micz­ną? Czy maszy­na może więc doko­nać wybo­ru, któ­ry będzie zły?

 Kwe­stia ety­ki a algo­rytm         

Jeśli przyj­mie­my, że sztucz­na inte­li­gen­cja potra­fi podej­mo­wać samo­dziel­ne decy­zje wyko­rzy­stu­jąc do tego algo­ryt­my oraz ucze­nie maszy­no­we opar­te na danych, to powin­ni­śmy zaak­cep­to­wać rów­nież fakt,  że jej decy­zje mogą powo­do­wać pro­ble­my pod­le­ga­ją­ce oce­nie moral­nej.  Pozy­ska­ne infor­ma­cje mogą nauczyć algo­rytm takie­go sty­lu zacho­wa­nia, któ­ry by był stron­ni­czy czy też dys­kry­mi­nu­ją­cy ze wzglę­du na rasę lub płeć. Przy­kła­dem algo­ryt­mu, któ­ry miał postę­po­wać we wspo­mnia­ny powy­żej spo­sób, był chat­bot „Tay”. Miał on uczyć się na pod­sta­wie komu­ni­ka­tów dostar­cza­nych przez ser­wis Twit­ter. Na prze­strze­ni 16 godzin pra­cy pro­gram nauczył się dys­kry­mi­no­wa­nia kobiet i rasi­zmu. Eks­pe­ry­ment doty­czą­cy dzia­ła­nia bota uległ więc zakoń­cze­niu z przy­czyn tech­nicz­nych.

Pozo­sta­je do roz­strzy­gnię­cia kwe­stia tego, kto w tym wypad­ku powi­nien ponieść odpo­wie­dzial­ność za powsta­ły pro­blem. Jeśli zało­że­nia dzia­ła­nia pro­gra­mu zosta­ły napi­sa­ne w spo­sób trans­pa­rent­ny, to moż­na pró­bo­wać usta­lić, czy jest to wina pro­gra­mi­sty. Jeśli nato­miast powo­dem takie­go a nie inne­go dzia­ła­nia pro­gra­mu jest dostęp do zma­ni­pu­lo­wa­nych danych, któ­re pozy­sku­je bot, to pro­blem może być winą użyt­kow­ni­ka opro­gra­mo­wa­nia. Może się jed­nak zda­rzyć, że algo­rytm dzia­ła nie­za­leż­nie od dostar­cza­nych mu infor­ma­cji i podej­mu­je auto­no­micz­ne, w naszej oce­nie racjo­nal­ne decy­zje. W tym wypad­ku musi­my zgo­dzić się na to, że wyka­zu­je się on inte­li­gen­cją. Pro­blem moral­ny, któ­ry powsta­nie w tym wypad­ku wpi­su­je się więc w pyta­nie, czy etycz­ne jest doko­ny­wa­nie kopii, zmia­na kodu takiej apli­ka­cji czy też usu­nię­cie jej. Rodzi to więc zupeł­nie inne podej­ście do algo­ryt­mów, gdzie, akcep­tu­jąc nie­za­leż­ność ich wybo­rów, powin­ni­śmy roz­wa­żać ich pra­wo do auto­no­mii. Poja­wia się rów­nież pyta­nie o pobud­ki dzia­ła­nia takie­go algo­ryt­mu.

Czło­wiek jako źró­dło zła

Roz­wa­ża­jąc pro­blem ist­nie­nia inte­li­gent­ne­go algo­ryt­mu oraz to, czy jego wybo­ry są złe, powin­ni­śmy prze­ana­li­zo­wać to, w jaki spo­sób prze­bie­ga pro­ces podej­mo­wa­nia decy­zji i powsta­wa­nia moty­wa­cji do dzia­ła­nia. Zasa­da dzia­ła­nia może pole­gać na kie­ro­wa­niu się opi­sa­ny­mi wprost zało­że­nia­mi hie­rar­chii war­to­ści, cze­go przy­kła­dem są zapro­po­no­wa­ne przez Isa­aca Asi­mo­va w powie­ści Zaba­wa w ber­ka pra­wa zacho­wa­nia się robo­tów wobec ludzi. Pierw­sze z nich brzmi „robot nie może skrzyw­dzić czło­wie­ka ani przez zanie­cha­nie dzia­ła­nia dopu­ścić, aby czło­wiek doznał krzyw­dy”. Opi­sa­ny w ten spo­sób inte­li­gent­ny sys­tem będzie więc mógł uni­kać wyrzą­dza­nia krzyw­dy dzię­ki odwo­ły­wa­niu się do tej zasa­dy. Z natu­ry jest on zatem nie­groź­ny dla czło­wie­ka, a jego posta­wa wobec nasze­go gatun­ku powin­na być neu­tral­na lub dobra. Istot­ne jest jed­nak to, że wytwo­rzo­ne przez czło­wie­ka pra­wo nie do koń­ca może być jasne i zro­zu­mia­łe dla algo­ryt­mu. Sys­tem musi odnieść się do praw nada­nych mu przez czło­wie­ka, aby doko­nać wybo­ru. Istot­ne jest więc to, w jaki spo­sób zosta­ły one prze­tłu­ma­czo­ne na kod two­rzą­cy taki algo­rytm. Błęd­ne zro­zu­mie­nie idei tych praw może dopro­wa­dzić do kata­stro­fal­nych skut­ków, któ­re spo­wo­du­ją wię­cej zła i cier­pie­nia niż może­my sobie wyobra­zić. Taki sys­tem mógł­by nie tyl­ko wybie­rać z pre­me­dy­ta­cją wyrzą­dze­nie więk­szej krzyw­dy lecz rów­nież dążyć w przy­szło­ści do eks­ter­mi­na­cji ludz­ko­ści uzna­jąc, że w ten spo­sób ogra­ni­czy on moż­li­wość krzyw­dy i zła w ogó­le.

Jeśli zasa­dy dzia­ła­nia inte­li­gent­ne­go sys­te­mu zosta­ły stwo­rzo­ne przez czło­wie­ka, to rów­nież on pono­si odpo­wie­dzial­ność za powsta­ły twór. Aby uni­kać zła, powin­ni­śmy dobrze rozu­mieć, czym jest dobro. Wytwa­rza­nie zasad doty­czą­cych postę­po­wa­nia maszyn powin­no być więc świa­do­mie wol­ne od wpły­wu niskich pobu­dek chę­ci sła­wy czy zysku. Wyzwa­nie to jest jed­nak trud­ne, ponie­waż wytwa­rza­nie algo­ryt­mów jest moc­no osa­dzo­ne w świe­cie biz­ne­su. Sku­pie­nie na mak­sy­ma­li­za­cji przy­cho­dów z pro­duk­tu spra­wia, że zespo­ły pro­gra­mi­stów uza­leż­nio­ne są od finan­so­wa­nia zewnętrz­ne­go i wyści­gu o pierw­szeń­stwo. Dzia­ła­nie takie odsu­wa na dal­szy tor wła­ści­we sku­pie­nie się na ety­ce. Nawet jeśli w zespo­le badaw­czym znaj­dzie się głos sprze­ci­wu wobec takiej posta­wy, to nadal musi­my pamię­tać o zja­wi­sku kon­for­mi­zmu. Istot­ne jest więc zaan­ga­żo­wa­nie całe­go spo­łe­czeń­stwa, tak, by ogra­ni­czyć wpływ gru­py inte­re­su. Zanie­dba­nie tej kwe­stii może skut­ko­wać złem skie­ro­wa­nym w nas w przy­szło­ści.

Zaba­wa w Boga

 Trud­ne jest pod­da­nie oce­nie tego, jak zacho­wa się sztucz­na inte­li­gen­cja w obli­czu wybo­ru. Może­my roz­wa­żać róż­ne sce­na­riu­sze tego, jak powin­ni­śmy postę­po­wać, wytwa­rza­jąc ją. Żaden jed­nak nie jest do koń­ca pew­ny i spraw­dzo­ny. Sta­wia­my się więc jako gatu­nek w roli bogów, któ­rzy nie rozu­mie­jąc do koń­ca sie­bie i pobu­dek rzą­dzą­cych naszym postę­po­wa­niem, pró­bu­ją powo­łać do dzia­ła­nia nowe inte­li­gent­ne isto­ty. Takie dzia­ła­nie może jed­nak spra­wić, że dzie­ło prze­ro­śnie kie­dyś w swym bycie swe­go twór­cę i wte­dy nawet naj­lep­sze inten­cje mogą oka­zać się jedy­nie błęd­ny­mi zało­że­nia­mi. Nie jeste­śmy w sta­nie zro­zu­mieć spo­so­bu myśle­nia i podej­mo­wa­nia decy­zji przez sys­tem, któ­ry powstał w pro­ce­sie inży­nie­ryj­nym. Nie wie­my, jak zacho­wa się ona zysku­jąc inte­li­gen­cję i sta­jąc w obli­czu sytu­acji gra­nicz­nej. Pozo­sta­je nam jedy­nie mieć nadzie­ję, że będzie ona dążyć do celu spój­ne­go z naszym, celu dzię­ki któ­re­mu roz­wi­nie­my zarów­no nasz, jak i jej poten­cjał. W obli­czu przy­szło­ści lepiej było­by dla nas, by posia­da­ła ona dobrze roz­wi­nię­ty sys­tem decy­zji moral­nych i by potra­fi­ła być pew­na swo­ich prze­ko­nań. W prze­ciw­nym wypad­ku zło, któ­re może zostać wyrzą­dzo­ne przez tech­no­lo­gię, sta­nie się dla nas czymś, cze­go jesz­cze nigdy nie mie­li­śmy oka­zji prze­żyć. Może to być czas, gdy stwo­rzo­ny przez czło­wie­ka twór sta­nie się nowym Bogiem, wpro­wa­dza­ją­cym nową moral­ność.

War­to doczy­tać:

I. Asi­mov,  Świat Robo­tów, War­sza­wa 1993,

N. Bostrom,  The Ethic of Arti­fi­cial Intel­li­gen­ce, Cam­brid­ge 2011,

N. Bostrom, Super­in­te­li­gen­cja sce­na­riu­sze, stra­te­gie, zagro­że­nia, Gli­wi­ce 2016,

Ph. Zim­bar­do, Efekt Lucy­fe­ra, War­sza­wa 2017.

 


Woj­ciech Spo­rysz — stu­dent Doradz­twa Filo­zo­ficz­ne­go i Coachin­gu na Uni­wer­sy­te­cie Ślą­skim w Kato­wi­cach. Zain­te­re­so­wa­nia: ety­ka maszyn i algo­ryt­mów, filo­zo­fia Kar­la Jasper­sa, coaching.

Najnowszy numer można nabyć od 2 września w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2020 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

4 komentarze

Kliknij, aby skomentować

  • Maszy­na nie ma świa­do­mo­ści, nie reagu­je więc emo­cjo­nal­nie, a tyl­ko auto­ma­tycz­nie na bazie algo­ryt­mu. Algo­rytm pozba­wio­ny wła­ści­we­go wpi­su nie zauwa­ży, że pasa­że­rem wago­ni­ka był np.: Fran­ci­szek Fer­dy­nand i że jego śmierć, może ze wzglę­dów poli­tycz­nych przy­czy­nić się do woj­ny np.: z kra­jem pro­gra­mi­sty, któ­ry zapro­gra­mo­wał maszy­nę.

    • Racja. Tyl­ko.
      Cho­ciaż już kil­ka razy super kom­py pod­czas glo­bal­nych expe­ry­men­tów urwa­ły się jak ze smy­czy i trze­ba było odciąć zasi­la­nie. Bo o mało co…

    • Boże, cze­go chcesz ode mnie, jestem tyl­ko pro­gra­mi­stą!” /“Po godzi­nach”, film, MS/.

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy