Próby filozoficzne

Antoni Dziwura: Status moralny robotów. Kiedy wyłączenie maszyny mogłoby być morderstwem?

Dyskusja o statusie moralnym robotów porusza pytania głęboko zakorzenione w naszej kulturze: od praw człowieka, wyjątkowości gatunku ludzkiego oraz antropocentryzmu po definicję świadomości i zyskuje coraz ważniejsze miejsce w obecnym dyskursie publicznym. Status robotów stanowi nowe wyzwanie intelektualne XXI wieku z pogranicza filozofii, nauki i rzeczywistości społeczno-ekonomicznej, a proces automatyzacji i rosnący udział algorytmów w ludzkich przedsięwzięciach podkreśla wagę tytułowego pytania. Kwestię kiedy wyłączenie maszyny mogłoby być morderstwem, interpretuję jako pytanie o to, czy roboty stanowią podmioty, czy przedmioty ludzkiego działania – którą rozważę w tym tekście i postaram się uzasadnić, że przy obecnym stanie wiedzy nie ma możliwości zamordowania maszyny.

Tekst uka­zał się w dzia­le „Pró­by filo­zo­ficz­ne”, poświę­co­nym pra­com adep­tów filozofii.


Poję­cie mor­der­stwa, czy­li według pol­skie­go pra­wa prze­stęp­stwa pole­ga­ją­ce­go na umyśl­nym pozba­wie­niu życia czło­wie­ka będę rozu­miał sze­rzej w kate­go­rii moral­no­ści, jako umyśl­ne pozba­wie­nie życia, ze wzglę­du na przed­miot tek­stu: robo­ty. Warun­kiem pozo­sta­je fakt przy­zna­nia praw robo­tom, w tym naj­waż­niej­sze­go: pra­wa do życia, któ­re zabro­ni­ło­by wszel­kim innym jed­nost­kom wyłą­cze­nia wybra­nej maszyny.

Robo­ty nale­ży roz­róż­nić na: fizycz­ne ele­men­ty kon­struk­cyj­ne maszy­ny oraz opro­gra­mo­wa­nie. O ile fizycz­na budo­wa robo­ta nie two­rzy filo­zo­ficz­nych pytań na temat jego sta­tu­su moral­ne­go, o tyle opro­gra­mo­wa­nie, szcze­gól­nie Sztucz­na Inte­li­gen­cja (AI), zmu­sza filo­zo­fów do zesta­wie­nia go ze sta­tu­sem moral­nym czło­wie­ka i zwie­rząt. Opro­gra­mo­wa­nie kom­pu­te­ro­we, któ­re­go nośni­kiem jest maszy­na, może być podzie­lo­ne: na Sztucz­ną Inte­li­gen­cję – rozu­mia­ną sze­ro­ko jako sys­tem obli­cze­nio­wy wyka­zu­ją­cy inte­li­gent­ne zacho­wa­nie w ramach osią­gnię­cia celu, jak ucze­nie się czy wnio­sko­wa­nie (V. C. Mül­ler, 2020), oraz zbiór ogra­ni­czo­nych algo­ryt­mów, opar­tych na drze­wie decyzyjnym.

Warunek praw ludzkich i zwierzęcych

Warun­kiem trak­to­wa­nia likwi­da­cji robo­ta jako mor­der­stwa jest uzna­nie, że nie­któ­re robo­ty posia­da­ją pra­wo do życia. Uwa­żam, że gene­za pra­wa do życia, rozu­mia­ne­go jako zasa­da moral­na przy­ję­ta przez spo­łe­czeń­stwo, może nam wie­le powie­dzieć o warun­kach „posia­da­nia” takie­go pra­wa. Hob­bes twier­dzi w Lewia­ta­nie, że przed wpro­wa­dze­niem praw ogól­nych, któ­re zabra­nia­ją ludziom zabi­jać i czy­nić prze­ciw­ko innym, ist­niał stan natu­ral­ny, stan woj­ny każ­de­go z każ­dym. Ludzie w oba­wie o swo­je dobro – rozu­mia­ne jako stan swe­go cier­pie­nia – stwo­rzy­li zbiór zasad, któ­re mia­ły zabez­pie­czać ich życie, zdro­wie, a z cza­sem mają­tek. Nie­za­leż­nie od tego, czy umo­wy spo­łecz­ne powsta­ły z instynk­tu czy rozu­mu, zosta­ły one przy­ję­te by chro­nić ludzi przed cier­pie­niem ze stro­ny innych, w tym przed zabijaniem.

Pra­wa czło­wie­ka mogą być poten­cjal­nie roz­sze­rzo­ne na inne byty: zwie­rzę­ta i być może robo­ty, ponie­waż rolą tych praw nie jest obro­na przed cier­pie­niem wyłącz­nie ludzi, lecz przed sze­ro­ko poję­tym cier­pie­niem. Ta teo­ria poja­wia się w uty­li­tar­nej filo­zo­fii Jere­mie­go Ben­tha­ma, któ­ry zauwa­żył, że “Nie nale­ży pytać, czy zwie­rzę­ta mogą rozu­mo­wać, ani czy mogą mówić, lecz czy mogą cier­pieć” (Ben­tham, 1958, s. 419). Pro­ble­my świa­do­mo­ści, inte­li­gen­cji, zdol­no­ści kogni­tyw­nych i wie­lu innych skła­do­wych „umy­słu” są nie­zwy­kle waż­ny­mi ele­men­ta­mi roz­wa­żań na temat życia, lecz ich nie­obiek­tyw­ność wzglę­dem postu­la­tów rów­no­ści wszyst­kich wobec pra­wa spra­wia, że powin­ni­śmy kwa­li­fi­ko­wać byty na pod­sta­wie ich moż­li­wo­ści cierpienia.

Ist­nie­je wie­le teo­rii, któ­re poszu­ku­ją odpo­wie­dzi na pyta­nie, co spra­wia że cier­pi­my. Czy to samo­świa­do­mość, czy sama świa­do­mość? Czy świa­do­mość róż­nych istot two­rzy hie­rar­chię, a co za tym idzie isto­ta z więk­szym stop­niem świa­do­mo­ści wobec innej, na przy­kład świ­nia wzglę­dem kro­wy zasłu­gu­je na wię­cej praw? Jak we wszel­kich dys­ku­sjach na temat natu­ry życia nie ist­nie­je jego jed­na wspól­na defi­ni­cja, na szczę­ście na potrze­by tego pro­ble­mu nie musi­my się do niej odno­sić. By ujrzeć cier­pie­nie nie trze­ba zaglą­dać pod mikro­skop i obser­wo­wać impul­sów komó­rek, badać zwie­rząt samo­świa­do­mych swo­jej egzy­sten­cji, czy roz­pra­wiać o nich w trak­ta­tach. Wystar­czy udać się do naj­bliż­szej fabry­ki cho­wu prze­my­sło­we­go dro­biu i zaob­ser­wo­wać cier­pie­nie zwie­rząt (Sabe­la, 2020, s. 20), gdzie dostrzec moż­na w spo­sób empi­rycz­ny fizycz­ny ból zada­wa­ny bytom, któ­re wyka­zu­ją i fizycz­ne i emo­cjo­nal­ne obja­wy cier­pie­nia, któ­re może­my zin­ter­pre­to­wać za pomo­cą ana­lo­gii – posia­da­jąc podob­ne struk­tu­ry bio­lo­gicz­ne jako ludzie sta­wia­jąc sie­bie na miej­scu zwie­rząt (Sin­ger 1980 s. 49–61). Argu­ment przez ana­lo­gię pozwa­la nam nadać pra­wa do obro­ny przed bólem (psy­chicz­nym i fizycz­nym) zwie­rzę­tom. W  kon­tek­ście tego tek­stu sta­wia to nas przed pyta­niem, jak powin­ni­śmy trak­to­wać robo­ty i ich sta­tus prawny.

Roboty cierpiące?

«Zja­wi­sko wewnętrz­ne» wyma­ga zewnętrz­nych kry­te­riów” (Wit­t­gen­ste­in, 1953 s. 218), by mówić o sta­tu­sie maszyn, musi­my więc oprzeć się na wie­dzy logicz­nej i kom­pu­te­ro­wej. Teo­re­tycz­ne zamor­do­wa­nie robo­ta rozu­miem przez sze­ro­ko poję­te zezło­mo­wa­nie – moment, w któ­rym robot nie jest w sta­nie ponow­nie funk­cjo­no­wać. Wyłą­cze­nie maszy­ny od źró­dła prą­du moż­na trak­to­wać raczej jako uśpie­nie, podob­nie jak nie­któ­rych pacjen­tów wpro­wa­dza się w stan śpiącz­ki far­ma­ko­lo­gicz­nej. To rozu­mo­wa­nie zawę­ża poten­cjal­ne „mor­der­stwa” do moż­li­wo­ści znisz­cze­nia robo­ta poprzez wyma­za­nie opro­gra­mo­wa­nia lub znisz­cze­nie go do stop­nia unie­moż­li­wia­ją­ce­go dzia­ła­nie i odczyt sys­te­mu komputerowego.

Imitacja, a prawdziwe cierpienie – wymiar pragmatyczny i Chiński Pokój Searle’a

Czy więc ist­nie­je moż­li­wość zamor­do­wa­nia „inte­li­gent­nej lodów­ki przy­szło­ści”, a w bar­dziej prag­ma­tycz­nej wizji zaawan­so­wa­nej Sztucz­nej Inte­li­gen­cji będą­cej na przy­kład dorad­cą pre­mie­ra, czy inter­ne­to­wą przy­ja­ciół­ką? Pod­sta­wo­wy waru­nek posia­da­nia praw: waru­nek cier­pie­nia wyma­gał­by, by robo­ty obli­cze­nio­we mia­ły wgra­ne opro­gra­mo­wa­nie, któ­re pozwa­la im cier­pieć. Taka sytu­acja wyda­je się jed­nak mało wła­ści­wa – dla­cze­go mie­li­by­śmy umoż­li­wiać bytom cier­pie­nie i czu­cie bólu, jeże­li cały nasz kodeks opie­ra się na jego nie­za­da­wa­niu, i mało praw­do­po­dob­na – jaki był­by w tym cel?

Ist­nie­je jed­nak moż­li­wość, że Sil­na Sztucz­na Inte­li­gen­cja, posia­da­ją­ca wła­sną świa­do­mość (Bring­sjord and Govin­da­ra­ju­lu, 2020), sama wykształ­ci­ła­by i zapro­gra­mo­wa­ła w sobie moż­li­wość cier­pie­nia, czy odczu­wa­nia stra­chu. Ewo­lu­cja wykształ­ci­ła te cechy wśród ludz­ko­ści i zwie­rząt, ponie­waż cier­pie­nie mia­ło chro­nić jed­nost­ki zwie­rzę­ce przed śmier­cią zada­ną przez dra­pież­ni­ki i umoż­li­wić im prze­ka­za­nie genów potom­stwu. W przy­pad­ku AI, taka sytu­acja wyda­je mi się mało praw­do­po­dob­na, ponie­waż nie posia­da ona zagro­żeń śro­do­wi­sko­wych, a co waż­niej­sze nie musi prze­ka­zy­wać swo­ich cech nowym poko­le­niom, tak jak w przy­pad­ku ewo­lu­cji bio­lo­gicz­nej, lecz sama aktu­ali­zu­je się. Nie wie­my jed­nak wszyst­kie­go na temat roz­wo­ju Sztucz­nej Inte­li­gen­cji. Pra­wo Moore’a, to empi­rycz­na obser­wa­cja wska­zu­ją­ca, że licz­ba tran­zy­sto­rów w ukła­dzie sca­lo­nym podwa­ja się co oko­ło dwa lata. To wła­śnie wzrost mocy obli­cze­nio­wej kom­pu­te­rów sta­je się wyzwa­niem dla ludz­ko­ści w kon­tek­ście prze­wi­dy­wa­nia jak kom­pu­te­ry będą się zacho­wy­wać – widać to na przy­kła­dzie kom­pu­te­rów sza­cho­wych, jak Alpha Zero, któ­rych ruchy na sza­chow­ni­cy sta­ły się nie­zro­zu­mia­łe dla współ­cze­snych arcy­mi­strzów. Pomi­mo, że nie ist­nie­je prak­tycz­ne uza­sad­nie­nie po co robo­ty mia­ły­by cier­pieć, pro­gra­my kom­pu­te­ro­we zaczy­na­ją prze­kra­czać nasze ludz­kie gra­ni­ce zro­zu­mie­nia ich dzia­łań. Nale­ży się przyj­rzeć samej moż­li­wo­ści poten­cjal­ne­go zaist­nie­nia robo­tów „cier­pią­cych” a co za tym idzie odpo­wie­dzi na pyta­nie: czy robo­ty z opro­gra­mo­wa­niem bólu cier­pią, czy imi­tu­ją cierpienie?

W swo­im arty­ku­le Minds, Bra­ins and Pro­grams (1980) John Sear­le opu­bli­ko­wał argu­ment, któ­ry prze­szedł do dys­kur­su pod nazwą Chiń­skie­go Poko­ju. Jest to eks­pe­ry­ment myślo­wy, w któ­rym zamknię­ty w poko­ju nie­zna­ją­cy języ­ka chiń­skie­go czło­wiek peł­ni rolę kom­pu­te­ra poprzez przyj­mo­wa­nie pytań po chiń­sku (input) i korzy­sta­jąc z przy­go­to­wa­nej wcze­śniej książ­ki z instruk­cja­mi (pro­gram) pro­du­ku­je odpo­wie­dzi (out­put). Eks­pe­ry­ment porów­nu­je czło­wie­ka do kom­pu­te­ra, któ­ry pro­du­ku­je odpo­wie­dzi z klu­czem, lecz nie rozu­mie ich zna­cze­nia, tak jak czło­wiek zamknię­ty w poko­ju nie rozu­mie języ­ka chiń­skie­go. O ile wie­lu filo­zo­fów pró­bo­wa­ło zaprze­czyć argu­men­ta­cji Searle’a w kon­tek­ście świa­do­mo­ści Sztucz­nej Inte­li­gen­cji, poprzez reduk­cję czło­wie­ka do bio­lo­gicz­ne­go kom­pu­te­ra, czy prób wyka­za­nia, że AI jest w sta­nie wykształ­cić wła­ści­wo­ści seman­tycz­ne, o tyle nie doty­czy to cier­pie­nia. Nawet jeże­li argu­ment Searle’a zosta­nie oba­lo­ny w kon­tek­ście świa­do­mo­ści, co współ­cze­śnie jesz­cze się defi­ni­tyw­nie nie zda­rzy­ło, uwa­żam, że robo­ty nadal będą w sta­nie jedy­nie imi­to­wać cier­pie­nie, a nie je odczuwać.

Argu­ment prze­ciw­ko Sztucz­nej Inte­li­gen­cji i funk­cjo­na­li­zmo­wi (Levin, 2018) poja­wia się nie tyl­ko w Chiń­skim Poko­ju, ale tak­że w innych eks­pe­ry­men­tach myślo­wych, w tym w tzw. Chiń­skim Naro­dzie wpro­wa­dzo­nym przez Neda Bloc­ka. Wyobraź­my sobie, że każ­dy oby­wa­tel Chin otrzy­mał­by listę tele­fo­nów, na któ­re miał­by zadzwo­nić, w momen­cie gdy sam otrzy­ma tele­fon. Gdy Xi sły­szy dzwo­nek tele­fo­nu, dzwo­ni do kolej­nych osób na swo­jej liście, któ­re następ­nie dzwo­nią na nume­ry, któ­re same otrzy­ma­ły. Taki sche­mat, mógł­by być skon­stru­owa­ny podob­nie do sche­ma­tu dzia­ła­nia neu­ro­nu i sys­te­mu ner­wo­we­go, któ­ry prze­sy­ła w naszym cie­le infor­ma­cję o zada­wa­nym nam bólu (Block, 1978). W mojej inter­pre­ta­cji Chiń­skie­go Naro­du  qualia, któ­re odczu­wa­my – w tym na przy­kład ból, nie wywo­dzą się z samej funk­cji prze­sy­ła­nia infor­ma­cji przez neu­ro­ny, lecz z aktu­al­nej degra­da­cji komó­rek w danej czę­ści cia­ła, tak jak cały naród chiń­ski nie może „kolek­tyw­nie” cier­pieć, gdy żad­na jed­nost­ka nie odczu­wa bólu.

Myśl wśród robotów

W przy­pad­ku gdy­by jed­nak Oso­bli­wość, wyło­ni­ła się i imi­to­wa­ła cier­pie­nie tak sku­tecz­nie, że nie byli­by­śmy w sta­nie go odróż­nić od real­ne­go cier­pie­nia, ist­nie­ją meto­dy by oce­nić „zdol­no­ści myśle­nia” AI, w tym tzw. Test Turin­ga, czy­li czy­li zapro­po­no­wa­ny w 1950 roku roku przez Turin­ga eks­pe­ry­ment, w któ­rym robot i czło­wiek pro­wa­dzą ze sobą kon­wer­sa­cję w jed­nym poko­ju. W dru­gim poko­ju znaj­du­je się śle­dzą­cy roz­mo­wę, któ­re­go zada­niem jest wska­za­nie czło­wie­ka, tyl­ko na pod­sta­wie roz­mo­wy, któ­rej się przy­słu­chu­je – w rozu­mie­niu Turin­ga test miał za zada­nie udo­wod­nić, czy robo­ty są w sta­nie imi­to­wać ludz­kie zacho­wa­nie, a osta­tecz­nie myśleć. Dotych­czas, robo­tom nie uda­ło się sku­tecz­nie przejść tej pró­by, co w połą­cze­niu z argu­men­tem Chiń­skie­go Poko­ju potwier­dza­ło­by tezę tego tekstu.

Obec­nie nie powsta­ły jesz­cze pro­gra­my, któ­re prze­szły­by Test Turin­ga, choć same zasa­dy zali­cze­nia (Turing 1950, s. 433) są raczej pro­po­zy­cją, a nie warun­kiem przej­ścia testu. Pomi­mo pro­ble­mów z samym warun­kiem zda­nia testu, nowo­cze­śniej­sze sys­te­my kom­pu­te­ro­we, jak Ope­nAI GPT‑3, zda­ją się nie być sku­tecz­ne w oszu­ki­wa­niu prze­słu­chu­ją­cych (Com­pu­ter­phi­le, 2020). Nale­ży prze­ana­li­zo­wać więc, czy maszy­ny Turin­ga są w ogó­le w sta­nie przejść sam test.

Uwa­żam, że cie­ka­wym ata­kiem na Test Turin­ga, a tym samym na na robo­ty jako byty ze świa­do­mo­ścią, jest Argu­ment Lucasa-Penrose’a. Argu­ment opie­ra się na teo­rii nie­kom­plet­no­ści Göde­la, według któ­rej „w każ­dym spój­nym for­mal­nym sys­te­mie F, w któ­rym może­my prze­pro­wa­dzić pew­ne zda­nia aryt­me­tycz­ne, ist­nie­ją zda­nia opi­sa­ne w sys­te­mie F, któ­rych praw­dzi­wo­ści lub fał­szy­wo­ści nie da się udo­wod­nić” (Raati­ka­inen, 2020). Ozna­cza to, że w sys­te­mach for­mal­nych ist­nie­je zda­nie „Jestem nie do udo­wod­nie­nia w F”, gdzie F to sys­tem for­mal­ny, co pro­wa­dzi do jego nie­kom­plet­no­ści. Jeden z auto­rów kry­ty­ki zda­wal­no­ści kom­pu­te­rów w Teście Turin­ga, John Lucas, uwa­ża w Minds, Machi­nes and Gödel (1961), że sys­te­my kom­pu­te­ro­we są ana­lo­gicz­ne do sys­te­mu for­mal­ne­go Göde­la i jego ope­ra­cje mate­ma­tycz­ne moż­na zesta­wić z obli­cze­nia­mi kom­pu­te­ro­wy­mi. W teo­rii kro­ki algo­ryt­micz­ne robo­ta moż­na by prze­pi­sać na kart­kę i przed­sta­wić czło­wie­ko­wi, któ­ry będzie w sta­nie prze­śle­dzić pro­ces obli­cze­nio­wy robo­ta – pro­ces, któ­ry w rozu­mie­niu logi­ki będzie pro­ce­sem for­mal­nym opar­tym na sche­ma­cie „p → q”. W momen­cie, gdy do sys­te­mu wpro­wa­dzi­my zda­nie F, na pod­sta­wie teo­rii nie­kom­plet­no­ści Göde­la może­my stwier­dzić, że sys­tem nie będzie w sta­nie udzie­lić na nie odpo­wie­dzi, przy czym czło­wiek, według Luca­sa, będzie w sta­nie stwier­dzić o praw­dzi­wo­ści lub nie­praw­dzi­wo­ści zda­nia. Jeże­li rze­czy­wi­ście ten argu­ment jest praw­dzi­wy, to żad­na maszy­na nie jest w sta­nie zdać testu Turin­ga i może zostać zre­du­ko­wa­na do nie­zwy­kle zaawan­so­wa­ne­go kal­ku­la­to­ra, któ­re­go tech­nicz­nie nie moż­na zamordować.

Teo­ria Luca­sa zakła­da jed­nak, że ludzie, któ­rzy w odróż­nie­niu od robo­tów są w sta­nie stwier­dzić, że zda­nie F jest praw­dzi­we lub fał­szy­we, nie są spój­ny­mi sys­te­ma­mi for­mal­ny­mi, co budzi kon­tro­wer­sje i kry­ty­kę, szcze­gól­nie w gro­nie zwo­len­ni­ków mecha­ni­stycz­nej kon­cep­cji umy­słu. Argu­ment Luca­sa kry­ty­ko­wał mię­dzy inny­mi Paul Bena­cer­raf twier­dząc, że ist­nie­je szan­sa zre­du­ko­wa­nia całej ludz­ko­ści do maszyn Turin­ga (Bena­cer­raf, 1967), poprzez zro­zu­mie­nie „algo­ryt­mu czło­wie­ka” i na jego pod­sta­wie stwo­rze­nia zda­nia F dla ludz­ko­ści. Było­by to swo­iste spraw­dzam teo­rii Luca­sa. Pyta­nie, czy Bena­cer­raf miał­by czas i moż­li­wo­ści obli­cze­nio­we do stwier­dze­nia praw­dzi­wo­ści swo­je­go zda­nia F, tak jak chcia­ła­by tego teo­ria Göde­la. Nie­ste­ty na razie ani Bena­cer­raf ani żaden inny filo­zof nie zapro­po­no­wa­li zda­nia F dla ludz­ko­ści. Pozo­sta­je nam cze­kać, lecz na ten moment maszy­ny nie są w sta­nie przejść testu Turin­ga i mogą zostać zre­du­ko­wa­ne do wybit­nie skom­pli­ko­wa­ne­go, lecz ogra­ni­czo­ne­go sys­te­mu obliczeniowego.

Moim celem było wyka­za­nie, że warun­kiem posia­da­nia pra­wa do życia w rozu­mie­niu moral­nym jest zdol­ność do cier­pie­nia oraz wyka­za­nie, że maszy­ny przy obec­nym sta­nie wie­dzy nie są w sta­nie cier­pieć, a tym samym nie moż­na ich zamor­do­wać. Nawet jeże­li robo­ty wykształ­ci­ły­by pew­ną „świa­do­mość”, Chiń­ski Pokój i twier­dze­nia Göde­la nie pozwa­la­ją, aby mogły być zesta­wio­ne z ludz­ką świa­do­mo­ścią. Pozo­sta­je jedy­nie zadać kolej­ne pyta­nia, czy roz­wój Sztucz­nej Inte­li­gen­cji zbli­ży czło­wie­czeń­stwo do maszyn, a ludz­kość porzu­ci swój eks­ep­cjo­na­lizm, czy prze­ciw­nie – pod­kre­śli wyjąt­ko­wość gatun­ku homo sapiens sapiens, na tle zna­nych nam bytów.


Powyż­szy tekst jest publi­cy­stycz­ną wer­sją ese­ju na XXXIII Olim­pia­dę Filozoficzną.


War­to doczytać:

P. Bena­cer­raf, God, the Devil, and Gödel, „Monist” 1967 t. 51 nr 1

J. Ben­tham, Wpro­wa­dze­nie do zasad moral­no­ści i pra­wo­daw­stwa, BKF, przeł. B. Nawro­czyń­ski, War­sza­wa, 1958,

N. Block, The Tro­uble with Func­tio­na­lism, „Min­ne­so­ta Stu­dies in the Phi­lo­so­phy of Scien­ce” 1978 nr 9, Phil­Pa­pers, URL: https://philpapers.org/rec/BLOTWF (dostęp: 11.06.2021)

S. Bring­sjord and N. Govin­da­ra­ju­lu, Arti­fi­cial Intel­li­gen­ce, w: The Stan­ford Encyc­lo­pe­dia of Phi­lo­so­phy, E. N. Zal­ta (ed.), URL; https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/ (dostęp: 11.06.2021)

Com­pu­ter­phi­le, GPT3: An Even Big­ger Lan­gu­age Model – Com­pu­ter­phi­le, 2020, URL: https://www.youtube.com/watch?v=_8yVOC4ciXc (dostęp: 11.06.2021)

J. Levin, Func­tio­na­lism, w: The Stan­ford Encyc­lo­pe­dia of Phi­lo­so­phy, E. N. Zal­ta (ed.), URL; https://plato.stanford.edu/archives/fall2018/entries/functionalism (dostęp: 11.06.2021)

V. Mül­ler, Ethics of Arti­fi­cial Intel­li­gen­ce and Robo­tics, w: The Stan­ford Encyc­lo­pe­dia of Phi­lo­so­phy, E. N. Zal­ta (ed.)

URL: https://plato.stanford.edu/archives/win2020/entries/ethics-ai/ (dostęp: 11.06.2021)

P. Raati­ka­inen, Gödel’s Incom­ple­te­ness The­orems, w: The Stan­ford Encyc­lo­pe­dia of Phi­lo­so­phy, E. N. Zal­ta (ed.)

URL: https://plato.stanford.edu/archives/win2020/entries/goedel-incompleteness (dostęp: 11.06.2021)

B. Sabe­la, Wiel­ka Łapan­ka, „Maga­zyn Pismo” 2020 nr 6

J. Sear­le 1980, The Chi­ne­se Room, w: The MIT Encyc­lo­pe­dia of the Cogni­ti­ve Scien­ces, R.A. Wil­son and F. Keil (eds.), Cam­brid­ge Mas­sa­chu­setts 1999

P. Sin­ger, Zwie­rzę­ta i ludzie jako isto­ty rów­ne sobie, „Ety­ka” 1980 nr 18

URL: https://etyka.uw.edu.pl/index.php/etyka/article/view/713/669 (dostęp: 11.06.2021)

A. Turing, Com­pu­ting Machi­ne­ry and Intel­li­gen­ce, „Mind” 1950 nr 59

L. Wit­t­gen­ste­in, Docie­ka­nia Filo­zo­ficz­ne, tłum. B. Wol­nie­wicz, War­sza­wa 2000


Anto­ni Dzi­wu­ra – jest absol­wen­tem Liceum Bato­re­go w War­sza­wie i aktu­al­nie apli­ku­je na stu­dia filo­zo­ficz­ne i eko­no­micz­ne w Wiel­kiej Bry­ta­nii. Szcze­gól­nie inte­re­su­je się logi­ką i filo­zo­ficz­nym aspek­tem mate­ma­ty­ki. Pasjo­nu­je się rów­nież IV rewo­lu­cją prze­my­sło­wą, geo­gra­fią spo­łecz­ną i sportem.

 

 

Najnowszy numer można nabyć od 1 lipca w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2021 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

1 komentarz

Kliknij, aby skomentować

  • 1. Zabi­ja­nie jest złe nie tyl­ko dla­te­go, że powo­du­je cier­pie­nie. Gdy­bym nie mogła cier­pieć, chy­ba jesz­cze bar­dziej ceni­ła­bym swo­je pra­wo do życia.
    2. Jaki jest zwią­zek mię­dzy zali­cze­niem testu Turin­ga a zdol­no­ścią do cier­pie­nia? Moż­na sobie wyobra­zić maszy­nę nie­po­sia­da­ją­cą świa­do­mo­ści (a więc nie­cier­pią­cą), ale dosko­na­le “uda­ją­cą” czło­wie­ka (tak­że cier­pią­ce­go). Z kolei zwie­rzę­ta raczej testu Turin­ga nie zaliczą.

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy