Artykuł Epistemologia Filozofia umysłu Kognitywistyka

Piotr Przybysz: Świadome maszyny? O możliwości powstania świadomej SI

Co mogłoby decydować o tym, że robot czy inna maszyna przestaje należeć do świata biernych, poręcznych narzędzi i można ją włączyć do świata myślących i czujących istot? Jak można się przekonać, że np. robot humanoidalny uzyskał świadomość? Wprawdzie daleko jeszcze do tego, aby pytania te zyskały status praktycznych i życiowych dylematów – w tym różnimy się ciągle od bohaterów kultowego filmu Blade Runner – ale problem przynajmniej teoretycznie i w zalążkowej formie istnieje.

Tekst uka­zał się w „Filo­zo­fuj!” 2021 nr 1 (37), s. 19–22. W peł­nej wer­sji gra­ficz­nej jest dostęp­ny w pli­ku PDF.


Przezwyciężanie barier: metoda analogii i homologii

Pod­sta­wo­wa trud­ność w roz­po­zna­niu, czy maszy­na uzy­ska­ła świa­do­mość, wyni­ka z natu­ry doznań świa­do­mych. Każ­dy z nas jest dys­po­nen­tem i „użyt­kow­ni­kiem” wła­snej świa­do­mo­ści, a wewnętrz­ne dozna­nia i myśli są nie­do­stęp­ne bez­po­śred­nio i wprost dla zewnętrz­ne­go obser­wa­to­ra. Skąd zatem mogli­by­śmy wie­dzieć, czy inny czło­wiek lub maszy­na są świa­do­me? Oto pod­sta­wo­wy problem.

Trud­ność tę moż­na nazwać „pro­ble­mem barie­ry”. Nie jeste­śmy w sta­nie zaj­rzeć wprost do umy­słów i świa­do­mo­ści innych ludzi (barie­ra indy­wi­du­al­na). I takie same, a nawet jesz­cze więk­sze, kło­po­ty spra­wia bez­po­śred­nia iden­ty­fi­ka­cja sta­nów umy­sło­wych u zwie­rząt (barie­ra gatun­ko­wa). Podob­na trud­ność doty­czy­ła­by rów­nież np. robo­tów huma­no­idal­nych – w ich przy­pad­ku tak­że nie byli­by­śmy w sta­nie za pomo­cą tzw. wglą­du roz­strzy­gnąć, czy mamy do czy­nie­nia z myślą­cy­mi, odczu­wa­ją­cy­mi maszy­na­mi (barie­ra „rodzajowa”/„materiałowa”).

Pro­blem barier w bez­po­śred­nim dostę­pie do świa­do­mo­ści innych istot jest wpraw­dzie poważ­nym utrud­nie­niem, ale nie pro­ble­mem bez­na­dziej­nym. Nie wyda­je się, aby zamy­kał on cał­ko­wi­cie moż­li­wość prze­ko­na­nia się, czy inni ludzie i zwie­rzę­ta dys­po­nu­ją umy­sła­mi. Roz­wią­za­niem jest dostęp „pośred­ni”, „nie wprost” do umy­słów innych osobników.

Może on być reali­zo­wa­ny na dwa spo­so­by. W pierw­szym przy­pad­ku doko­nu­je­my dys­kret­nych rozu­mo­wań na temat posia­da­nia przez inne osob­ni­ki sta­nów wewnętrz­nych, np. bólu lub świa­do­mo­ści, w opar­ciu o zasa­dę ana­lo­gii. Przy­kła­do­wo, pod­czas obser­wa­cji zacho­wa­nia inne­go czło­wie­ka mogę przy­pi­sy­wać mu okreś­­­lone sta­ny umy­sło­we (np. odczu­cie i świa­do­mość bólu pod­czas wyry­wa­nia zęba), bowiem na pod­sta­wie wła­sne­go doświad­cze­nia i samo­ob­ser­wa­cji wiem, że temu wła­śnie zacho­wa­niu towa­rzy­szy świa­do­mie odczu­wa­ny ból. Rozu­mo­wa­nie to moż­na nie­kie­dy zasto­so­wać wte­dy, gdy chce­my przy­pi­sać jakieś pro­ste sta­ny wewnętrz­ne zwie­rzę­ciu, któ­re­go zacho­wa­nie obser­wu­je­my, choć warun­kiem w tym przy­pad­ku jest to, aby dane zwie­rzę było mor­fo­lo­gicz­nie jakoś podob­ne do czło­wie­ka i aby zacho­wy­wa­ło się w mia­rę analogicznie.

Innym spo­so­bem obej­ścia wyj­ścio­wej trud­no­ści jest posłu­że­nie się rozu­mo­wa­niem w opar­ciu o zasa­dę homo­lo­gii. W tym przy­pad­ku o posia­da­niu sta­nów wewnętrz­nych u szym­pan­sa czy gory­la moż­na wnio­sko­wać na pod­sta­wie budo­wy i funk­cji ich ukła­du neu­ro­fi­zjo­lo­gicz­ne­go. Przy­kła­do­wo, jeśli u ludzi jakimś sta­nom wewnętrz­nym (strach, świa­do­mość etc.) towa­rzy­szy okre­ślo­na aktyw­ność neurofizjo­logiczna mózgu (bio­che­micz­na, neu­ro­nal­na etc.), to jeśli ist­nie­ją zwie­rzę­ta o podob­nej struk­tu­rze lub aktyw­no­ści mózgu (bio­che­micz­nej, neu­ro­nal­nej), to jest to jakaś pod­sta­wa do przy­pi­sa­nia tym zwie­rzę­tom moż­li­wo­ści prze­ży­wa­nia ana­lo­gicz­nych sta­nów wewnętrz­nych (strach, świa­do­mość etc.).

Czy moż­na wyko­rzy­stać, cho­ciaż w jakimś stop­niu, powyż­sze meto­dy do roz­strzy­gnię­cia, czy przy­szłe inte­li­gent­ne maszy­ny będą świa­do­me? Roz­pocz­nij­my od pyta­nia, czy da się roz­po­znać świa­do­mość maszyn na pod­sta­wie podo­bień­stwa (ana­lo­gii) w zachowaniu.

Być jak gdyby świadomym: od testu Turinga do superinteligencji

Trud­no powie­dzieć, czy w prze­wi­dy­wal­nym cza­sie ludz­kość osią­gnie taki poziom zaawan­so­wa­nia tech­no­lo­gicz­ne­go i inży­nie­ryj­ne­go, że moż­li­we będzie pro­du­ko­wa­nie świa­do­mych maszyn, czy­li urzą­dzeń, któ­re były­by zdol­ne do doznań i prze­żyć subiek­tyw­nych. Z dzi­siej­szej per­spek­ty­wy wyda­je się to raczej wąt­pli­we. Bar­dziej praw­do­po­dob­ne jest jed­nak to, że poja­wią się urzą­dze­nia i maszy­ny zdol­ne do zacho­wy­wa­nia się tak, jak gdy­by były obda­rzo­ne świadomością.

Moż­li­wość taką prze­wi­dy­wał już swo­im arty­ku­le Maszy­na liczą­ca a inte­li­gen­cja słyn­ny angiel­ski mate­ma­tyk i kryp­to­log Alan Turing. Z jed­nym zastrze­że­niem: cho­dzi­ło mu nie tyle o maszy­ny świa­do­me, co raczej o inte­li­gent­ne maszy­ny obli­cze­nio­we (nie odma­wiał im też zdol­no­ści do myśle­nia rozu­mia­ne­go jako umie­jęt­ność pro­wa­dze­nia obli­czeń i ste­ro­wa­nia zacho­wa­niem). W obmy­ślo­nym przez sie­bie eks­pe­ry­men­cie myślo­wym roz­pa­try­wał on sytu­ację, w któ­rej maszy­na zosta­nie zapro­gra­mo­wa­na tak, aby w roz­mo­wie z czło­wie­kiem uda­wać, że sama nim jest (dla­te­go Turing nazwał swój pomysł „grą w uda­wa­nie”). Mia­ło­by to pole­gać na umie­jęt­nym – i ade­kwat­nym do kon­tek­stu sytu­acyj­ne­go – imi­to­wa­niu ludz­kich zacho­wań, np. zacho­wań komu­ni­ka­cyj­nych czło­wie­ka. Spraw­ne przej­ście przez maszy­nę takie­go testu ozna­cza­ło­by w pew­nym sen­sie, że dorów­nu­je ona inte­li­gen­cją temu, z kim pro­wa­dzi taką roz­mo­wę. Pole­ga­nie zaś na subiek­tyw­nym i pierw­szo­oso­bo­wym rozu­mie­niu świa­do­mo­ści – na poczu­ciu, że się myśli – pro­wa­dzi zaś, według Turin­ga, do solip­sy­zmu. Wte­dy bowiem o tym, że ktoś coś myśli, może wie­dzieć jedy­nie on sam i nikt inny.

Trud­no do koń­ca jed­no­znacz­nie stwier­dzić, czy osza­co­wy­wa­nie inte­li­gen­cji maszyn na pod­sta­wie ich zacho­wa­nia w grze w uda­wa­nie jest rów­no­znacz­ne z uzna­niem, że maszy­na myśli lub że zacho­wu­je się, jak gdy­by była świa­do­ma. Być może do tego, aby­śmy uwie­rzy­li (dali się oszu­kać) maszy­nie, że jest świa­do­ma, potrze­ba cze­goś wię­cej: zaob­ser­wo­wa­nia spo­rej ela­stycz­no­ści jej zacho­wań, płyn­no­ści prze­cho­dze­nia mię­dzy zada­nia­mi i gra­mi, auto­no­mii decy­zyj­nej czy zdol­no­ści do auto­ko­rek­ty zacho­wa­nia. Te wszyst­kie cechy mogło­by zapew­nić osią­gnię­cie przez maszy­ny eta­pu roz­wo­ju inte­li­gen­cji ogól­nej (ang. gene­ral arti­fi­cial intel­li­gen­ce). Bada­nia nad tym typem inte­li­gen­cji są dziś jed­nym z głów­nych nur­tów roz­wi­ja­nych w obrę­bie SI. Naukow­cy spo­dzie­wa­ją się, że inte­li­gent­ne maszy­ny przy­szło­ści będą się cecho­wa­ły (1) inte­li­gen­cją ogól­ną, czy­li wie­lo­za­da­nio­wo­ścią i ela­stycz­nym prze­no­sze­niem roz­wią­zań jed­nej dzie­dzi­ny na dru­gą, (2) auto­no­mią, czy­li moż­li­wo­ścią podej­mo­wa­nia decy­zji pozo­sta­ją­cych poza bie­żą­cą kon­tro­lą pro­gra­mi­sty lub ope­ra­to­ra, a tak­że (3) zdol­no­ścią do samo­ulep­sza­nia, czy­li pro­jek­to­wa­nia nowych urzą­dzeń i nowych wer­sji wła­sne­go opro­gra­mo­wa­nia. Osią­gnię­cie pozio­mu roz­wo­ju inte­li­gen­cji ogól­nej, auto­no­micz­nej i samo­ulep­sza­ja­cej się pozwo­li­ło­by maszy­nom upodob­nić się do nas, a więc polep­szy­ło­by zapew­ne moż­li­wo­ści maszy­ny, rów­nież jeśli idzie o symu­lo­wa­nie posia­da­nia świadomości.

Jesz­cze cie­ka­wiej rysu­ją się per­spek­ty­wy roz­wo­ju symu­lo­wa­nia takich quasi-świa­do­mych sta­nów, gdy­by SI zdo­by­ła prze­wa­gę nad czło­wie­kiem pod wzglę­dem inte­li­gen­cji ogól­nej. Futu­ry­stycz­ne, choć respek­tu­ją­ce meto­dy nauko­we, roz­wa­ża­nia na ten temat dopro­wa­dzi­ły filo­zo­fa z Oxfor­du i sze­fa pla­ców­ki nauko­wej Futu­re of Huma­ni­ty Insti­tu­te Nic­ka Bostro­ma do zapro­po­no­wa­nia ory­gi­nal­nej hipo­te­zy super­in­te­li­gen­cji. Twier­dzi on, że SI nie prze­sta­nie się wte­dy roz­wi­jać, lecz będzie zdo­by­wa­ła kolej­ne prze­wa­gi nad czło­wie­kiem w obsza­rach szyb­ko­ści dzia­ła­nia, zdol­no­ści do agre­ga­cji dużej licz­by jed­no­stek obli­cze­nio­wych oraz posia­da­nia dodat­ko­wych moż­li­wo­ści poznaw­czych obcych obec­ne­mu czło­wie­ko­wi. Bostrom nie pisze o tym wprost, ale moż­na się zasta­na­wiać, czy np. reali­zo­wa­nie przez super­in­te­li­gen­cję auto­no­micz­nych celów oraz kon­ku­ro­wa­nie z czło­wie­kiem o zaso­by nie dopro­wa­dzi­ło­by do prze­kro­cze­nia magicz­nej gra­ni­cy pomię­dzy symu­la­cją świa­do­mo­ści a uzy­ska­niem świadomości.

Świetlane perspektywy” dla sztucznej świadomości?

Nie moż­na dziś z całą pew­no­ścią orzec, czy inte­li­gent­ne maszy­ny przy­szło­ści osią­gną kie­dy­kol­wiek taki poziom zaawan­so­wa­nia, że poja­wią się u nich dozna­nia świa­do­me. Moż­na nato­miast spró­bo­wać okre­ślić, jak mogła­by taka przy­szła świa­do­mość maszyn wyglą­dać, wycho­dząc od zbio­ru ogra­ni­czeń i moż­li­wo­ści, jakie stwa­rza­ją ukła­dy fizycz­ne. Zda­niem Maxa Teg­mar­ka, uzna­ne­go fizy­ka teo­re­tycz­ne­go: „sto­su­jąc […] argu­men­ty opar­te na fizy­ce, może­my domy­ślać się pew­nych aspek­tów tego, jak czu­ła­by się sztucz­na świa­do­mość”. Pro­po­zy­cja ta – leżą­ca gdzieś w pół dro­gi mię­dzy rze­tel­ną nauką a scien­ce fic­tion – jest cie­ka­wa, gdyż zwra­ca uwa­gę na inte­re­su­ją­ce róż­ni­ce (głów­nie ilo­ścio­we) pomię­dzy świa­do­mo­ścią ludzi a hipo­te­tycz­ną sztucz­ną świa­do­mo­ścią maszyn.

I tak, moż­na przy­pusz­czać, że zakres odczuć i doznań świa­do­mych u maszy­ny wypo­sa­żo­nej w zaawan­so­wa­ne ukła­dy SI był­by szer­szy niż u czło­wie­ka, a to ze wzglę­du na moż­li­wość obsłu­że­nia przez maszy­ny więk­szej ilo­ści zewnętrz­nych i wewnętrz­nych czuj­ni­ków i recep­to­rów. Co wię­cej, według Teg­mar­ka maszy­na mogła­by doświad­czać więk­szej ilo­ści doznań świa­do­mych w jed­no­st­ce cza­su niż ludzie, „gdyż sygna­ły elek­tro­ma­gne­tycz­ne prze­miesz­cza­ją się z pręd­ko­ścią świa­tła, milio­ny razy szyb­ciej niż sygna­ły neu­ro­no­we”. Moż­na więc przy­pusz­czać, że bazą dla sztucz­nej świa­do­mo­ści były­by gęsto upa­ko­wa­ne i szyb­ko prze­bie­ga­ją­ce doznania.

Zapy­taj­my jed­nak pro­wo­ka­cyj­nie, czy tak rozu­mia­na sztucz­na inte­li­gen­cja mogła­by doświad­czać róż­nych aspek­tów subiek­tyw­ne­go doświad­cze­nia, któ­re bio­rą się z nasze­go bio­lo­gicz­ne­go i ewo­lu­cyj­ne­go pocho­dze­nia (głód, pra­gnie­nie, ból, pożą­da­nie sek­su­al­ne czy instynkt samo­za­cho­waw­czy). Pri­ma facie wyda­je się, że zało­że­nie funk­cjo­nal­no­ści i efek­tyw­no­ści dzia­ła­nia inte­li­gent­nych maszyn wyklu­czy zapew­ne w dużym stop­niu sens pro­jek­to­wa­nia urzą­dzeń posia­da­ją­cych takie dozna­nia. Wyjąt­kiem mógł­by być jakiś odpo­wied­nik – zapro­gra­mo­wa­ne­go lub wytwo­rzo­ne­go w maszy­nie – instynk­tu samo­za­cho­waw­cze­go, któ­ry umoż­li­wiał­by jej reali­za­cję zło­żo­nych i wie­lo­eta­po­wych zadań przed jej wyłączeniem.

Łyżka dziegciu – teoria zintegrowanej informacji

Na koniec daw­ka scep­ty­cy­zmu. Nie­ste­ty powyż­sza śmia­ła wizja poten­cja­łu, jakim będzie dys­po­no­wa­ła w przy­szło­ści sztucz­na świa­do­mość, pomi­ja, jak się wyda­je, pod­sta­wo­wy pro­blem doty­czą­cy budo­wy i struk­tu­ry mate­ria­ło­wej maszyn wypo­sa­żo­nych w SI. Wią­że się to z wcze­śniej sygna­li­zo­wa­nym pro­ble­mem w orze­ka­niu homo­lo­gii, czy­li podo­bień­stwa wewnętrz­ne­go pomię­dzy mózga­mi ludzi i zwie­rząt a mate­ria­łem, z jakie­go zbu­do­wa­ne są maszy­ny, i jego orga­ni­za­cją. Na fun­da­men­tal­ną róż­ni­cę mię­dzy orga­ni­zma­mi powsta­ły­mi w wyni­ku ewo­lu­cji a wytwa­rza­ny­mi przez czło­wie­ka urzą­dze­nia­mi z SI zwra­cał już przed laty uwa­gę J. Sear­le. Gene­ral­nie pyta­nie doty­czy tzw. fizycz­nych kore­la­tów świa­do­mo­ści, czy­li warun­ków, jakie musia­ły­by speł­niać struk­tu­ra fizycz­na i jej orga­ni­za­cja, aby były w sta­nie wyło­nić z sie­bie świa­do­mość. Pod tym wzglę­dem opty­mizm sto­ją­cy za śmia­ły­mi wizja­mi sztucz­nej świa­do­mo­ści wyda­je się przedwczesny.

Naj­cie­kaw­sze opra­co­wa­nie tego super­trud­ne­go pro­ble­mu przed­sta­wił w ostat­nich latach psy­chia­tra i neu­ro­nau­ko­wiec Giu­lio Tono­ni. Zgod­nie z opra­co­wa­ną przez nie­go „teo­rią zin­te­gro­wa­nej infor­ma­cji” mate­ria, któ­ra jest nośni­kiem świa­do­mo­ści, musi być odpo­wied­nio zor­ga­ni­zo­wa­na, m.in. musi mieć odpo­wied­ni poziom inte­gra­cji repre­zen­to­wa­ny za pomo­cą mate­ma­tycz­nej mia­ry i przed­sta­wia­ny sym­bo­licz­nie za pomo­cą grec­kiej lite­ry Φ (Phi). Orga­ni­za­cja mózgów ludz­kich (i zwie­rzę­cych) cechu­je się dużą licz­bą Φ, nato­miast orga­ni­za­cja ukła­dów krze­mo­wych i elek­tro­nicz­nych cechu­je się małym pozio­mem inte­gra­cji. Jest to zwią­za­ne z tym, że w bio­lo­gicz­nym mózgu wystę­pu­je wie­le róż­nych typów neu­ro­nów, wie­le hetero­nomicznych sie­ci połą­czeń ner­wo­wych wypo­sa­żo­nych w pętle zwrot­ne, a zasa­dy prze­no­sze­nia sygna­łów elek­trycz­nych wzdłuż akso­nu komór­ki ner­wo­wej za pomo­cą fali depo­la­ry­za­cyj­nej róż­nią się od prze­pły­wu prą­du w zwy­kłym prze­wo­dzie elek­trycz­nym. Z tego wzglę­du odwzo­ro­wa­nie struk­tu­ry połą­czeń ludz­kie­go mózgu w posta­ci symu­la­cji tej struk­tu­ry w kom­pu­te­rze przy­szło­ści o zna­nej nam dzi­siaj archi­tek­tu­rze nie wytwo­rzy w niej świa­do­mo­ści. Pew­ną nadzie­ję stwa­rza­ją nato­miast pra­ce nad kom­pu­te­ra­mi neu­ro­mor­ficz­ny­mi, naśla­du­ją­cy­mi dzia­ła­nie ludz­kie­go mózgu, któ­re są jed­nak cią­gle w powijakach.


Piotr Przy­bysz – Filo­zof i kogni­ty­wi­sta; dok­tor habi­li­to­wa­ny, prof. UAM na Wydzia­le Filo­zo­ficz­nym Uni­wer­sy­te­tu Ada­ma Mic­kie­wi­cza w Pozna­niu. Zaj­mu­je się neu­ro­este­ty­ką i kogni­ty­wi­sty­ką spo­łecz­ną. Zain­te­re­so­wa­ny pro­ble­ma­mi roz­wo­ju SI, filo­zo­fią ana­li­tycz­ną, meta­fi­zy­ką i filo­zo­fią polityki.

Tekst jest dostęp­ny na licen­cji: Uzna­nie autor­stwa-Na tych samych warun­kach 3.0 Pol­ska.
W peł­nej wer­sji gra­ficz­nej jest dostęp­ny w pli­ku PDF.

< Powrót do spi­su tre­ści numeru.

Ilu­stra­cja: Mał­go­rza­ta Uglik

Najnowszy numer można nabyć od 1 marca w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2021 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy