Artykuł Epistemologia Filozofia umysłu Kognitywistyka

Piotr Przybysz: Świadome maszyny? O możliwości powstania świadomej SI

Co mogłoby decydować o tym, że robot czy inna maszyna przestaje należeć do świata biernych, poręcznych narzędzi i można ją włączyć do świata myślących i czujących istot? Jak można się przekonać, że np. robot humanoidalny uzyskał świadomość? Wprawdzie daleko jeszcze do tego, aby pytania te zyskały status praktycznych i życiowych dylematów – w tym różnimy się ciągle od bohaterów kultowego filmu Blade Runner – ale problem przynajmniej teoretycznie i w zalążkowej formie istnieje.

Tekst uka­zał się w „Filo­zo­fuj!” 2021 nr 1 (37), s. 19–22. W peł­nej wer­sji gra­ficz­nej jest dostęp­ny w pli­ku PDF.


Przezwyciężanie barier: metoda analogii i homologii

Pod­sta­wo­wa trud­ność w roz­po­zna­niu, czy maszy­na uzy­ska­ła świa­do­mość, wyni­ka z natu­ry doznań świa­do­mych. Każ­dy z nas jest dys­po­nen­tem i „użyt­kow­ni­kiem” wła­snej świa­do­mo­ści, a wewnętrz­ne dozna­nia i myśli są nie­do­stęp­ne bez­po­śred­nio i wprost dla zewnętrz­ne­go obser­wa­to­ra. Skąd zatem mogli­by­śmy wie­dzieć, czy inny czło­wiek lub maszy­na są świa­do­me? Oto pod­sta­wo­wy problem.

Trud­ność tę moż­na nazwać „pro­ble­mem barie­ry”. Nie jeste­śmy w sta­nie zaj­rzeć wprost do umy­słów i świa­do­mo­ści innych ludzi (barie­ra indy­wi­du­al­na). I takie same, a nawet jesz­cze więk­sze, kło­po­ty spra­wia bez­po­śred­nia iden­ty­fi­ka­cja sta­nów umy­sło­wych u zwie­rząt (barie­ra gatun­ko­wa). Podob­na trud­ność doty­czy­ła­by rów­nież np. robo­tów huma­no­idal­nych – w ich przy­pad­ku tak­że nie byli­by­śmy w sta­nie za pomo­cą tzw. wglą­du roz­strzy­gnąć, czy mamy do czy­nie­nia z myślą­cy­mi, odczu­wa­ją­cy­mi maszy­na­mi (barie­ra „rodzajowa”/„materiałowa”).

Pro­blem barier w bez­po­śred­nim dostę­pie do świa­do­mo­ści innych istot jest wpraw­dzie poważ­nym utrud­nie­niem, ale nie pro­ble­mem bez­na­dziej­nym. Nie wyda­je się, aby zamy­kał on cał­ko­wi­cie moż­li­wość prze­ko­na­nia się, czy inni ludzie i zwie­rzę­ta dys­po­nu­ją umy­sła­mi. Roz­wią­za­niem jest dostęp „pośred­ni”, „nie wprost” do umy­słów innych osobników.

Może on być reali­zo­wa­ny na dwa spo­so­by. W pierw­szym przy­pad­ku doko­nu­je­my dys­kret­nych rozu­mo­wań na temat posia­da­nia przez inne osob­ni­ki sta­nów wewnętrz­nych, np. bólu lub świa­do­mo­ści, w opar­ciu o zasa­dę ana­lo­gii. Przy­kła­do­wo, pod­czas obser­wa­cji zacho­wa­nia inne­go czło­wie­ka mogę przy­pi­sy­wać mu okreś­­­lone sta­ny umy­sło­we (np. odczu­cie i świa­do­mość bólu pod­czas wyry­wa­nia zęba), bowiem na pod­sta­wie wła­sne­go doświad­cze­nia i samo­ob­ser­wa­cji wiem, że temu wła­śnie zacho­wa­niu towa­rzy­szy świa­do­mie odczu­wa­ny ból. Rozu­mo­wa­nie to moż­na nie­kie­dy zasto­so­wać wte­dy, gdy chce­my przy­pi­sać jakieś pro­ste sta­ny wewnętrz­ne zwie­rzę­ciu, któ­re­go zacho­wa­nie obser­wu­je­my, choć warun­kiem w tym przy­pad­ku jest to, aby dane zwie­rzę było mor­fo­lo­gicz­nie jakoś podob­ne do czło­wie­ka i aby zacho­wy­wa­ło się w mia­rę analogicznie.

Innym spo­so­bem obej­ścia wyj­ścio­wej trud­no­ści jest posłu­że­nie się rozu­mo­wa­niem w opar­ciu o zasa­dę homo­lo­gii. W tym przy­pad­ku o posia­da­niu sta­nów wewnętrz­nych u szym­pan­sa czy gory­la moż­na wnio­sko­wać na pod­sta­wie budo­wy i funk­cji ich ukła­du neu­ro­fi­zjo­lo­gicz­ne­go. Przy­kła­do­wo, jeśli u ludzi jakimś sta­nom wewnętrz­nym (strach, świa­do­mość etc.) towa­rzy­szy okre­ślo­na aktyw­ność neurofizjo­logiczna mózgu (bio­che­micz­na, neu­ro­nal­na etc.), to jeśli ist­nie­ją zwie­rzę­ta o podob­nej struk­tu­rze lub aktyw­no­ści mózgu (bio­che­micz­nej, neu­ro­nal­nej), to jest to jakaś pod­sta­wa do przy­pi­sa­nia tym zwie­rzę­tom moż­li­wo­ści prze­ży­wa­nia ana­lo­gicz­nych sta­nów wewnętrz­nych (strach, świa­do­mość etc.).

Czy moż­na wyko­rzy­stać, cho­ciaż w jakimś stop­niu, powyż­sze meto­dy do roz­strzy­gnię­cia, czy przy­szłe inte­li­gent­ne maszy­ny będą świa­do­me? Roz­pocz­nij­my od pyta­nia, czy da się roz­po­znać świa­do­mość maszyn na pod­sta­wie podo­bień­stwa (ana­lo­gii) w zachowaniu.

Być jak gdyby świadomym: od testu Turinga do superinteligencji

Trud­no powie­dzieć, czy w prze­wi­dy­wal­nym cza­sie ludz­kość osią­gnie taki poziom zaawan­so­wa­nia tech­no­lo­gicz­ne­go i inży­nie­ryj­ne­go, że moż­li­we będzie pro­du­ko­wa­nie świa­do­mych maszyn, czy­li urzą­dzeń, któ­re były­by zdol­ne do doznań i prze­żyć subiek­tyw­nych. Z dzi­siej­szej per­spek­ty­wy wyda­je się to raczej wąt­pli­we. Bar­dziej praw­do­po­dob­ne jest jed­nak to, że poja­wią się urzą­dze­nia i maszy­ny zdol­ne do zacho­wy­wa­nia się tak, jak gdy­by były obda­rzo­ne świadomością.

Moż­li­wość taką prze­wi­dy­wał już swo­im arty­ku­le Maszy­na liczą­ca a inte­li­gen­cja słyn­ny angiel­ski mate­ma­tyk i kryp­to­log Alan Turing. Z jed­nym zastrze­że­niem: cho­dzi­ło mu nie tyle o maszy­ny świa­do­me, co raczej o inte­li­gent­ne maszy­ny obli­cze­nio­we (nie odma­wiał im też zdol­no­ści do myśle­nia rozu­mia­ne­go jako umie­jęt­ność pro­wa­dze­nia obli­czeń i ste­ro­wa­nia zacho­wa­niem). W obmy­ślo­nym przez sie­bie eks­pe­ry­men­cie myślo­wym roz­pa­try­wał on sytu­ację, w któ­rej maszy­na zosta­nie zapro­gra­mo­wa­na tak, aby w roz­mo­wie z czło­wie­kiem uda­wać, że sama nim jest (dla­te­go Turing nazwał swój pomysł „grą w uda­wa­nie”). Mia­ło­by to pole­gać na umie­jęt­nym – i ade­kwat­nym do kon­tek­stu sytu­acyj­ne­go – imi­to­wa­niu ludz­kich zacho­wań, np. zacho­wań komu­ni­ka­cyj­nych czło­wie­ka. Spraw­ne przej­ście przez maszy­nę takie­go testu ozna­cza­ło­by w pew­nym sen­sie, że dorów­nu­je ona inte­li­gen­cją temu, z kim pro­wa­dzi taką roz­mo­wę. Pole­ga­nie zaś na subiek­tyw­nym i pierw­szo­oso­bo­wym rozu­mie­niu świa­do­mo­ści – na poczu­ciu, że się myśli – pro­wa­dzi zaś, według Turin­ga, do solip­sy­zmu. Wte­dy bowiem o tym, że ktoś coś myśli, może wie­dzieć jedy­nie on sam i nikt inny.

Trud­no do koń­ca jed­no­znacz­nie stwier­dzić, czy osza­co­wy­wa­nie inte­li­gen­cji maszyn na pod­sta­wie ich zacho­wa­nia w grze w uda­wa­nie jest rów­no­znacz­ne z uzna­niem, że maszy­na myśli lub że zacho­wu­je się, jak gdy­by była świa­do­ma. Być może do tego, aby­śmy uwie­rzy­li (dali się oszu­kać) maszy­nie, że jest świa­do­ma, potrze­ba cze­goś wię­cej: zaob­ser­wo­wa­nia spo­rej ela­stycz­no­ści jej zacho­wań, płyn­no­ści prze­cho­dze­nia mię­dzy zada­nia­mi i gra­mi, auto­no­mii decy­zyj­nej czy zdol­no­ści do auto­ko­rek­ty zacho­wa­nia. Te wszyst­kie cechy mogło­by zapew­nić osią­gnię­cie przez maszy­ny eta­pu roz­wo­ju inte­li­gen­cji ogól­nej (ang. gene­ral arti­fi­cial intel­li­gen­ce). Bada­nia nad tym typem inte­li­gen­cji są dziś jed­nym z głów­nych nur­tów roz­wi­ja­nych w obrę­bie SI. Naukow­cy spo­dzie­wa­ją się, że inte­li­gent­ne maszy­ny przy­szło­ści będą się cecho­wa­ły (1) inte­li­gen­cją ogól­ną, czy­li wie­lo­za­da­nio­wo­ścią i ela­stycz­nym prze­no­sze­niem roz­wią­zań jed­nej dzie­dzi­ny na dru­gą, (2) auto­no­mią, czy­li moż­li­wo­ścią podej­mo­wa­nia decy­zji pozo­sta­ją­cych poza bie­żą­cą kon­tro­lą pro­gra­mi­sty lub ope­ra­to­ra, a tak­że (3) zdol­no­ścią do samo­ulep­sza­nia, czy­li pro­jek­to­wa­nia nowych urzą­dzeń i nowych wer­sji wła­sne­go opro­gra­mo­wa­nia. Osią­gnię­cie pozio­mu roz­wo­ju inte­li­gen­cji ogól­nej, auto­no­micz­nej i samo­ulep­sza­ja­cej się pozwo­li­ło­by maszy­nom upodob­nić się do nas, a więc polep­szy­ło­by zapew­ne moż­li­wo­ści maszy­ny, rów­nież jeśli idzie o symu­lo­wa­nie posia­da­nia świadomości.

Jesz­cze cie­ka­wiej rysu­ją się per­spek­ty­wy roz­wo­ju symu­lo­wa­nia takich quasi-świa­do­mych sta­nów, gdy­by SI zdo­by­ła prze­wa­gę nad czło­wie­kiem pod wzglę­dem inte­li­gen­cji ogól­nej. Futu­ry­stycz­ne, choć respek­tu­ją­ce meto­dy nauko­we, roz­wa­ża­nia na ten temat dopro­wa­dzi­ły filo­zo­fa z Oxfor­du i sze­fa pla­ców­ki nauko­wej Futu­re of Huma­ni­ty Insti­tu­te Nic­ka Bostro­ma do zapro­po­no­wa­nia ory­gi­nal­nej hipo­te­zy super­in­te­li­gen­cji. Twier­dzi on, że SI nie prze­sta­nie się wte­dy roz­wi­jać, lecz będzie zdo­by­wa­ła kolej­ne prze­wa­gi nad czło­wie­kiem w obsza­rach szyb­ko­ści dzia­ła­nia, zdol­no­ści do agre­ga­cji dużej licz­by jed­no­stek obli­cze­nio­wych oraz posia­da­nia dodat­ko­wych moż­li­wo­ści poznaw­czych obcych obec­ne­mu czło­wie­ko­wi. Bostrom nie pisze o tym wprost, ale moż­na się zasta­na­wiać, czy np. reali­zo­wa­nie przez super­in­te­li­gen­cję auto­no­micz­nych celów oraz kon­ku­ro­wa­nie z czło­wie­kiem o zaso­by nie dopro­wa­dzi­ło­by do prze­kro­cze­nia magicz­nej gra­ni­cy pomię­dzy symu­la­cją świa­do­mo­ści a uzy­ska­niem świadomości.

Świetlane perspektywy” dla sztucznej świadomości?

Nie moż­na dziś z całą pew­no­ścią orzec, czy inte­li­gent­ne maszy­ny przy­szło­ści osią­gną kie­dy­kol­wiek taki poziom zaawan­so­wa­nia, że poja­wią się u nich dozna­nia świa­do­me. Moż­na nato­miast spró­bo­wać okre­ślić, jak mogła­by taka przy­szła świa­do­mość maszyn wyglą­dać, wycho­dząc od zbio­ru ogra­ni­czeń i moż­li­wo­ści, jakie stwa­rza­ją ukła­dy fizycz­ne. Zda­niem Maxa Teg­mar­ka, uzna­ne­go fizy­ka teo­re­tycz­ne­go: „sto­su­jąc […] argu­men­ty opar­te na fizy­ce, może­my domy­ślać się pew­nych aspek­tów tego, jak czu­ła­by się sztucz­na świa­do­mość”. Pro­po­zy­cja ta – leżą­ca gdzieś w pół dro­gi mię­dzy rze­tel­ną nauką a scien­ce fic­tion – jest cie­ka­wa, gdyż zwra­ca uwa­gę na inte­re­su­ją­ce róż­ni­ce (głów­nie ilo­ścio­we) pomię­dzy świa­do­mo­ścią ludzi a hipo­te­tycz­ną sztucz­ną świa­do­mo­ścią maszyn.

I tak, moż­na przy­pusz­czać, że zakres odczuć i doznań świa­do­mych u maszy­ny wypo­sa­żo­nej w zaawan­so­wa­ne ukła­dy SI był­by szer­szy niż u czło­wie­ka, a to ze wzglę­du na moż­li­wość obsłu­że­nia przez maszy­ny więk­szej ilo­ści zewnętrz­nych i wewnętrz­nych czuj­ni­ków i recep­to­rów. Co wię­cej, według Teg­mar­ka maszy­na mogła­by doświad­czać więk­szej ilo­ści doznań świa­do­mych w jed­no­st­ce cza­su niż ludzie, „gdyż sygna­ły elek­tro­ma­gne­tycz­ne prze­miesz­cza­ją się z pręd­ko­ścią świa­tła, milio­ny razy szyb­ciej niż sygna­ły neu­ro­no­we”. Moż­na więc przy­pusz­czać, że bazą dla sztucz­nej świa­do­mo­ści były­by gęsto upa­ko­wa­ne i szyb­ko prze­bie­ga­ją­ce doznania.

Zapy­taj­my jed­nak pro­wo­ka­cyj­nie, czy tak rozu­mia­na sztucz­na inte­li­gen­cja mogła­by doświad­czać róż­nych aspek­tów subiek­tyw­ne­go doświad­cze­nia, któ­re bio­rą się z nasze­go bio­lo­gicz­ne­go i ewo­lu­cyj­ne­go pocho­dze­nia (głód, pra­gnie­nie, ból, pożą­da­nie sek­su­al­ne czy instynkt samo­za­cho­waw­czy). Pri­ma facie wyda­je się, że zało­że­nie funk­cjo­nal­no­ści i efek­tyw­no­ści dzia­ła­nia inte­li­gent­nych maszyn wyklu­czy zapew­ne w dużym stop­niu sens pro­jek­to­wa­nia urzą­dzeń posia­da­ją­cych takie dozna­nia. Wyjąt­kiem mógł­by być jakiś odpo­wied­nik – zapro­gra­mo­wa­ne­go lub wytwo­rzo­ne­go w maszy­nie – instynk­tu samo­za­cho­waw­cze­go, któ­ry umoż­li­wiał­by jej reali­za­cję zło­żo­nych i wie­lo­eta­po­wych zadań przed jej wyłączeniem.

Łyżka dziegciu – teoria zintegrowanej informacji

Na koniec daw­ka scep­ty­cy­zmu. Nie­ste­ty powyż­sza śmia­ła wizja poten­cja­łu, jakim będzie dys­po­no­wa­ła w przy­szło­ści sztucz­na świa­do­mość, pomi­ja, jak się wyda­je, pod­sta­wo­wy pro­blem doty­czą­cy budo­wy i struk­tu­ry mate­ria­ło­wej maszyn wypo­sa­żo­nych w SI. Wią­że się to z wcze­śniej sygna­li­zo­wa­nym pro­ble­mem w orze­ka­niu homo­lo­gii, czy­li podo­bień­stwa wewnętrz­ne­go pomię­dzy mózga­mi ludzi i zwie­rząt a mate­ria­łem, z jakie­go zbu­do­wa­ne są maszy­ny, i jego orga­ni­za­cją. Na fun­da­men­tal­ną róż­ni­cę mię­dzy orga­ni­zma­mi powsta­ły­mi w wyni­ku ewo­lu­cji a wytwa­rza­ny­mi przez czło­wie­ka urzą­dze­nia­mi z SI zwra­cał już przed laty uwa­gę J. Sear­le. Gene­ral­nie pyta­nie doty­czy tzw. fizycz­nych kore­la­tów świa­do­mo­ści, czy­li warun­ków, jakie musia­ły­by speł­niać struk­tu­ra fizycz­na i jej orga­ni­za­cja, aby były w sta­nie wyło­nić z sie­bie świa­do­mość. Pod tym wzglę­dem opty­mizm sto­ją­cy za śmia­ły­mi wizja­mi sztucz­nej świa­do­mo­ści wyda­je się przedwczesny.

Naj­cie­kaw­sze opra­co­wa­nie tego super­trud­ne­go pro­ble­mu przed­sta­wił w ostat­nich latach psy­chia­tra i neu­ro­nau­ko­wiec Giu­lio Tono­ni. Zgod­nie z opra­co­wa­ną przez nie­go „teo­rią zin­te­gro­wa­nej infor­ma­cji” mate­ria, któ­ra jest nośni­kiem świa­do­mo­ści, musi być odpo­wied­nio zor­ga­ni­zo­wa­na, m.in. musi mieć odpo­wied­ni poziom inte­gra­cji repre­zen­to­wa­ny za pomo­cą mate­ma­tycz­nej mia­ry i przed­sta­wia­ny sym­bo­licz­nie za pomo­cą grec­kiej lite­ry Φ (Phi). Orga­ni­za­cja mózgów ludz­kich (i zwie­rzę­cych) cechu­je się dużą licz­bą Φ, nato­miast orga­ni­za­cja ukła­dów krze­mo­wych i elek­tro­nicz­nych cechu­je się małym pozio­mem inte­gra­cji. Jest to zwią­za­ne z tym, że w bio­lo­gicz­nym mózgu wystę­pu­je wie­le róż­nych typów neu­ro­nów, wie­le hetero­nomicznych sie­ci połą­czeń ner­wo­wych wypo­sa­żo­nych w pętle zwrot­ne, a zasa­dy prze­no­sze­nia sygna­łów elek­trycz­nych wzdłuż akso­nu komór­ki ner­wo­wej za pomo­cą fali depo­la­ry­za­cyj­nej róż­nią się od prze­pły­wu prą­du w zwy­kłym prze­wo­dzie elek­trycz­nym. Z tego wzglę­du odwzo­ro­wa­nie struk­tu­ry połą­czeń ludz­kie­go mózgu w posta­ci symu­la­cji tej struk­tu­ry w kom­pu­te­rze przy­szło­ści o zna­nej nam dzi­siaj archi­tek­tu­rze nie wytwo­rzy w niej świa­do­mo­ści. Pew­ną nadzie­ję stwa­rza­ją nato­miast pra­ce nad kom­pu­te­ra­mi neu­ro­mor­ficz­ny­mi, naśla­du­ją­cy­mi dzia­ła­nie ludz­kie­go mózgu, któ­re są jed­nak cią­gle w powijakach.


Piotr Przy­bysz – Filo­zof i kogni­ty­wi­sta; dok­tor habi­li­to­wa­ny, prof. UAM na Wydzia­le Filo­zo­ficz­nym Uni­wer­sy­te­tu Ada­ma Mic­kie­wi­cza w Pozna­niu. Zaj­mu­je się neu­ro­este­ty­ką i kogni­ty­wi­sty­ką spo­łecz­ną. Zain­te­re­so­wa­ny pro­ble­ma­mi roz­wo­ju SI, filo­zo­fią ana­li­tycz­ną, meta­fi­zy­ką i filo­zo­fią polityki.

Tekst jest dostęp­ny na licen­cji: Uzna­nie autor­stwa-Na tych samych warun­kach 3.0 Pol­ska.
W peł­nej wer­sji gra­ficz­nej jest dostęp­ny w pli­ku PDF.

< Powrót do spi­su tre­ści numeru.

Ilu­stra­cja: Mał­go­rza­ta Uglik

Najnowszy numer można nabyć od 5 maja w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2021 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Skomentuj

Kliknij, aby skomentować

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy