Artykuł Filozofia umysłu

Marcin Miłkowski: Czy bać się myślących maszyn?

Oczywiście! Myślące maszyny, zdeterminowane do realizacji swoich celów – które mogą być zupełnie niezgodne z naszymi – mogą być bardzo groźne. Tylko że na razie takimi maszynami jesteśmy my, ludzie, oraz inne inteligentne zwierzęta.

Zapisz się do naszego newslettera

Tekst ukazał się w „Filo­zo­fuj” 2018 nr 6 (24), s. 16–17. W pełnej wer­sji graficznej jest dostęp­ny w pliku PDF.


Ludzki umysł to też tylko maszyna

Cokol­wiek może zrodz­ić się w myślach orga­niz­mu żywego, może też być w umyśle sztucznym, jeśli tylko współczesne teorie bio­log­iczne weźmiemy poważnie. Prze­cież inteligentne zwierzę­ta, w tym i ludzie, okazu­ją się jedynie myślą­cy­mi maszy­na­mi. Osiąg­nię­cia nau­ki pozwala­ją powiedzieć wprost: to, co kiedyś uważano za sza­lone myśli radykała, takiego jak Julien Offray de la Met­trie (1709–1751), budzącego zgorsze­nie książka­mi Człowiek-maszy­na, a wcześniej Człowiek-rośli­na, dziś wyda­je się banałem. Tak, mech­a­nizmy bio­log­iczne są tylko mech­a­niz­ma­mi. Nie ma siły życiowej, tajem­niczego tch­nienia, które odróż­ni­ało­by bak­terie od wirusów. Różni je tylko możli­wość real­iza­cji pro­cesów przemi­any materii, wspar­ta na zdol­noś­ci do samoor­ga­ni­za­cji, ogranic­zonej i ułom­nej, bo jed­nak niemogącej staw­ić czoła nie­u­niknionej śmier­ci i przemi­ja­niu.

Tak, myślą­cych maszyn należy się bać, tak jak należy bać się ludzkiej lekkomyśl­noś­ci, głupo­ty i skłon­noś­ci do rozwiązy­wa­nia prob­lemów prze­mocą. Jed­nak nie trze­ba się bać prze­sad­nie. Wielokroć bardziej szkodli­wy jest złośli­wy poli­tyk o dużej władzy, odrzu­ca­ją­cy ustal­e­nia nau­ki w imię swo­jego, wąsko pojętego intere­su, od najbardziej inteligent­nego kom­put­era, który jedynie przetwarza infor­ma­c­je bez wpły­wu na rzeczy­wis­tość. Lęk, że samo szy­bkie rozwiązy­wanie prob­lemów da sztucznej inteligencji ogrom­ną władzę, jest mało uza­sad­niony.

Cho­ci­aż kasandryczne wiz­je o sztucznej inteligencji prze­j­mu­jącej władzę snuli nawet tak wybit­ni naukow­cy jak Stephen Hawk­ing, trak­towałbym je z przym­ruże­niem oka. A to dlat­ego, że nawet gdy­by nastąpił mało praw­dopodob­ny gwał­towny przełom w budowa­niu maszyn inteligent­nych, to mogą one okazać się równie pozbaw­ione wpły­wu na rzeczy­wis­tość eko­nom­iczną czy poli­ty­czną, jak mil­iardy ludzi, nie mówiąc o mil­iar­dach inteligent­nych zwierząt. Żeby inteligenc­ja stała się groź­na, musi­ała­by sięgnąć po władzę.

Po co sztucznej inteligencji władza?

Tym­cza­sem nieszczegól­nie wiemy, jak – i po co – budować maszyny mające ele­men­tarne emoc­je. Bez emocji zaś sztucz­na inteligenc­ja raczej nie będzie prag­nąć władzy. Co najwyżej będzie real­i­zować jak­iś algo­rytm, który oczy­wiś­cie może być nowy i twór­czy. Dzisi­aj trud­no nam powiedzieć, w jaki sposób maszyny w ogóle mogły­by sobie wyz­naczać cele. Obec­ny rozwój sys­temów sztucznej inteligencji jest, co praw­da, bur­zli­wy, ale nie jest równomierny. Kon­cen­tru­je się głównie na możli­woś­ci­ach wydoby­wa­nia abstrak­cyjnych wzor­ców z ist­nieją­cych danych – czyli na ucze­niu maszynowym. Myśle­nie na tem­at siebie samego i zdoby­wanie zasobów w celu dal­szego ist­nienia pozosta­je na razie poza hory­zon­tem współczes­nych sys­temów.

Spec­jal­nie pod­kreślam, że chodzi o sys­te­my współczesne. Jest z pewnoś­cią możli­we tech­nicznie, że wyposażone w sztuczną inteligencję sys­te­my mogły­by zyskać coś w rodza­ju samodziel­noś­ci układów bio­log­icznych – isto­ty żywe to prze­cież też maszyny szczegól­nego typu. Lecz nawet gdy­by ją miały, nie jest jasne, w jaki sposób miały­by zdobyć władzę poli­ty­czną.

Od inteligencji do inżynierii społecznej

Oczy­wiś­cie wiemy, że w epoce inter­ne­tu bez­pieczeńst­wo społeczeństw ludz­kich zależy od ist­nienia zabez­pieczeń przed ataka­mi infor­maty­czny­mi. Niez­dolne do nudy sys­te­my sztucznej inteligencji stanow­ią spore zagroże­nie, gdyż mogą żmud­nie i coraz bardziej kreaty­wnie próbować takie zabez­pieczenia omi­jać. Do tej pory najwyższym zagroże­niem zabez­pieczeń w internecie pozosta­je tzw. czyn­nik ludz­ki – hak­erzy bowiem potrafią po pros­tu zadz­wonić do oso­by odpowiedzial­nej za zabez­pieczenia i pod­szyć się pod osobę, która jest uprawniona do ich wyłączenia. Na razie sys­te­my sztucznej inteligencji są kom­plet­nie niez­dolne do tak wyrafi­nowanej inżynierii społecznej.

Taka inżynieria wyma­ga bowiem przy­na­jm­niej min­i­mal­nej umiejęt­noś­ci przewidy­wa­nia i wyjaś­ni­a­nia tego, co myślą inni. Jed­nak nadal nie wiemy, co jest potrzeb­ne, żeby mieć skuteczny mod­el tego, co myślą inni. Między inny­mi dlat­ego zbu­dowanie prawdzi­wej sztucznej inteligencji, takiej, która zdołała­by zawsze pod­szyć się pod człowieka, przy­na­jm­niej w roz­mowie, jest tak piekiel­nie trudne. I cho­ci­aż Alan Tur­ing, genial­ny matem­atyk i filo­zof, już praw­ie 70 lat temu pro­ponował, by sztuczną inteligencję – a więc i sztuczne myśle­nie w ogóle – oce­ni­ać po owocach, które powin­ny być nieo­dróż­nialne od ludz­kich, to jego test pozosta­je cały czas trud­nym wyzwaniem. Pole­ga on na tym, że sys­tem sztucznej inteligencji ma prowadz­ić nieogranic­zoną tem­aty­cznie i cza­sowo roz­mowę, nie będąc rozpoz­nanym jako taki, lecz będąc uznanym za człowieka. Tym­cza­sem nawet nie wiemy, jak do real­nego prze­jś­cia tego tes­tu nawet miało­by dojść.

Czy bać się sztucznej inteligencji?

Wiemy, że kiedyś do tego dojdzie. Lecz założe­nie, że kiedy tylko maszyny uzyska­ją możli­wość szyb­szego wydoby­wa­nia abstrak­cyjnych wzor­ców, naty­ch­mi­ast zyska­ją możli­wość prze­jś­cia tes­tu Turinga, wyz­naczą sobie złowieszcze dla ludzkoś­ci cele i prze­jmą władzę nad światem, jest po pros­tu nai­wne. Nie od razu Rzym zbu­dowano. Dlat­ego wiara, że ist­nieje mag­iczny punkt – zwany w lit­er­aturze „osobli­woś­cią” – po którego przekrocze­niu sztucz­na inteligenc­ja zacznie rozwi­jać się tak żywiołowo, aż błyskaw­icznie przekroczy ludzką, wyda­je się raczej typowym błę­dem w rozu­mowa­niu: to rów­nia pochyła. Nie ma żad­nej gwarancji, że inteligenc­ja sama siebie zacznie napędzać i przyspieszać. Dojść do tego może, ale zapewne do tego cza­su ludzkość będzie się raczej zma­gać z prob­le­mem związanym z tym, jak potrak­towała swo­je środowisko nat­u­ralne, doprowadza­jąc do glob­al­nego ocieple­nia. Ta katas­tro­fa jest znacznie bardziej real­na – i mogła­by zostać pow­strzy­mana, gdy­by nie egoizm najwięk­szych kra­jów i kor­po­racji glob­al­nych.


Marcin Miłkows­ki – Pro­fe­sor w Insty­tu­cie Filo­zofii i Socjologii Pol­skiej Akademii Nauk, w Zakładzie Logi­ki i Kog­ni­ty­wisty­ki, filo­zof nauk o poz­na­niu. W wol­nych chwilach pro­gra­mu­je, słucha jaz­zu i jeździ na row­erze.

Tekst jest dostęp­ny na licencji: Uznanie autorstwa-Na tych samych warunk­ach 3.0 Pol­s­ka.

< Powrót do spisu treś­ci numeru.

Ilus­trac­ja: Mał­gorza­ta Uglik

Najnowszy numer można nabyć od 17 maja w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2019 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy