Artykuł Filozofia umysłu

Marcin Miłkowski: Czy bać się myślących maszyn?

Oczywiście! Myślące maszyny, zdeterminowane do realizacji swoich celów – które mogą być zupełnie niezgodne z naszymi – mogą być bardzo groźne. Tylko że na razie takimi maszynami jesteśmy my, ludzie, oraz inne inteligentne zwierzęta.

Tekst uka­zał się w „Filo­zo­fuj!” 2018 nr 6 (24), s. 16–17. W peł­nej wer­sji gra­ficz­nej jest dostęp­ny w pli­ku PDF.


Ludzki umysł to też tylko maszyna

Cokol­wiek może zro­dzić się w myślach orga­ni­zmu żywe­go, może też być w umy­śle sztucz­nym, jeśli tyl­ko współ­cze­sne teo­rie bio­lo­gicz­ne weź­mie­my poważ­nie. Prze­cież inte­li­gent­ne zwie­rzę­ta, w tym i ludzie, oka­zu­ją się jedy­nie myślą­cy­mi maszy­na­mi. Osią­gnię­cia nauki pozwa­la­ją powie­dzieć wprost: to, co kie­dyś uwa­ża­no za sza­lo­ne myśli rady­ka­ła, takie­go jak Julien Offray de la Met­trie (1709–1751), budzą­ce­go zgor­sze­nie książ­ka­mi Czło­wiek-maszy­na, a wcze­śniej Czło­wiek-rośli­na, dziś wyda­je się bana­łem. Tak, mecha­ni­zmy bio­lo­gicz­ne są tyl­ko mecha­ni­zma­mi. Nie ma siły życio­wej, tajem­ni­cze­go tchnie­nia, któ­re odróż­nia­ło­by bak­te­rie od wiru­sów. Róż­ni je tyl­ko moż­li­wość reali­za­cji pro­ce­sów prze­mia­ny mate­rii, wspar­ta na zdol­no­ści do samo­or­ga­ni­za­cji, ogra­ni­czo­nej i ułom­nej, bo jed­nak nie­mo­gą­cej sta­wić czo­ła nie­unik­nio­nej śmier­ci i przemijaniu.

Tak, myślą­cych maszyn nale­ży się bać, tak jak nale­ży bać się ludz­kiej lek­ko­myśl­no­ści, głu­po­ty i skłon­no­ści do roz­wią­zy­wa­nia pro­ble­mów prze­mo­cą. Jed­nak nie trze­ba się bać prze­sad­nie. Wie­lo­kroć bar­dziej szko­dli­wy jest zło­śli­wy poli­tyk o dużej wła­dzy, odrzu­ca­ją­cy usta­le­nia nauki w imię swo­je­go, wąsko poję­te­go inte­re­su, od naj­bar­dziej inte­li­gent­ne­go kom­pu­te­ra, któ­ry jedy­nie prze­twa­rza infor­ma­cje bez wpły­wu na rze­czy­wi­stość. Lęk, że samo szyb­kie roz­wią­zy­wa­nie pro­ble­mów da sztucz­nej inte­li­gen­cji ogrom­ną wła­dzę, jest mało uzasadniony.

Cho­ciaż kasan­drycz­ne wizje o sztucz­nej inte­li­gen­cji przej­mu­ją­cej wła­dzę snu­li nawet tak wybit­ni naukow­cy jak Ste­phen Haw­king, trak­to­wał­bym je z przy­mru­że­niem oka. A to dla­te­go, że nawet gdy­by nastą­pił mało praw­do­po­dob­ny gwał­tow­ny prze­łom w budo­wa­niu maszyn inte­li­gent­nych, to mogą one oka­zać się rów­nie pozba­wio­ne wpły­wu na rze­czy­wi­stość eko­no­micz­ną czy poli­tycz­ną, jak miliar­dy ludzi, nie mówiąc o miliar­dach inte­li­gent­nych zwie­rząt. Żeby inte­li­gen­cja sta­ła się groź­na, musia­ła­by się­gnąć po władzę.

Po co sztucznej inteligencji władza?

Tym­cza­sem nie­szcze­gól­nie wie­my, jak – i po co – budo­wać maszy­ny mają­ce ele­men­tar­ne emo­cje. Bez emo­cji zaś sztucz­na inte­li­gen­cja raczej nie będzie pra­gnąć wła­dzy. Co naj­wy­żej będzie reali­zo­wać jakiś algo­rytm, któ­ry oczy­wi­ście może być nowy i twór­czy. Dzi­siaj trud­no nam powie­dzieć, w jaki spo­sób maszy­ny w ogó­le mogły­by sobie wyzna­czać cele. Obec­ny roz­wój sys­te­mów sztucz­nej inte­li­gen­cji jest, co praw­da, burz­li­wy, ale nie jest rów­no­mier­ny. Kon­cen­tru­je się głów­nie na moż­li­wo­ściach wydo­by­wa­nia abs­trak­cyj­nych wzor­ców z ist­nie­ją­cych danych – czy­li na ucze­niu maszy­no­wym. Myśle­nie na temat sie­bie same­go i zdo­by­wa­nie zaso­bów w celu dal­sze­go ist­nie­nia pozo­sta­je na razie poza hory­zon­tem współ­cze­snych systemów.

Spe­cjal­nie pod­kre­ślam, że cho­dzi o sys­te­my współ­cze­sne. Jest z pew­no­ścią moż­li­we tech­nicz­nie, że wypo­sa­żo­ne w sztucz­ną inte­li­gen­cję sys­te­my mogły­by zyskać coś w rodza­ju samo­dziel­no­ści ukła­dów bio­lo­gicz­nych – isto­ty żywe to prze­cież też maszy­ny szcze­gól­ne­go typu. Lecz nawet gdy­by ją mia­ły, nie jest jasne, w jaki spo­sób mia­ły­by zdo­być wła­dzę polityczną.

Od inteligencji do inżynierii społecznej

Oczy­wi­ście wie­my, że w epo­ce inter­ne­tu bez­pie­czeń­stwo spo­łe­czeństw ludz­kich zale­ży od ist­nie­nia zabez­pie­czeń przed ata­ka­mi infor­ma­tycz­ny­mi. Nie­zdol­ne do nudy sys­te­my sztucz­nej inte­li­gen­cji sta­no­wią spo­re zagro­że­nie, gdyż mogą żmud­nie i coraz bar­dziej kre­atyw­nie pró­bo­wać takie zabez­pie­cze­nia omi­jać. Do tej pory naj­wyż­szym zagro­że­niem zabez­pie­czeń w inter­ne­cie pozo­sta­je tzw. czyn­nik ludz­ki – hake­rzy bowiem potra­fią po pro­stu zadzwo­nić do oso­by odpo­wie­dzial­nej za zabez­pie­cze­nia i pod­szyć się pod oso­bę, któ­ra jest upraw­nio­na do ich wyłą­cze­nia. Na razie sys­te­my sztucz­nej inte­li­gen­cji są kom­plet­nie nie­zdol­ne do tak wyra­fi­no­wa­nej inży­nie­rii społecznej.

Taka inży­nie­ria wyma­ga bowiem przy­naj­mniej mini­mal­nej umie­jęt­no­ści prze­wi­dy­wa­nia i wyja­śnia­nia tego, co myślą inni. Jed­nak nadal nie wie­my, co jest potrzeb­ne, żeby mieć sku­tecz­ny model tego, co myślą inni. Mię­dzy inny­mi dla­te­go zbu­do­wa­nie praw­dzi­wej sztucz­nej inte­li­gen­cji, takiej, któ­ra zdo­ła­ła­by zawsze pod­szyć się pod czło­wie­ka, przy­naj­mniej w roz­mo­wie, jest tak pie­kiel­nie trud­ne. I cho­ciaż Alan Turing, genial­ny mate­ma­tyk i filo­zof, już pra­wie 70 lat temu pro­po­no­wał, by sztucz­ną inte­li­gen­cję – a więc i sztucz­ne myśle­nie w ogó­le – oce­niać po owo­cach, któ­re powin­ny być nie­odróż­nial­ne od ludz­kich, to jego test pozo­sta­je cały czas trud­nym wyzwa­niem. Pole­ga on na tym, że sys­tem sztucz­nej inte­li­gen­cji ma pro­wa­dzić nie­ogra­ni­czo­ną tema­tycz­nie i cza­so­wo roz­mo­wę, nie będąc roz­po­zna­nym jako taki, lecz będąc uzna­nym za czło­wie­ka. Tym­cza­sem nawet nie wie­my, jak do real­ne­go przej­ścia tego testu nawet mia­ło­by dojść.

Czy bać się sztucznej inteligencji?

Wie­my, że kie­dyś do tego doj­dzie. Lecz zało­że­nie, że kie­dy tyl­ko maszy­ny uzy­ska­ją moż­li­wość szyb­sze­go wydo­by­wa­nia abs­trak­cyj­nych wzor­ców, natych­miast zyska­ją moż­li­wość przej­ścia testu Turin­ga, wyzna­czą sobie zło­wiesz­cze dla ludz­ko­ści cele i przej­mą wła­dzę nad świa­tem, jest po pro­stu naiw­ne. Nie od razu Rzym zbu­do­wa­no. Dla­te­go wia­ra, że ist­nie­je magicz­ny punkt – zwa­ny w lite­ra­tu­rze „oso­bli­wo­ścią” – po któ­re­go prze­kro­cze­niu sztucz­na inte­li­gen­cja zacznie roz­wi­jać się tak żywio­ło­wo, aż bły­ska­wicz­nie prze­kro­czy ludz­ką, wyda­je się raczej typo­wym błę­dem w rozu­mo­wa­niu: to rów­nia pochy­ła. Nie ma żad­nej gwa­ran­cji, że inte­li­gen­cja sama sie­bie zacznie napę­dzać i przy­spie­szać. Dojść do tego może, ale zapew­ne do tego cza­su ludz­kość będzie się raczej zma­gać z pro­ble­mem zwią­za­nym z tym, jak potrak­to­wa­ła swo­je śro­do­wi­sko natu­ral­ne, dopro­wa­dza­jąc do glo­bal­ne­go ocie­ple­nia. Ta kata­stro­fa jest znacz­nie bar­dziej real­na – i mogła­by zostać powstrzy­ma­na, gdy­by nie ego­izm naj­więk­szych kra­jów i kor­po­ra­cji globalnych.


Mar­cin Mił­kow­ski – Pro­fe­sor w Insty­tu­cie Filo­zo­fii i Socjo­lo­gii Pol­skiej Aka­de­mii Nauk, w Zakła­dzie Logi­ki i Kogni­ty­wi­sty­ki, filo­zof nauk o pozna­niu. W wol­nych chwi­lach pro­gra­mu­je, słu­cha jaz­zu i jeź­dzi na rowerze.

Tekst jest dostęp­ny na licen­cji: Uzna­nie autor­stwa-Na tych samych warun­kach 3.0 Pol­ska.

< Powrót do spi­su tre­ści numeru.

Ilu­stra­cja: Mał­go­rza­ta Uglik

Najnowszy numer można nabyć od 1 września w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2021 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy