Filozofia umysłu Kognitywistyka Wywiady

Głębokie sieci neuronowe pozwalają stawiać pytania, których wcześniej nie byliśmy nawet świadomi [wywiad]

Wywiad z Cameronem Bucknerem, przeprowadzony przez Hajo Greifa w marcu 2019 r.

Zapisz się do naszego newslettera

Down­load (PDF, 1.9MB)


H.G.: Twierdzi Pan, że głębok­ie sieci neu­ronowe mają dla filo­zofii szczególne znacze­nie – znacze­nie, które wykracza poza ramy doty­chcza­sowych dyskusji o sztucznej inteligencji (np. o inteligencji ucieleśnionej, grun­towa­niu sen­su w sym­bo­l­ach czy chińskim poko­ju). Na czym pole­ga, w najwięk­szym skró­cie, filo­zoficzne znacze­nie sieci głębo­kich? Dla jakich dzi­ałów filo­zofii włas­noś­ci takich sieci są ważne?

C.B.: Twierdzę, że wiedza o sieci­ach głębo­kich pozwala wypełnić ważne, trud­no doty­chczas usuwalne luki w empirycznym pode­jś­ciu do umysłu (Buck­n­er, 2018). Według empirys­tów, mówiąc bard­zo ogól­nie, cała wiedza pochodzi z per­cepcji zmysłowej – z tego, co widz­imy, dotykamy, smaku­je­my, czu­je­my, czyli z tego, czego doświad­cza­my w inter­akcji z otocze­niem. Racjon­al­iś­ci twierdzą nato­mi­ast, że ludz­ka wiedza ma charak­ter wrod­zony, a fakt jej ist­nienia moż­na wyjaśnić, odwołu­jąc się do takich zjawisk, jak reinkar­nac­ja, ilu­mi­nac­ja, czy też (od niedaw­na) roz­ciąg­nię­ty na całe pokole­nia, ewolucyjny dobór nat­u­ral­ny. Teorie racjon­al­istów są najbardziej wiary­godne wów­czas, gdy doty­czą rezul­tatów wyższych czyn­noś­ci poz­naw­czych – na przykład wiedzy matem­aty­cznej, log­icznej lub ling­wisty­cznej, której poprawność wyda­je się zależ­na od wysoce abstrak­cyjnych pojęć i reguł. Z drugiej strony, trady­cyjne teorie empirys­tów wyda­ją się wyjaś­ni­ać najlepiej codzi­enne czyn­noś­ci per­cep­cyjne i umiejęt­noś­ci moto­ryczne.

Najwięk­szym wyzwaniem dla empirys­tów było zawsze prze­jś­cie od prostej per­cepcji, tj. rozpoz­nawa­nia dość typowych przed­miotów, do wyjaśnienia tego, jak człowiek tworzy bardziej abstrak­cyjne wzorce, wyko­rzysty­wane na poziomie wiedzy kul­tur­owej i teo­re­ty­cznej – na przykład do rozpoz­nawa­nia zwierząt, jak koty i psy, arte­fak­tów, jak krzesła i samo­chody, czy włas­noś­ci abstrak­cyjnych, jak wiara i spraw­iedli­wość. Prze­jś­cie takie stanowi dla empirys­tów prob­lem, ponieważ wyższe kat­e­gorie poję­ciowe nie są do siebie zbyt podob­ne, jeśli chodzi o swo­je niskopoziomowe włas­noś­ci per­cep­cyjne. Typowi empiryś­ci, na przykład John Locke i David Hume, mieli trud­noś­ci z wyjaśnie­niem, w jaki sposób uczymy się nawet tak prostych kat­e­gorii geom­e­trycznych jak trójkąt – wszak real­nie postrze­gane trójką­ty mogą być różnoboczne i równoboczne, mogą wys­tępować w różnych obszarach pola widzenia, mogą być widziane pod różny­mi kąta­mi, mogą mieć wresz­cie różne kolory i wymi­ary. Koniec końców każdy empirys­ta odwołu­je się do jakiegoś typu abstrakcji, żaden z nich nie wyjaś­nia jed­nak dokład­nie, w jaki sposób taki czy inny pro­ces abstrakcji prowadzi do pożą­danych rezul­tatów. Z tego powodu racjon­al­iś­ci wielokrot­nie oskarżali empirys­tów, że powołu­ją się oni na tego typu nie­jasne metafory i mag­iczne zdol­noś­ci, które za pomocą swoich „twardych” teorii chcieli­by zwal­czyć.

Jestem przeko­nany, że głębok­ie kon­wolucyjne sieci neu­ronowe, a zwłaszcza ich nowego rodza­ju architek­tu­ra, pokazu­ją ostate­cznie, jak pro­cesy abstrakcji mogą prze­b­ie­gać w ludzkim mózgu. Właś­ci­wa takim sieciom zdol­ność abstrakcji, z jed­nej strony, wyjaś­nia ich najbardziej spek­taku­larne sukcesy (jak poko­nanie ludz­kich arcymistrzów gry w szachy i Go, rozpoz­nawanie złożonych obiek­tów na fotografi­ach i fil­mach wideo, czy sterowanie auto­nom­iczny­mi samo­choda­mi), z drugiej strony jed­nak, może przy­czynić się do rozwiąza­nia pewnych trady­cyjnych prob­lemów filo­zofii umysłu.

H.G.: W jakim zakre­sie tem­aty­ka sieci głębo­kich może stanow­ić kon­tynu­ację wcześniejszej reflek­sji filo­zoficznej nad sztuczną inteligencją?

C.B.: W lat­ach 80-tych i 90-tych XX wieku wielu filo­zofów anal­i­zowało architek­turę ówczes­nych sieci neu­ronowych, co doprowadz­iło do wielu cen­nych spostrzeżeń na tem­at różnic między umysła­mi i klasy­czny­mi kom­put­era­mi cyfrowy­mi. Uświadomiono sobie, że umysł niczym sieć ope­ru­je na rozpros­zonych reprezen­tac­jach sub­sym­bol­icznych, które są bard­zo wrażli­we na sub­telne zmi­any „danych wejś­ciowych”; że sposób dzi­ała­nia umysłu zależy bardziej od „mięk­kich ograniczeń” niż twardych, ściśle określonych reguł; że pro­jek­tu­jąc sys­te­my umysło-podob­ne, należy stosować tech­ni­ki uczenia się na danych przy­pom­i­na­ją­cych realne doświad­czenia ludzi (np. z dziecińst­wa), a nie szty­wne pro­gramy odw­zorowu­jące w sys­temie zamkniętą wiedzę ekspertów. Wszys­tkie te spostrzeże­nia przenoszą się na bardziej wyrafi­nowane architek­tu­ry głębo­kich sieci neu­ronowych (Buck­n­er & Gar­son, 2018).

Jed­nocześnie architek­tu­ry głębok­ie pozwala­ją przezwyciężyć tak częs­to kry­tykowane słaboś­ci prost­szych (i starszych) architek­tur. Chodzi o takie słaboś­ci, jak niemożność dos­tosowa­nia sieci do rozpoz­nawa­nia bardziej abstrak­cyjnych wzor­ców i kat­e­gorii, a także niemożność opanowa­nia bardziej strate­gicznych metod rozwiązy­wa­nia prob­lemów, które poz­woliły­by sieciom np. grać skutecznie w szachy czy Go (co potrafią współczesne sieci głębok­ie).

H.G.: Ist­nieją dwa różne pode­jś­cia do sztucznej inteligencji: dąże­nie do tego, aby kom­put­ery wykony­wały zada­nia wyma­ga­jące inteligencji od człowieka (niekoniecznie jed­nak w sposób podob­ny do ludzi) oraz symu­lowanie pro­cesów poz­naw­czych ludzi. Które z pode­jść może sko­rzys­tać bardziej z tech­nologii sieci głębo­kich? A może z punk­tu widzenia tej tech­nologii rozróżnie­nie oby­d­wu pode­jść nie jest tak oczy­wiste?

C.B.: Rzeczy­wiś­cie uważam, że w odniesie­niu do sieci głębo­kich zagad­nie­nie to jest złożone. Architek­tu­ra wielu sieci głębo­kich bardziej przy­pom­i­na struk­turę ludzkiej kory móz­gowej niż starsze mod­ele sztucznej inteligencji, jak cho­ci­aż­by klasy­czne sys­te­my eksper­ck­ie czy prost­sze sieci neu­ronowe. Co więcej, sieci głębok­ie są uznawane przez neu­ro­bi­ologów za najbardziej adek­wat­ny mod­el empiryczny funkcji wzrokowych i słu­chowych u ssaków, mają więc ogrom­ny potenc­jał w mod­e­lowa­niu inteligencji na poziomie bio­log­icznym. Mimo wszys­tko jed­nak stanow­ią one pewne ide­al­iza­c­je i zaw­ier­a­ją wiele ele­men­tów niewiary­god­nych bio­log­icznie.

Na tym etapie badań nad sztuczną inteligencją filo­zofia nau­ki ma do ode­gra­nia więk­szą rolę niż w przeszłoś­ci. Uważam w szczegól­noś­ci, że obec­nie ważniejsze niż kiedykol­wiek jest zrozu­mie­nie natu­ry podobieńst­wa między struk­turą sieci głębo­kich a mózga­mi ssaków. Pro­jek­tu­jąc, a następ­nie imple­men­tu­jąc takie sieci, musimy wyraźnie określić, jakie aspek­ty inteligencji chce­my mod­e­lować. W sposób nieuchron­ny wszelkie mod­ele naukowe są tylko częś­ciowym odzwier­ciedle­niem zjawisk nat­u­ral­nych, a zatem w przy­pad­ku mod­e­lowa­nia neu­ro­bi­o­log­icznych pod­staw inteligencji, należy wskazać takie ide­al­iza­c­je i uproszczenia, które uch­wytu­ją najbardziej istotne aspek­ty pro­cesów wewnątrzmóz­gowych odpowiedzial­nych za nasze zdol­noś­ci intelek­tu­alne. Na szczęś­cie filo­zoficz­na reflek­s­ja nad tymi zagad­nieni­a­mi przeży­wa obec­nie swój zło­ty wiek. W porów­na­niu do lat wcześniejszych mamy dzisi­aj o wiele więcej danych, a także narzędzi do rozwiąza­nia różnych filo­zoficznych kwestii. Sieci głębok­ie pozwala­ją staw­iać pyta­nia, których wcześniej nie byliśmy nawet świado­mi. W szczegól­noś­ci doty­czą one typów wyjaśnień, których powin­ny dostar­czać mod­ele inteligencji na poziomie bio­log­icznym – mechan­icznych, matem­aty­cznych i funkcjon­al­nych. Są to naprawdę pasjonu­jące zagad­nienia badaw­cze i mam nadzieję, że wielu innych filo­zofów zwró­ci na nie wkrótce uwagę.

H.G.: A jeśli chodzi o symu­lac­je poz­naw­cze… W jakim zakre­sie może­my porówny­wać dzi­ałanie sieci głębo­kich z proce­sa­mi poz­naw­czy­mi u ludzi i zwierząt? Co jest konieczne, by zapewnić porówny­wal­ność? Jakie są potenc­jalne ograniczenia takiej metody (np. brak ucieleśnienia, bardziej ogranic­zone środowisko)?

C.B.: Wiele z moich wcześniejszych prac doty­czyło bezpośred­nio pro­cesów poz­naw­czych u zwierząt. Myślę, że w tej dziedzinie ogromne znacze­nie mają rozważa­nia nad błęd­ny­mi założe­ni­a­mi badaw­czy­mi: antropo­mor­fizmem i antropocen­tryzmem. W szczegól­noś­ci twierdzę, że wiele badań w psy­chologii porów­naw­czej było obar­c­zonych poważnym błę­dem, który nazy­wam „antropo­fab­u­lacją” – zakła­da się, że tylko ludz­ka for­ma zdol­noś­ci poz­naw­czych jest wartoś­ciowa lub prawdzi­wa, a następ­nie kon­fab­u­lu­je się na tem­at tego, w jaki sposób ludzie fak­ty­cznie rozwiązu­ją zada­nia poz­naw­cze (Buck­n­er, 2013). Prob­lem z antropo­fab­u­lacją pole­ga, między inny­mi, na tym, że jeśli ludzie byli­by oce­ni­ani ucz­ci­wie, to nie zal­iczyli­by testów stosowanych wobec zwierząt.

Obaw­iam się, że wielu uczonych oce­ni­a­jąc doko­na­nia sieci głębo­kich ule­ga antropo­fab­u­lacji. Argu­men­tu­je się, na przykład, że sieci nie są wiary­god­ny­mi mod­e­la­mi ludzkiego uczenia się, ponieważ do rozpoz­nawa­nia krze­seł potrzeb­ne im są mil­iony obrazów treningowych, ludzie zaś potrafią nauczyć się tego samego na pod­staw­ie kilku zaled­wie przykładów. Porów­na­nia takie muszą jed­nak zależeć od sposobu liczenia przykład­owych ekspozy­cji. Ponieważ ludz­ki wzrok ma częs­totli­wość odświeża­nia 10–12 obrazów na sekundę, to dziesię­ciomin­u­towa inter­akc­ja z jed­nym krzesłem – postrze­ganym prze­cież z różnych kątów i odległoś­ci – może dostar­czyć korze móz­gowej tysię­cy różnych przykładów. A ponieważ te ekspozy­c­je są wielokrot­nie odświeżane pod­czas utr­wala­nia w pamię­ci – zarówno w cza­sie snu, jak i na jaw­ie – to ucz­ci­wie rzecz biorąc, poje­dyncze krzesło zapew­nia człowiekowi set­ki tysię­cy przykładów treningowych.

H.G.: Dzialanie głębo­kich sieci neu­ronowych jest prze­ważnie tak skom­p­likowane, że ich obser­wa­torom, a nawet pro­gramis­tom czy użytkown­ikom, niezwyk­le trud­no jest śledz­ić, co i jak robią w danym momen­cie. Pod jaki­mi wzglę­da­mi owo zjawisko „epis­temicznej nieprze­jrzys­toś­ci” jest prob­le­mem? Czy jest ono czymś, co doty­czy sieci głębo­kich w sposób szczegól­ny?

C.B.: Jest to rzeczy­wiś­cie palą­cy prob­lem, zwłaszcza w świ­etle ostat­nich pro­jek­tów i reg­u­lacji prawnych, przyję­tych w USAUE. Na przykład ogólne roz­porządze­nie Unii Europe­jskiej w spraw­ie ochrony danych określa obec­nie, że ludzie mają „pra­wo do wyjaśnień”; mają do nich pra­wo również wtedy, kiedy pewne zau­tomaty­zowane układy, np. sieci głębok­ie, są wyko­rzysty­wane do pode­j­mowa­nia decyzji wiążą­cych ich prawnie. Tech­nolo­gia sieci głębo­kich jest jed­nak na tyle nowa, a ich architek­tu­ra wewnętrz­na na tyle złożona, że dopiero zaczy­namy rozu­mieć, na czym może pole­gać wyjaś­ni­an­ie pode­j­mowanych przez sieć decyzji. Zapro­ponowano wiele skom­p­likowanych tech­nicznie metod, ale częs­to nie wiado­mo dokład­nie, czemu one służą – również ze wzglę­du na brak dostate­cznie sub­tel­nych rozróżnień poję­ciowych. Twierdzę, na przykład, że metody te służą częs­to real­iza­cji roz­bieżnych celów. Przykład­owo: pró­by dokład­nego, przy­czynowo-skutkowego, wyjaśnienia sposobu dzi­ała­nia sieci – tzn. które aspek­ty danych wejś­ciowych doprowadz­iły do konkret­nej decyzji lub które węzły były istot­nie zaan­gażowane w przetwarzanie danych – może wyma­gać zupełnie innego zestawu pytań i narzędzi niż pró­by uza­sad­nienia pode­j­mowanych przez sieć decyzji – tzn. czy decyz­ja jest wiary­god­na, możli­wa do obrony, itp. Ten rodzaj rozróżnienia był sze­roko dysku­towany w filo­zofii w kon­tekś­cie różni­cy między „racjon­al­noś­cią wyjaś­ni­a­nia” i „racjon­al­noś­cią uza­sad­ni­a­nia”. Jeśli chce­my uniknąć poz­naw­czego zamiesza­nia i osiągnąć pożą­dany efekt, to pracu­jąc nad „wyjaś­nial­ną SI” czyli prze­jrzys­tą poz­naw­c­zo sztuczną inteligencją, powin­niśmy w o wiele więk­szym stop­niu korzys­tać z wyników filo­zofów umysłu, filo­zofów dzi­ała­nia i etyków.

H.G.: Mówi się, że sieci głębok­ie osią­ga­ją nad­ludzkie wyni­ki w real­iza­cji pewnych zadań. Czy ta obserwac­ja ma znacze­nie w debat­ach na tem­at „tech­no­log­icznej osobli­woś­ci”, tj. możli­woś­ci osiąg­nię­cia przez kom­put­ery nad­ludzkiej inteligencji? A może dyskus­ja o sieci­ach powin­na zmierzać w zupełnie innym kierunku?

C.B.: Myślę – podob­nie jak więk­szość spec­jal­istów w dziedzinie sieci neu­ronowych – że obawy doty­czące osobli­woś­ci są wysoce speku­laty­wne. O ile sieci głębok­ie sprawdza­ją się doskonale w rozpoz­nawa­niu wysoce abstrak­cyjnych wzor­ców w danych, to nie staw­ia­ją sobie prze­cież żad­nych nowych celów, ani nie mody­fiku­ją swo­jej architek­tu­ry w żaden intere­su­ją­cy sposób. Pró­by obliczeniowego mod­e­lowa­nia emocji, prag­nień, czy nawet pod­sta­wowych popędów bio­log­icznych pozosta­ją wciąż w pow­i­jakach. Cho­ci­aż sądzę zatem, że sieci głębok­ie są słusznie doce­ni­ane za to, że poz­woliły nam lep­iej zrozu­mieć, czym jest inteligenc­ja na poziomie bio­log­icznym – a być może nawet poz­wolą nam pokon­ać pewne ludzkie ograniczenia – to, sądzę również, że daleko nam jeszcze do stworzenia auto­nom­icznej „inteligencji ogól­nej”, która mogła­by for­mułować własne cele i przekraczać ludzkie granice (również tam, gdzie się tego nie spodziewamy). Co więcej, ist­nieją praw­dopodob­nie zasad­nicze powody, dla których możli­wość ta pozosta­je czymś niezwyk­le odległym. Otóż wiele badań nad sztuczną inteligencją, sto­sunkowo prze­cież świeżych (zwłaszcza w skali ewolucyjnej), zmierza do tego, aby nie­jako od razu wyposażyć maszyny w abstrak­cyjną wiedzę ludzką. Jest to swego rodza­ju infor­maty­czny Świę­ty Graal. Trze­ba sobie tym­cza­sem uświadomić, że naturze potrze­ba było setek mil­ionów lat, aby udoskon­al­ić o wiele bardziej pod­sta­wowe mech­a­nizmy, odpowiedzialne cho­ci­aż­by za popędy bio­log­iczne czy płynne przetwarzanie emocji.

Tłu­macze­nie: Paweł Stacewicz
(Politech­ni­ka Warsza­wska)


Cameron Buck­n­er – adi­unkt w Insty­tu­cie Filo­zofii na Uni­w­er­syte­cie Hous­ton w Tek­sasie, USA. Spec­jal­izu­je się w bada­ni­ach nad sztuczną inteligencją i kog­ni­ty­wistyką. Doty­czą one w szczegól­noś­ci związku między mod­e­la­mi rozwiązy­wa­nia prob­lemów w SI a meto­da­mi rozwiązy­wa­nia prob­lemów u ludzi i zwierząt. Jego obec­na pra­ca doty­czy per­cep­cyjnych i epis­te­mo­log­icznych imp­likacji do Deep Con­vo­lu­tion­al Neur­al Net­works jako mod­eli ludzkiego uczenia się.

Hajo Greif – filo­zofem pracu­ją­cym w dziedzinie his­torii, socjologii oraz filo­zofii nau­ki i tech­ni­ki. Dok­torat uzyskał na Uni­w­er­syte­cie Tech­nicznym w Darm­stadt (Niem­cy), zaś habil­i­tację na Uni­w­er­syte­cie Kla­gen­fur­ckim (Aus­tria). Jego główne zain­tere­sowa­nia badaw­cze doty­czą poz­na­nia usy­tuowanego i ucieleśnionego, arte­fak­tów poz­naw­czych, nat­u­ral­isty­cznej filo­zofii umysłu (teleose­man­ty­ka i ewolucyj­na teo­ria funkcji poz­naw­czych), a także his­torii i filo­zofii kog­ni­ty­wisty­ki (np. w kon­tekś­cie związków między cyber­ne­tyką i sztuczną inteligencją). Obec­nie pracu­je na Uni­w­er­syte­cie Tech­nicznym w Monachi­um (Cen­trum Tech­nologii w Społeczeńst­wie) oraz w Politech­nice Warsza­wskiej.

Najnowszy numer można nabyć od 17 maja w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2019 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy