Filozofia umysłu Kognitywistyka Wywiady

Głębokie sieci neuronowe pozwalają stawiać pytania, których wcześniej nie byliśmy nawet świadomi [wywiad]

wywiad greif buckner
Wywiad z Cameronem Bucknerem, przeprowadzony przez Hajo Greifa w marcu 2019 r.

Download (PDF, 1.9MB)


H.G.: Twierdzi Pan, że głębokie sieci neuronowe mają dla filozofii szczególne znaczenie – znaczenie, które wykracza poza ramy dotychczasowych dyskusji o sztucznej inteligencji (np. o inteligencji ucieleśnionej, gruntowaniu sensu w symbolach czy chińskim pokoju). Na czym polega, w największym skrócie, filozoficzne znaczenie sieci głębokich? Dla jakich działów filozofii własności takich sieci są ważne?

C.B.: Twierdzę, że wiedza o sieciach głębokich pozwala wypełnić ważne, trudno dotychczas usuwalne luki w empirycznym podejściu do umysłu (Buckner, 2018). Według empirystów, mówiąc bardzo ogólnie, cała wiedza pochodzi z percepcji zmysłowej – z tego, co widzimy, dotykamy, smakujemy, czujemy, czyli z tego, czego doświadczamy w interakcji z otoczeniem. Racjonaliści twierdzą natomiast, że ludzka wiedza ma charakter wrodzony, a fakt jej istnienia można wyjaśnić, odwołując się do takich zjawisk, jak reinkarnacja, iluminacja, czy też (od niedawna) rozciągnięty na całe pokolenia, ewolucyjny dobór naturalny. Teorie racjonalistów są najbardziej wiarygodne wówczas, gdy dotyczą rezultatów wyższych czynności poznawczych – na przykład wiedzy matematycznej, logicznej lub lingwistycznej, której poprawność wydaje się zależna od wysoce abstrakcyjnych pojęć i reguł. Z drugiej strony, tradycyjne teorie empirystów wydają się wyjaśniać najlepiej codzienne czynności percepcyjne i umiejętności motoryczne.

Największym wyzwaniem dla empirystów było zawsze przejście od prostej percepcji, tj. rozpoznawania dość typowych przedmiotów, do wyjaśnienia tego, jak człowiek tworzy bardziej abstrakcyjne wzorce, wykorzystywane na poziomie wiedzy kulturowej i teoretycznej – na przykład do rozpoznawania zwierząt, jak koty i psy, artefaktów, jak krzesła i samochody, czy własności abstrakcyjnych, jak wiara i sprawiedliwość. Przejście takie stanowi dla empirystów problem, ponieważ wyższe kategorie pojęciowe nie są do siebie zbyt podobne, jeśli chodzi o swoje niskopoziomowe własności percepcyjne. Typowi empiryści, na przykład John Locke i David Hume, mieli trudności z wyjaśnieniem, w jaki sposób uczymy się nawet tak prostych kategorii geometrycznych jak trójkąt – wszak realnie postrzegane trójkąty mogą być różnoboczne i równoboczne, mogą występować w różnych obszarach pola widzenia, mogą być widziane pod różnymi kątami, mogą mieć wreszcie różne kolory i wymiary. Koniec końców każdy empirysta odwołuje się do jakiegoś typu abstrakcji, żaden z nich nie wyjaśnia jednak dokładnie, w jaki sposób taki czy inny proces abstrakcji prowadzi do pożądanych rezultatów. Z tego powodu racjonaliści wielokrotnie oskarżali empirystów, że powołują się oni na tego typu niejasne metafory i magiczne zdolności, które za pomocą swoich „twardych” teorii chcieliby zwalczyć.

Jestem przekonany, że głębokie konwolucyjne sieci neuronowe, a zwłaszcza ich nowego rodzaju architektura, pokazują ostatecznie, jak procesy abstrakcji mogą przebiegać w ludzkim mózgu. Właściwa takim sieciom zdolność abstrakcji, z jednej strony, wyjaśnia ich najbardziej spektakularne sukcesy (jak pokonanie ludzkich arcymistrzów gry w szachy i Go, rozpoznawanie złożonych obiektów na fotografiach i filmach wideo, czy sterowanie autonomicznymi samochodami), z drugiej strony jednak, może przyczynić się do rozwiązania pewnych tradycyjnych problemów filozofii umysłu.

H.G.: W jakim zakresie tematyka sieci głębokich może stanowić kontynuację wcześniejszej refleksji filozoficznej nad sztuczną inteligencją?

C.B.: W latach 80-tych i 90-tych XX wieku wielu filozofów analizowało architekturę ówczesnych sieci neuronowych, co doprowadziło do wielu cennych spostrzeżeń na temat różnic między umysłami i klasycznymi komputerami cyfrowymi. Uświadomiono sobie, że umysł niczym sieć operuje na rozproszonych reprezentacjach subsymbolicznych, które są bardzo wrażliwe na subtelne zmiany „danych wejściowych”; że sposób działania umysłu zależy bardziej od „miękkich ograniczeń” niż twardych, ściśle określonych reguł; że projektując systemy umysło-podobne, należy stosować techniki uczenia się na danych przypominających realne doświadczenia ludzi (np. z dzieciństwa), a nie sztywne programy odwzorowujące w systemie zamkniętą wiedzę ekspertów. Wszystkie te spostrzeżenia przenoszą się na bardziej wyrafinowane architektury głębokich sieci neuronowych (Buckner & Garson, 2018).

Jednocześnie architektury głębokie pozwalają przezwyciężyć tak często krytykowane słabości prostszych (i starszych) architektur. Chodzi o takie słabości, jak niemożność dostosowania sieci do rozpoznawania bardziej abstrakcyjnych wzorców i kategorii, a także niemożność opanowania bardziej strategicznych metod rozwiązywania problemów, które pozwoliłyby sieciom np. grać skutecznie w szachy czy Go (co potrafią współczesne sieci głębokie).

H.G.: Istnieją dwa różne podejścia do sztucznej inteligencji: dążenie do tego, aby komputery wykonywały zadania wymagające inteligencji od człowieka (niekoniecznie jednak w sposób podobny do ludzi) oraz symulowanie procesów poznawczych ludzi. Które z podejść może skorzystać bardziej z technologii sieci głębokich? A może z punktu widzenia tej technologii rozróżnienie obydwu podejść nie jest tak oczywiste?

C.B.: Rzeczywiście uważam, że w odniesieniu do sieci głębokich zagadnienie to jest złożone. Architektura wielu sieci głębokich bardziej przypomina strukturę ludzkiej kory mózgowej niż starsze modele sztucznej inteligencji, jak chociażby klasyczne systemy eksperckie czy prostsze sieci neuronowe. Co więcej, sieci głębokie są uznawane przez neurobiologów za najbardziej adekwatny model empiryczny funkcji wzrokowych i słuchowych u ssaków, mają więc ogromny potencjał w modelowaniu inteligencji na poziomie biologicznym. Mimo wszystko jednak stanowią one pewne idealizacje i zawierają wiele elementów niewiarygodnych biologicznie.

Na tym etapie badań nad sztuczną inteligencją filozofia nauki ma do odegrania większą rolę niż w przeszłości. Uważam w szczególności, że obecnie ważniejsze niż kiedykolwiek jest zrozumienie natury podobieństwa między strukturą sieci głębokich a mózgami ssaków. Projektując, a następnie implementując takie sieci, musimy wyraźnie określić, jakie aspekty inteligencji chcemy modelować. W sposób nieuchronny wszelkie modele naukowe są tylko częściowym odzwierciedleniem zjawisk naturalnych, a zatem w przypadku modelowania neurobiologicznych podstaw inteligencji, należy wskazać takie idealizacje i uproszczenia, które uchwytują najbardziej istotne aspekty procesów wewnątrzmózgowych odpowiedzialnych za nasze zdolności intelektualne. Na szczęście filozoficzna refleksja nad tymi zagadnieniami przeżywa obecnie swój złoty wiek. W porównaniu do lat wcześniejszych mamy dzisiaj o wiele więcej danych, a także narzędzi do rozwiązania różnych filozoficznych kwestii. Sieci głębokie pozwalają stawiać pytania, których wcześniej nie byliśmy nawet świadomi. W szczególności dotyczą one typów wyjaśnień, których powinny dostarczać modele inteligencji na poziomie biologicznym – mechanicznych, matematycznych i funkcjonalnych. Są to naprawdę pasjonujące zagadnienia badawcze i mam nadzieję, że wielu innych filozofów zwróci na nie wkrótce uwagę.

H.G.: A jeśli chodzi o symulacje poznawcze… W jakim zakresie możemy porównywać działanie sieci głębokich z procesami poznawczymi u ludzi i zwierząt? Co jest konieczne, by zapewnić porównywalność? Jakie są potencjalne ograniczenia takiej metody (np. brak ucieleśnienia, bardziej ograniczone środowisko)?

C.B.: Wiele z moich wcześniejszych prac dotyczyło bezpośrednio procesów poznawczych u zwierząt. Myślę, że w tej dziedzinie ogromne znaczenie mają rozważania nad błędnymi założeniami badawczymi: antropomorfizmem i antropocentryzmem. W szczególności twierdzę, że wiele badań w psychologii porównawczej było obarczonych poważnym błędem, który nazywam „antropofabulacją” – zakłada się, że tylko ludzka forma zdolności poznawczych jest wartościowa lub prawdziwa, a następnie konfabuluje się na temat tego, w jaki sposób ludzie faktycznie rozwiązują zadania poznawcze (Buckner, 2013). Problem z antropofabulacją polega, między innymi, na tym, że jeśli ludzie byliby oceniani uczciwie, to nie zaliczyliby testów stosowanych wobec zwierząt.

Obawiam się, że wielu uczonych oceniając dokonania sieci głębokich ulega antropofabulacji. Argumentuje się, na przykład, że sieci nie są wiarygodnymi modelami ludzkiego uczenia się, ponieważ do rozpoznawania krzeseł potrzebne im są miliony obrazów treningowych, ludzie zaś potrafią nauczyć się tego samego na podstawie kilku zaledwie przykładów. Porównania takie muszą jednak zależeć od sposobu liczenia przykładowych ekspozycji. Ponieważ ludzki wzrok ma częstotliwość odświeżania 10–12 obrazów na sekundę, to dziesięciominutowa interakcja z jednym krzesłem – postrzeganym przecież z różnych kątów i odległości – może dostarczyć korze mózgowej tysięcy różnych przykładów. A ponieważ te ekspozycje są wielokrotnie odświeżane podczas utrwalania w pamięci – zarówno w czasie snu, jak i na jawie – to uczciwie rzecz biorąc, pojedyncze krzesło zapewnia człowiekowi setki tysięcy przykładów treningowych.

H.G.: Dzialanie głębokich sieci neuronowych jest przeważnie tak skomplikowane, że ich obserwatorom, a nawet programistom czy użytkownikom, niezwykle trudno jest śledzić, co i jak robią w danym momencie. Pod jakimi względami owo zjawisko „epistemicznej nieprzejrzystości” jest problemem? Czy jest ono czymś, co dotyczy sieci głębokich w sposób szczególny?

C.B.: Jest to rzeczywiście palący problem, zwłaszcza w świetle ostatnich projektów i regulacji prawnych, przyjętych w USAUE. Na przykład ogólne rozporządzenie Unii Europejskiej w sprawie ochrony danych określa obecnie, że ludzie mają „prawo do wyjaśnień”; mają do nich prawo również wtedy, kiedy pewne zautomatyzowane układy, np. sieci głębokie, są wykorzystywane do podejmowania decyzji wiążących ich prawnie. Technologia sieci głębokich jest jednak na tyle nowa, a ich architektura wewnętrzna na tyle złożona, że dopiero zaczynamy rozumieć, na czym może polegać wyjaśnianie podejmowanych przez sieć decyzji. Zaproponowano wiele skomplikowanych technicznie metod, ale często nie wiadomo dokładnie, czemu one służą – również ze względu na brak dostatecznie subtelnych rozróżnień pojęciowych. Twierdzę, na przykład, że metody te służą często realizacji rozbieżnych celów. Przykładowo: próby dokładnego, przyczynowo-skutkowego, wyjaśnienia sposobu działania sieci – tzn. które aspekty danych wejściowych doprowadziły do konkretnej decyzji lub które węzły były istotnie zaangażowane w przetwarzanie danych – może wymagać zupełnie innego zestawu pytań i narzędzi niż próby uzasadnienia podejmowanych przez sieć decyzji – tzn. czy decyzja jest wiarygodna, możliwa do obrony, itp. Ten rodzaj rozróżnienia był szeroko dyskutowany w filozofii w kontekście różnicy między „racjonalnością wyjaśniania” i „racjonalnością uzasadniania”. Jeśli chcemy uniknąć poznawczego zamieszania i osiągnąć pożądany efekt, to pracując nad „wyjaśnialną SI” czyli przejrzystą poznawczo sztuczną inteligencją, powinniśmy w o wiele większym stopniu korzystać z wyników filozofów umysłu, filozofów działania i etyków.

H.G.: Mówi się, że sieci głębokie osiągają nadludzkie wyniki w realizacji pewnych zadań. Czy ta obserwacja ma znaczenie w debatach na temat „technologicznej osobliwości”, tj. możliwości osiągnięcia przez komputery nadludzkiej inteligencji? A może dyskusja o sieciach powinna zmierzać w zupełnie innym kierunku?

C.B.: Myślę – podobnie jak większość specjalistów w dziedzinie sieci neuronowych – że obawy dotyczące osobliwości są wysoce spekulatywne. O ile sieci głębokie sprawdzają się doskonale w rozpoznawaniu wysoce abstrakcyjnych wzorców w danych, to nie stawiają sobie przecież żadnych nowych celów, ani nie modyfikują swojej architektury w żaden interesujący sposób. Próby obliczeniowego modelowania emocji, pragnień, czy nawet podstawowych popędów biologicznych pozostają wciąż w powijakach. Chociaż sądzę zatem, że sieci głębokie są słusznie doceniane za to, że pozwoliły nam lepiej zrozumieć, czym jest inteligencja na poziomie biologicznym – a być może nawet pozwolą nam pokonać pewne ludzkie ograniczenia – to, sądzę również, że daleko nam jeszcze do stworzenia autonomicznej „inteligencji ogólnej”, która mogłaby formułować własne cele i przekraczać ludzkie granice (również tam, gdzie się tego nie spodziewamy). Co więcej, istnieją prawdopodobnie zasadnicze powody, dla których możliwość ta pozostaje czymś niezwykle odległym. Otóż wiele badań nad sztuczną inteligencją, stosunkowo przecież świeżych (zwłaszcza w skali ewolucyjnej), zmierza do tego, aby niejako od razu wyposażyć maszyny w abstrakcyjną wiedzę ludzką. Jest to swego rodzaju informatyczny Święty Graal. Trzeba sobie tymczasem uświadomić, że naturze potrzeba było setek milionów lat, aby udoskonalić o wiele bardziej podstawowe mechanizmy, odpowiedzialne chociażby za popędy biologiczne czy płynne przetwarzanie emocji.

Tłumaczenie: Paweł Stacewicz 
(Politechnika Warszawska)


Cameron Buckner – adiunkt w Instytucie Filozofii na Uniwersytecie Houston w Teksasie, USA. Specjalizuje się w badaniach nad sztuczną inteligencją i kognitywistyką. Dotyczą one w szczególności związku między modelami rozwiązywania problemów w SI a metodami rozwiązywania problemów u ludzi i zwierząt. Jego obecna praca dotyczy percepcyjnych i epistemologicznych implikacji do Deep Convolutional Neural Networks jako modeli ludzkiego uczenia się.

Hajo Greif – filozofem pracującym w dziedzinie historii, socjologii oraz filozofii nauki i techniki. Doktorat uzyskał na Uniwersytecie Technicznym w Darmstadt (Niemcy), zaś habilitację na Uniwersytecie Klagenfurckim (Austria). Jego główne zainteresowania badawcze dotyczą poznania usytuowanego i ucieleśnionego, artefaktów poznawczych, naturalistycznej filozofii umysłu (teleosemantyka i ewolucyjna teoria funkcji poznawczych), a także historii i filozofii kognitywistyki (np. w kontekście związków między cybernetyką i sztuczną inteligencją). Obecnie pracuje na Uniwersytecie Technicznym w Monachium (Centrum Technologii w Społeczeństwie) oraz w Politechnice Warszawskiej.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2024 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy