Artykuł Wywiady

Nadal potrzebujemy okrzyku „Eureka!” – Wywiad z Lucianem Floridim

Luciano Floridi: „Nadal potrzebujemy okrzyku »eureka!«” — Grafika: ChatGPT
Wywiad z Lucianem Floridim, jednym z największych autorytetów we współczesnej filozofii, twórcą filozofii informacji i jednym z głównych interpretatorów rewolucji cyfrowej.

Tekst ukazał się w „Filozofuj!” 2024 nr 1 (55), s. 24–27. W pełnej wersji graficznej jest dostępny w pliku PDF.


Co jest szczególnego w sztucznej inteligencji w porównaniu z innymi wynalazkami?

Gdybym miał wybrać tylko jedną cechę, to byłaby to zdolność do uczenia się bazującego na jej własnym zachowaniu. Niektórzy ludzie wciąż mówią: „Och, sztuczna inteligencja to tylko komputer, który jedynie wykonuje nasze polecenia”. Oczywiście musisz wydać instrukcje, określić cele do osiągnięcia itd., ale – i to jest najbardziej zdumiewająca rzecz dotycząca tej technologii – jest ona w stanie sama się ulepszać. Owo ulepszanie na podstawie własnego zachowania jest kontekstualne i ograniczone. Robot myjący podłogę będzie ulepszał swoje zachowanie, ale tylko w zakresie zmywania podłóg. Robot ten nie nauczy się kosić trawy. Natomiast robot, który wypełnia zadania kosiarki, będzie robił wyłącznie to. Jednak jest tutaj przestrzeń do ulepszeń i sztuczna inteligencja wykorzystuje ją na tyle autonomicznie, żebyśmy mogli mówić o uczeniu maszynowym. I właśnie to, iż maszyna sama się czegoś uczy, sprawia, że mamy do czynienia z kompletnie nową technologią.

Wspomniał Pan o sztucznej inteligencji specjalizującej się tylko w jednym zadaniu lub grupie zadań. A co z ogólną lub silną sztuczną inteligencją?

Myślę, że warto odróżnić od siebie ogólną i silną sztuczną inteligencję. Ogólna sztuczna inteligencja może być wykorzystywana do bardzo różnych zadań. Bardzo dobrym jej przykładem jest ChatGPT, jeden z tzw. dużych modeli językowych. Możesz ich używać do regulowania zachowania swojego domowego termostatu albo do pomocy w prowadzeniu swojego auta. W zależności od tego, do czego wytrenujesz algorytm, on zajmie się tym czy innym zadaniem. DeepMind przez uczenie maszynowe wypracował algorytm do gry w szachy i w go. Google używa tego samego rodzaju uczenia maszynowego w dość znaczącym stopniu. Mamy więc pewną bardzo elastyczną sieć, którą można wytrenować na podstawie różnorodnych danych i przystosować ją do rozmaitych zadań. Właśnie tym jest ogólna sztuczna inteligencja.

Silna sztuczna inteligencja to zupełnie inna idea. Koncepcja silnej SI opiera się na pomyśle, że SI działa tak jak ludzka inteligencja (lub nawet lepiej), posiadając intencje, plany, świadomość i rozumienie, co jest akceptowalne dzisiaj, a nie np. jutro. Dobrym przykładem ludzkiej inteligencji „w praniu” jest to, że w inny sposób rozmawiasz ze swoim przyjacielem, gdy ma zły humor, inaczej, gdy właśnie wygrał na loterii, a jeszcze inaczej, gdy stracił rodziców. Rozpoznajemy ją, gdy się z nią stykamy, ponieważ ludzka inteligencja ma wiele znaczeń. Tego rodzaju inteligencji nie dostrzegamy w sztucznej inteligencji. I dlatego, gdy ludzie mówią: „Pewnego dnia sztuczna inteligencja przejmie władzę nad ludzkością, zdecyduje o eksterminacji ludzi albo traktowaniu ludzi jak udomowionych zwierząt”, to jest to nic więcej jak tylko science fiction.

Wspomniał Pan o świadomości. Niektórzy ludzie mówią, że sztuczna inteligencja może kiedyś dysponować świadomością fenomenalną. Czy sądzi Pan, że to możliwe?

Być może jest to możliwe. Ale czy jesteśmy w stanie pomyśleć o takiej technologii, jaka pewnego dnia mogłaby doprowadzić do wytworzenia świadomej sztucznej inteligencji, która kwalifikowałaby się jako osoba? Byłoby to interesujące z etycznego punktu widzenia. Zacznijmy jednak od kwestii świadomości, a potem przejdziemy do zagadnienia sztucznej inteligencji jako osoby. Musimy tu rozróżnić dwie sprawy. Po pierwsze, czy świadoma sztuczna inteligencja jest logicznie możliwa? Oczywiście, że tak. W jej pojęciu nie ma nic sprzecznego z logicznego punktu widzenia. To nie jest taki przypadek jak szczęśliwie żonaty kawaler albo trójkąt o czterech bokach. A są to przecież przypadki logicznych niemożliwości. Wielu ludzi mówi o świadomej sztucznej inteligencji, osobliwości, która staje się taka jak my, a nawet lepsza, zdobywając zdolność postrzegania, formułując intencje i rozwijając życie mentalne. Jednakże, choć świadoma sztuczna inteligencja nie jest logicznie niemożliwa, to samo można powiedzieć o kupowaniu losu na loterię i wygrywaniu jej każdego dnia. Jeśli wierzysz w to, że taka sytuacja przytrafi się właśnie tobie, no to powodzenia.

Jest też inny sens możliwości, ten, który odnosi się do o prawdopodobieństwa. Jest bardzo prawdopodobne, niemal pewne, że będę przegrywał każdego dnia, nawet jeśli każdego dnia będę kupował los na loterię. Jest to nawet bardziej prawdopodobne niż wygranie loterii choćby jeden raz. Silna sztuczna inteligencja jest jednocześnie logicznie możliwa i bardzo mało prawdopodobna. A przynajmniej z punktu widzenia rzetelnie uprawianej nauki. To nie jest kierunek, w którym zmierzamy. Opracowujemy narzędzia, które bardzo dobrze się sprawdzają i będą się sprawdzać jeszcze lepiej w działaniach wymagających inteligencji, gdyby zajmował się nimi człowiek. Jednak te narzędzia nie potrzebują inteligencji, żeby wykonywać swoje zadania. Właśnie to jest niesamowite. Prowadzenie samochodu, gra w szachy albo tłumaczenie z włoskiego na polski wymaga ode mnie czy od ciebie używania inteligencji. Jednak automatyczne translatory czy samochody autonomiczne radzą sobie nieźle (i rozwijają się w tym względzie) bez żadnej inteligencji. I wydaje się, że trudno określić jakiś limit dla tego rodzaju zdolności do działania, niewymagającego inteligencji i tak właśnie powinniśmy rozumieć sztuczną inteligencję.

Czy sądzi Pan, że angażowanie się w głębokie relacje ze sztuczną inteligencją może być wyniszczające, a nawet niebezpieczne?

Nie dostrzegam żadnego problemu w byciu przywiązanym do robota ze sztuczną inteligencją. Przywiązujemy się przecież do lalek czy roślin. Nie wspominając już o złotych rybkach. W mojej rodzinie mówimy do Room­by, małego robota, który odkurza podłogi, i nawet traktujemy go jak członka rodziny. Jest czymś tragicznym, przygnębiającym i wyniszczającym, gdy takie interakcje wpływają na inne relacje, determinując je lub pogarszając. Dla przykładu, gdybym powiedział ci, że nie możesz mnie odwiedzić, bo Room­ba cię nie lubi, to byłoby to nieco dziwne. Wiele zależy od kontekstu.

Co z maszynami, które tak jak sztuczna inteligencja są wysoce responsywne i sprawiają wrażenie, jakby miały w zanadrzu „coś więcej”? Mogą one wytwarzać niekończące się dialogi, a to myli niektórych ludzi. Nazywamy to fenomenem Elizy, a to ze względu na oprogramowanie, kilka linijek kodu, które wchodzi w interakcję z człowiekiem jak terapeuta i mówi: „Jak się masz, Luciano?”, „Powiedz mi o tym coś więcej”, „Co przez to rozumiesz?”. Te wypowiedzi były zaprogramowane, ale ludzie angażowali się w te rozmowy. Niektórzy nawet próbowali umówić się z Elizą.

Tworzenie takich projekcji jest bardzo ludzkie. Zawsze ich dokonywaliśmy, odnosząc się do przyrody, chmur, rzek i drzew: formułowaliśmy nawet przekonania religijne, które ich dotyczyły. Czy możesz sobie wyobrazić, co by się stało z rzeczą, która może nam odpowiedzieć? Która jest zbudowana po to, żeby nas oszukać? Podam bardziej zaskakujący przykład. Istnieją już usługi online, w których naśladuje się zmarłe osoby. Za ich pomocą możesz porozmawiać ze swoją babcią. Dźwięk wydawany przez program będzie po prostu brzmiał jak jej głos: ta sama barwa i sposób, w jaki mówiła twoja babcia, zadając pytanie: „Czy rozmawiałeś z Robertem? Podobno cię szukał”.

Niebezpieczeństwo mogłoby dotyczyć zubożenia życia emocjonalnego i mentalnego, a także manipulowania nami przez kogoś ukrytego za kulisami i używającego tej technologii. Celem tej manipulacji mogłoby być sprawienie, że zagłosujesz na konkretnego kandydata w wyborach, że wybierzesz takie wino zamiast innego albo że wyślesz swoje dziecko do danej szkoły. Taka manipulacja oznaczałaby groźną erozję autonomii i ograniczanie możliwości osiągnięcia w pełni rozwiniętego i bogatego życia. Jednak nie ma nic złego w traktowaniu Roomby jako członka rodziny, jest przecież urocza.

Jakie mogą być najgorsze negatywne konsekwencje rozwijania sztucznej inteligencji?

Największym zagrożeniem jest to, o którym wspomniałem przed chwilą: podkopywanie autonomii i autodeterminacji. Myślę, że nie traktujemy zbyt poważnie kwestii powierzania maszynom coraz większej liczby zadań. A dotyczy to też instruowania nas przez maszyny, co jest dobre i słuszne, a także co jest złe i niewłaściwe, która restauracja jest najlepsza w mieście, jakiej muzyki słuchać albo którą książkę wybrać czy na jaką pracę lub szkołę się zdecydować. Powiększanie się wpływu maszyn na nasze życie może prowadzić do erozji autonomii, a my ignorujemy ten temat, ponieważ jest to dla nas wygodne. Oczywiście znajdzie się ktoś, kto to wykorzysta. Ludzie chcący pozyskać nasz głos, uwagę, pieniądze, miłość czy nasze idee będą sięgać po sztuczną inteligencję, żeby osiągnąć swoje cele. Dostrzegamy to w kwestiach politycznych, społecznych i ekonomicznych. Jest to realne ryzyko, o wiele bardziej niepokojące niż w przypadku innych sfer życia. Albo sami świadomie zniszczymy swoją autonomię, albo ktoś zrobi to za nas.

A jakie mogą być pozytywne skutki rozwijania sztucznej inteligencji?

Główną zaletą sztucznej inteligencji jest jej zdolność do rozwiązywania problemów i wykonywania zadań lepiej od nas. Sztuczna inteligencja może w dużym stopniu stanowić rozwiązanie naszych problemów zarówno społecznych, jak i tych związanych ze środowiskiem naturalnym. Na całym świecie istnieje ponad dwieście aplikacji korzystających ze sztucznej inteligencji, które wspierają takie cele jak dbanie o większą czystość wody, sprawiedliwe traktowanie kobiet i dzieci, a także inne zadania wyznaczone przez Organizację Narodów Zjednoczonych. To jest właśnie to, co powinniśmy robić: używać tej niezwykłej siły do osiągnięcia zmiany, która przysłuży się społeczeństwu i środowisku. Jednak nie do końca tak się dzieje. Używamy sztucznej inteligencji głównie po to, żeby notoryczni podejrzani mogli zarobić więcej pieniędzy albo żeby ulepszyć życie dziesięciu procent populacji czy sprawić, że gdy następnym razem wybierzesz film, to będzie bardziej odpowiadał twoim gustom niż ten poprzedni.

Czy sądzi Pan, że rozwój sztucznej inteligencji będzie miał jakikolwiek dobry albo zły wpływ na praktyki demokratyczne?

Cóż, w tej chwili sztuczna inteligencja wywiera negatywny wpływ. Najbardziej oczywiste przykłady w tym kontekście to fake newsy i manipulowanie informacjami. Jeśli, dla przykładu, Trump ponownie zostanie wybrany na prezydenta USA, to stanie się tak, przynajmniej do pewnego stopnia, z powodu manipulowania opinią publiczną za pomocą cyfrowych narzędzi, w tym sztucznej inteligencji.

Z drugiej strony w moim ośrodku w Yale traktujemy sztuczną inteligencję jako coś, co pomaga nam na nowo przemyśleć demokrację liberalną. Tu może pomóc analogia szachowa. Są rozwiązania problemów szachowych, które możemy otrzymać jedynie dzięki sztucznej inteligencji. Są bowiem tak odległe, gdy weźmiemy pod uwagę liczbę ruchów, że żaden z wielkich graczy z przeszłości nie mógł przewidzieć, że po dwudziestu albo dwudziestu pięciu ruchach, które wydają się bardzo złym rozwiązaniem problemu, tak naprawdę można doprowadzić do zwycięstwa. Podobnie byłoby w kształtowaniu polityki. Sztuczna inteligencja może pomóc nam znaleźć solidne rozwiązania problemów, które do tej pory wydawały się nierozwiązywalne.

Dysponujemy dobrymi przykładami w Barcelonie, Bolonii, Amsterdamie czy Helsinkach, gdzie używano sztucznej inteligencji do poprawienia jakości usług albo do kontaktowania się z mieszkańcami. Już kilka lat temu w Helsinkach sięgnięto po sztuczną inteligencję, żeby inaczej zorganizować roboty drogowe, biblioteki publiczne, parkingi czy wywóz odpadów. Im bardziej zaawansowane jest społeczeństwo, tym bardziej potrzebujemy sztucznej inteligencji, żeby temu zaawansowaniu sprostać. Mam nadzieję, że pewnego dnia politycy to zrozumieją i nie będą sięgać po sztuczną inteligencję tylko po to, żeby zostać ponownie wybranymi.

Ostatnie pytanie. Czy sądzi Pan, że sztuczna inteligencja będzie uprawiać naukę, może nawet zastąpi ludzi-naukowców? Czy oznaczałoby to, że ludzie zostaną pozbawieni możliwości trenowania swojego umysłu?

Niektórzy czytelnicy mogą pamiętać debatę i skandal, które miały miejsce, gdy w latach 70. XX w. pojawiły się kalkulatory. Niektórzy wielcy matematycy przepowiadali, że to oznacza koniec matematyki. Nikt nie będzie w stanie jej uprawiać. Każdy będzie miał kieszonkowy kalkulator. Nikt nie będzie umiał wykonać prostych działań arytmetycznych. Czy doszło do tego? Nie, oczywiście, że nie. Wciąż mamy wielkich matematyków i wciąż możemy samodzielnie sprawdzić stan naszego konta bankowego. Dlaczego? Ponieważ kalkulator to jedynie uzupełnienie, a nie zastąpienie umysłu. Co więcej, ujawniły się nowe umiejętności, np. to, jak efektywnie można używać bardzo skomplikowanego kalkulatora.

Podobnie dzisiejsza zdolność naukowców do pracy ze sztuczną inteligencją ma fundamentalne znaczenie. Weźmy za przykład fałdowanie białek. Jeszcze do niedawna był to ręczny proces. Naukowcy musieli wszystko robić sami. Dzisiaj sztuczna inteligencja robi to szybciej, dokładniej i efektywniej. Czy znaczy to, że nie wiemy, jak to robić? Nie, ale nie musimy tracić na to czasu i możemy użyć naszej inteligencji do innych zadań. Dowcip polega na tym, że to pytanie przypomina pewną szachową analogię: kto jest lepszym graczem w szachy, sztuczna inteligencja czy arcymistrz szachowy? Odpowiedź to arcymistrz szachowy mający do dyspozycji sztuczną inteligencję. Razem są niepokonani. Kim więc jest naukowiec przyszłości? To naukowiec, który używa sztucznej inteligencji do wszelkich zadań, do jakich jest w stanie jej użyć.

Jednakże nie powinniśmy oczekiwać od sztucznej inteligencji zbyt wiele. Duże modele językowe są, dla przykładu, trenowane na ogromnych ilościach danych językowych. Czasami są bardzo wyspecjalizowane, np. jedynie w analizie dokumentów prawnych, ale działają jak prawdziwe lustro; uczą się z przeszłości. Sztuczna inteligencja nie jest dostatecznie dobra, jeśli chcesz rozwiązać albo wręcz odkryć nowy problem i zrobić coś autentycznie kreatywnego; nadal potrzebujemy okrzyku „Eureka!”. Nawet nie wiemy, jak to się dzieje, że coś odkrywamy. Być może jesteśmy w stanie sprowokować takie sytuacje, wchodząc w interakcję ze sztuczną inteligencją; może to być po prostu przypadek albo szczęśliwy zbieg okoliczności, ale nie powinniśmy sądzić, że w nauce chodzi tylko o to, żeby „zjeść” jak najwięcej danych. Jest zupełnie odwrotnie. Nauka zaczyna się od pytania i szukania odpowiedzi. Nie zaczyna od miliona odpowiedzi, żeby zobaczyć, czy na ich podstawie można wysnuć jakąś nową hipotezę. To byłaby tylko codzienna, zwyczajna praca. Postęp w wiedzy polega na postępie w stawianiu pytań. Platon określił kogoś, kto posiada wiedzę, jako osobę, która wie, jak zadać właściwe pytania. Zadanie formułowania właściwych pytań, rozumienia odpowiedzi i decydowania, co z nimi zrobić, pozostanie w całości czymś ludzkim.

Niemniej jestem w dużym stopniu optymistą co do interakcji człowieka z maszynami. Mam nadzieję, że za mojego życia będziemy myśleć o niektórych dyscyplinach jako niemożliwych do uprawiania bez sztucznej inteligencji. Sztuczna inteligencja będzie po prostu kolejnym narzędziem. Będzie jak mikroskop, teleskop, komputer itd. Oczywiście będzie ona wymagać nowych umiejętności, które bardzo różnią się od tych, które naukowcy wyobrażali sobie w poprzednim stuleciu. Przewiduję bardziej symbiotyczną relację między naukami, ale przede wszystkim więcej konstruowania symulacji czy tworzenia perspektyw, które inaczej byłyby niemożliwe, wizualizacji, które w niczym nie będą przypominać niczego, co można stworzyć za pomocą długopisu na kartce. Otworzy się zupełnie nowy świat możliwości i mam nadzieję, że będę w pobliżu, gdy to stanie się rzeczywistością.

Tłumaczenie: Błażej Gębura


Luciano Floridi – profesor na Uniwersytecie Yale; założyciel i dyrektor Digital Ethics Center (Centrum Etyki Cyfrowej); w 2022 roku mianowany Kawalerem Wielkiego Krzyża OMRI za swoją pracę w dziedzinie filozofii. Jego najnowsze książki to The Ethics of Artificial Intelligence – Principles, Challenges, and Opportunities (OUP, 2023) oraz The Green and The Blue – Naive Ideas to Improve Politics in the Digital Age (Wiley, 2023). Na hobby nie ma czasu, ale kocha literaturę, kino, squasha i nurkowanie.

Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska. W pełnej wersji graficznej jest dostępny w pliku PDF. < Powrót do spisu treści numeru. Ilustracja: ChatGPT


Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego pochodzących z Funduszu Promocji Kultury.

Najnowszy numer filozofuj "Kłamstwo"

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy