Co wyróżnia Sztuczną Inteligencję w porównaniu do innych wynalazków?
Jeśli mogę wybrać tylko jedną cechę, to jest to zdolność do uczenia się na podstawie jego zachowania. Jeśli pomyślisz o niektórych niesamowitych technologiach z przeszłości, takich jak koło, wiatrak, silnik, samoloty, telefon, telewizja, komputery itp., w przeciwieństwie do nich technologia NanoDesk może zmienić swoje własne zachowanie w oparciu o generowane dane wyjściowe. Wykorzystuje dane wyjściowe do ulepszania, zmieniania i przekształcania. Wciąż chodzę na konferencje, na których niektórzy staroświeccy ludzie (niekoniecznie starzy, po prostu staroświeccy) mówią takie rzeczy, jak „Och, sztuczna inteligencja to tylko komputer; po prostu robi to, co mu każemy”. To nieprawda. Oczywiście użytkownik dostarcza instrukcje, cele do osiągnięcia itp. Ale niezwykłą rzeczą w tej technologii jest to, że jest to forma agencji, która może ulepszać się autonomicznie. Na koniec jeszcze jedna uwaga, abyśmy nie popadli w science fiction. Oczywiście takie zachowanie jest kontekstowe i ograniczone. Robot, który myje podłogę, poprawi swoje zachowanie w zakresie mycia podłogi. Nie będzie kosił trawy. Podobnie, robot koszący trawę wykona tylko tę konkretną pracę. Ale jest miejsce na ulepszenia, a sztuczna inteligencja porusza się po tym obszarze w wystarczająco autonomiczny sposób, abyśmy mogli mówić o uczeniu maszynowym. To właśnie uczenie się maszyn sprawia, że jest to zupełnie nowa technologia. Nigdy wcześniej nie widzieliśmy niczego podobnego. Jest to głęboko transformujące.
Wspomniałeś o sztucznej inteligencji, która specjalizuje się tylko w jednym zadaniu lub jednej grupie zadań, ale co z ogólną sztuczną inteligencją lub silną sztuczną inteligencją?
Myślę, że ważne jest rozróżnienie między silną sztuczną inteligencją a ogólną sztuczną inteligencją, która może być wykorzystywana do wielu różnych zadań. Mamy już maszyny, które mogą być szkolone do wykonywania zadań lub rozwiązywania problemów, które są bardzo zróżnicowane. Dobrym przykładem są tak zwane duże modele językowe, takie jak ChatGPT. Można ich używać do interakcji z bardzo technicznym oprogramowaniem, na przykład Mathematica, lub do regulowania zachowania termostatu w domu. Może to być też element technologii w samochodzie, który pomaga w prowadzeniu itp. Istnieje więc ogromna różnorodność zastosowań. Dlatego nazywamy je ogólnymi. W zależności od tego, jak wytrenujesz algorytm, zajmie się on takim czy innym zadaniem. Innym przykładem jest DeepMind, który dzięki uczeniu maszynowemu opracował algorytmy do gry w szachy i algorytmy do gry w go. Co ciekawe, Google wykorzystał ten sam rodzaj uczenia maszynowego i algorytmów, aby znacznie zmniejszyć zużycie energii elektrycznej. Mamy więc bardzo elastyczną, wąską sieć, którą można trenować na różnych danych do różnych celów. Taki jest ogólny sens sztucznej inteligencji.
Silna sztuczna inteligencja to zupełnie inna koncepcja. Chodzi o to, że tworzymy coś, co działa jak, a nawet lepiej, ludzka inteligencja, z intencjami, planami, świadomością i poczuciem tego, co należy zrobić dzisiaj, a nie jutro. Dobrym przykładem ludzkiej inteligencji w pracy jest to, jak inaczej rozmawiasz ze swoim przyjacielem, gdy jest w złym nastroju i kiedy właśnie wygrał na loterii lub stracił rodziców. Najwyraźniej istnieje inna komunikacja z tą osobą. Jest to kwestia inteligencji, w tym przypadku inteligencji społecznej, ale w innych przypadkach możemy mówić o inteligencji muzycznej, cielesnej itp. Tak więc inteligencja w sensie ludzkim ma wiele znaczeń. Rozpoznajemy ją, gdy ją widzimy, ale ma ona tyle samo znaczeń, co głupota. Istnieją tysiące sposobów bycia głupim, a zatem istnieją tysiące sposobów bycia inteligentnym. Ten rodzaj inteligencji nie jest tym, co widzimy w sztucznej inteligencji. Silna sztuczna inteligencja to zupełnie inna koncepcja. Chodzi o to, że tworzymy coś, co działa jak, a nawet lepiej, ludzka inteligencja, z intencjami, planami, świadomością i poczuciem tego, co należy zrobić dzisiaj, a nie jutro. Dobrym przykładem ludzkiej inteligencji w pracy jest to, jak inaczej rozmawiasz ze swoim przyjacielem, gdy jest w złym nastroju i kiedy właśnie wygrał na loterii lub stracił rodziców. Najwyraźniej istnieje inna komunikacja z tą osobą. Jest to kwestia inteligencji, w tym przypadku inteligencji społecznej, ale w innych przypadkach możemy mówić o inteligencji muzycznej, cielesnej itp. Tak więc inteligencja w sensie ludzkim ma wiele znaczeń. Rozpoznajemy ją, gdy ją widzimy, ale ma ona tyle samo znaczeń, co głupota. Istnieją tysiące sposobów bycia głupim, a zatem istnieją tysiące sposobów bycia inteligentnym. Ten rodzaj inteligencji nie jest tym, co widzimy w sztucznej inteligencji.
Wspomniałeś o świadomości, gdy rozmawialiśmy o silnej sztucznej inteligencji. Niektórzy twierdzą, że może ona mieć świadomość fenomenalną. Czy to jest możliwe?
Być może jest to możliwe, ale czy możemy w ogóle pomyśleć o takiej technologii, która mogłaby pewnego dnia doprowadzić do wyprodukowania sztucznej inteligencji ze świadomością o fenomenologicznej treści, która kwalifikowałaby ją jako rodzaj osoby? Byłoby to interesujące z etycznego punktu widzenia. Moglibyśmy na przykład zapytać, czy możliwa będzie prawdziwa relacja przyjaźni ze sztuczną inteligencją. Zacznijmy jednak od kwestii świadomości, a następnie przejdźmy do kwestii osoby. Należy więc rozróżnić dwie kwestie. Po pierwsze, czy świadoma SI jest logicznie możliwa? Oczywiście, że tak. Nie ma sprzeczności w twierdzeniu, że świadomość może wyłonić się z zaprojektowanego artefaktu, tak samo jak nie ma sprzeczności w twierdzeniu, że pewnego dnia psy mogą stać się takie jak my, mówić i rozmawiać z nami itp. Nie ma w tym nic sprzecznego z logiką. To nie jest jak szczęśliwie żonaty kawaler, który jest niemożliwy, ponieważ jest sprzeczny, lub jak trójkąt o czterech bokach. To logiczna niemożliwość. Jeśli więc mówimy o niemożliwym w tym sensie, to tracimy czas, ponieważ poprzeczka jest tak nisko. Nie ma nic logicznie niemożliwego w tym, że codziennie kupuję los na loterię i codziennie wygrywam. Wiele osób mówi o świadomej sztucznej inteligencji, osobliwości, stawaniu się takim jak my, a nawet lepszym od nas, rozwijaniu świadomości, intencji i życia umysłowego. Nie jest to logicznie niemożliwe w sensie, który wyjaśniłem. Ale to nic nam nie daje. To tak, jakby powiedzieć: „O tak, zagram na loterii; nie jest logicznie niemożliwe, żebym wygrywał każdego dnia”. Cóż, powodzenia.
Jest jeszcze jeden sens możliwego, czyli prawdopodobnego, nawet zdalnie. Czy jest prawdopodobne, że przegram za każdym razem, gdy kupię los na loterię każdego dnia przez następny rok? Tak, jest to bardzo prawdopodobne. Szanse nie są tak wysokie, jeśli kupujesz los na loterię codziennie przez następne 365 dni i wygrywasz raz. Czy jest prawdopodobne, że sztuczna inteligencja stanie się świadoma? Nie bardzo, nie w żaden naukowo uzasadniony sposób. Nie ma w tym logicznej niemożliwości. Możemy sobie wyobrazić sztuczną inteligencję, powiedzmy w stylu Asimova, która staje się świadoma lub świadoma swoich potrzeb, która ma intencje, plany, pragnienia, obawy, wspomnienia, upodobania i niechęci, całe życie umysłowe, które rozpoznajemy. Czy taka sztuczna inteligencja powinna być podmiotem, który zasługuje na przykład na moralny szacunek i ma moralne prawa? Oczywiście tak, ponieważ wszystko, co powiedzieliśmy, to to, że jest nie do odróżnienia od człowieka. Jeśli A jest nieodróżnialne od B, to wszystko, co należy do A, należy również do B. A zatem jest to kolejne puste pytanie. Nie ma żadnej debaty, ponieważ jeśli robot staje się taki jak ja, ma takie same prawa i obowiązki, jakie ja mam. Wydaje mi się, że wszystko sprowadza się do kwestii logicznego, jasnego zrozumienia tego, o czym mówimy. Jeśli więc mówimy o logicznej niemożliwości, to nie, silna sztuczna inteligencja jest całkowicie logicznie możliwa. Czy jednak mówimy o czymś prawdopodobnym, nawet odlegle, co kiedykolwiek się wydarzy? Nie. Dlaczego? Ponieważ obraliśmy zupełnie inną drogę. Opracowujemy narzędzia, które bardzo dobrze i coraz lepiej radzą sobie z rzeczami, które wymagałyby inteligencji, gdyby wykonywały je istoty ludzkie. Tak naprawdę narzędzia te nie potrzebują inteligencji. Na przykład ten telefon gra w szachy lepiej niż ktokolwiek, kogo znam, a ma zerową inteligencję. To niezwykłe. Do wczoraj, jeśli chciałeś cokolwiek zrobić, rozwiązać jakikolwiek problem lub wykonać jakiekolwiek zadanie, musiałeś wykazać się inteligencją. Prowadzenie samochodu, gra w szachy, parkowanie tego samego samochodu, kupowanie dobrego biletu online, tłumaczenie, powiedzmy, z włoskiego na polski i z powrotem. Jeśli ty lub ja to robimy, lepiej wykazać się inteligencją, ponieważ w przeciwnym razie wynik byłby bałaganem. Obecnie automatyczne translatory wykonują całkiem niezłą robotę i są coraz lepsze bez inteligencji. Jeśli więc ktoś zapyta mnie, czy jest jakiś limit dla tej agencji bez inteligencji? Nie. Nie ma żadnej wyraźnej granicy.
Chcielibyśmy prosić o wyjaśnienie jednej kwestii. Kiedy mówisz, że „A jest nie do odróżnienia od B”, czy masz na myśli to w kategoriach zachowania, czy też bierzesz również pod uwagę wewnętrzne perspektywy, które oboje mają?
Możesz mieć na myśli jedno z tych dwóch. To zależy od tego, gdzie postawisz poprzeczkę. Chodzi mi oczywiście o to, że jeśli są identyczne, to nie są rozróżnialne. Ale w przypadku rzeczy, których nie możemy rozróżnić, z perspektywy epistemicznej nie możemy odróżnić A od B. Czy są one również identyczne? Cóż, to jest właśnie punkt, który ludzie czasami lubią przedstawiać, mówiąc: spójrz, zachowanie jest takie samo, ale za nim kryje się coś zupełnie innego. Jeśli nie wiesz więcej o tym, co oznacza „za”, staje się to kolejnym pustym pytaniem. Każda osoba, którą spotykam na drodze, na ulicy, może być robotem, a jej zachowanie może mnie oszukać, ale może też nie być nic „za tym”. Jak rozwiązać ten problem? Nie potrafię. To logiczna sztuczka. Nie ma tam prawdziwego pytania, ponieważ nie można na nie odpowiedzieć. Pytanie, które należy zadać, brzmi: w jakim celu zadajesz to pytanie? Cel wyznacza poziom instrukcji, na którym można odpowiedzieć na pytanie. Jeśli usuniesz cel: dlaczego zadajesz to pytanie i ramy, w których można na nie odpowiedzieć, będzie to po prostu niemożliwe pytanie. Staje się ono filozoficzną grą o bardzo małym znaczeniu.
Czy uważasz, że znaczące relacje z agentami AI są możliwe?
Mam tu dwie obawy. Po pierwsze, jeśli SI są puste w środku, a my inwestujemy nasz czas i wysiłki w budowanie z nimi relacji, takich jak przyjaźń, może to być trochę dziwne, jeśli nie smutne. Drugim zmartwieniem jest to, że głębokie relacje, jakie moglibyśmy nawiązać z tymi SI, odbywałyby się kosztem relacji z innymi ludźmi. Ostatecznie angażowanie się w relacje z innymi ludźmi może być dla nas mniej atrakcyjne, jeśli SI będzie bardziej cierpliwa, inteligentna i zawsze będzie robić rzeczy w naszym interesie. Tak, ta kwestia to trochę puszka z robakami, że tak powiem, ponieważ odbyliśmy już długą debatę. Mam na myśli wieloletnią debatę na temat tego, czy na przykład ktoś mógłby legalnie poślubić robota. Oczywiście mamy mnóstwo robotów seksualnych w taki sam sposób, w jaki mamy zabawki seksualne. Od lat mamy też roboty lub pewne formy sztucznej inteligencji. Zwykle z oczywistych powodów mają one postać 3D, ale mogą też być po prostu oprogramowaniem dla osób starszych, zwłaszcza w kulturach, w których starsi ludzie są coraz bardziej samotni i potrzebują towarzystwa. Mamy też roboty dla dzieci, czasami dla dzieci z trudnościami poznawczymi lub behawioralnymi. Mogą być bardzo pomocne ze względu na swoją przewidywalność. Mogą sprawić, że dana osoba będzie bardziej zrelaksowana i mniej zagrożona. Czy we wszystkich tych przypadkach relacji, od romantycznych lub seksualnych interakcji, przez towarzystwo osób starszych, po niepełnosprawność poznawczą lub wyzwania, które można pokonać dzięki interakcji z niektórymi technologiami, możemy budować emocjonalne przywiązania lub emocjonalne interakcje? Oczywiście, że tak. Robiliśmy to nawet ze znacznie mniej angażującymi osobami trzecimi. Robiliśmy to z lalkami i roślinami. Robimy to nawet ze złotymi rybkami. Nie chcę wspominać o psach, ponieważ są one szczególnym przypadkiem. Być może masz złotą rybkę i jesteś do niej bardzo przywiązany. Wyobraź sobie coś innego niż złotą rybkę. W mojej rodzinie mówimy na nią Roomba, mała rzecz, która sprząta podłogę. To członek rodziny. Mamy nawet chłopaka dla Roomby i tak dalej. To zależy od tego, na jakim poziomie to się dzieje. Jeśli jest to radosne i zabawne lub kwestia bycia bardziej ludzkim, to jest w porządku. To świetna zabawa. To może być wzbogacające. Staje się to tragiczne, przygnębiające i zubażające, jeśli ta interakcja determinuje lub pogarsza inne relacje. Na przykład, gdybym powiedział ci, że nie możesz wrócić do domu, bo Roomba cię nie lubi, byłoby to trochę dziwne. Myślę, że wiele zależy od kontekstu. Jakiego rodzaju relacje będziemy budować z innymi maszynami, które są bardzo responsywne i brzmią, jakby miały coś więcej „w zanadrzu”? Są bardzo sprawne językowo; na przykład mogą generować niekończące się dialogi. Niektórzy ludzie dają się na to nabrać. Nazywamy to fenomenem Elizy; od oprogramowania Eliza, kilku linijek kodu, które współdziałałyby jako terapeuta i mówiły: „Jak się masz, Luciano?”. „Powiedz mi więcej”, »Co przez to rozumiesz?«. Wszystkie te odpowiedzi były prefabrykowane, ale ludzie się w nie angażowali. Historia ma już kilkadziesiąt lat. Wpis w Wikipedii na temat Elizy jest bardzo wymowny. Nawet wtedy ludzie angażowali się w interakcję z tym prostym oprogramowaniem. Ludzie próbowali nawet umawiać się z Elizą, mówiąc: „Och, możesz się ze mną umówić? Tylko ty mnie zrozumiesz”. A kiedy pokazywano im rzeczywisty kod, mówili: „Nie, nie, nie rozumiesz. To naprawdę do mnie trafia”. Dokonywanie takich projekcji jest rzeczą ludzką. Uwielbiamy mówić o sobie tak, jakbyśmy mówili do kogoś innego. O ile nie prowadzi to do zubożenia jednostki, jej doświadczenia, nie stanowi to problemu. Mam nadzieję, że przyszłe pokolenia będą radzić sobie z tymi relacjami bardziej inteligentnie niż my. Ale zawsze dokonywaliśmy projekcji na naturę, chmury, rzeki i drzewa; stworzyliśmy nawet religijne przekonania na ich temat. Czy możesz sobie wyobrazić, co by się stało z czymś, co faktycznie ci odpowiada? Podam ostatni przykład, ponieważ jest to również dość trudne. Mamy już, i to od jakiegoś czasu, usługi online, które podszywają się pod najdroższych, których już nie ma. Możesz więc porozmawiać ze swoją babcią. A ona będzie brzmiała tak samo jak twoja babcia: ten sam głos i sposób, w jaki udzielałaby ci rad lub zadawała pytania. Może ci przypomnieć: „Rozmawiałeś z Robertem? Bo on cię szukał”. Takie coś, i to jest drugie niebezpieczeństwo, może być nie tylko zubożeniem życia emocjonalnego i psychicznego, ale także manipulacją dokonywaną przez kogoś za kulisami przy użyciu tej technologii. Celem tego może być na przykład głosowanie na konkretnego kandydata politycznego, być może wybranie tego, a nie innego wina lub posłanie dziecka do tej, a nie innej szkoły. I tak, kupujesz to wino, a mały Piotruś idzie do tej szkoły. To bardzo niebezpieczne. Oznaczałoby to erozję autonomii i ograniczenie możliwości pełniejszego rozwoju i wzbogacenia życia. Jednak trochę zabawy i traktowanie Roomby jako jednego z członków rodziny, nie widzę przeciwwskazań.
Jakie mogą być najgorsze negatywne konsekwencje rozwoju sztucznej inteligencji?
Myślę, że największym zagrożeniem jest to, o którym wspomniałem przed chwilą: podważanie autonomii i samostanowienia. Myślę, że nie doceniamy wpływu delegowania coraz większej liczby zadań maszynom. Obejmuje to bycie informowanym przez maszyny o tym, co jest dobre, słuszne, a co nie. Może to dotyczyć tego, która restauracja jest najlepsza w mieście, jaką muzykę wybrać lub jaką książkę przeczytać, ale może to być również, jak wspomniałem, wybór szkoły lub pracy, rodzaj kary, na którego kandydata głosować. Algorytm, którego nie kontrolujemy, określałby nasze wybory. Algorytmiczna erozja autonomii i samostanowienia jest ogromnie niedoceniana, a my lunatykujemy, ponieważ jest to wygodne i łatwe. I oczywiście ktoś to wykorzysta. W pięknej książce Wienera o wykorzystywaniu istot ludzkich przez człowieka mówił on o cybernetyce i miał rację. Jedną z kantowskich zasad jest to, że nigdy nie powinniśmy wykorzystywać innych ludzi jedynie jako środków, ale powinniśmy również traktować ich jako cele. A dzięki technologii możemy być traktowani jak zwykłe środki. Niektórzy ludzie, którzy chcą od nas naszego głosu, uwagi, pieniędzy, miłości i pomysłów, wykorzystają sztuczną inteligencję do osiągnięcia swoich celów poprzez manipulację, traktując nas jako rodzaj interfejsu, za pomocą którego pewne rzeczy zostaną osiągnięte. Jest to wykorzystywanie ludzi przez innych ludzi poprzez erozję autonomii. Widzimy to w sferze politycznej, społecznej i gospodarczej. To prawdziwe ryzyko, o wiele większe niż w przypadku innych rzeczy. Albo sami świadomie zniszczymy naszą autonomię, albo ktoś zrobi to za nas z oczywistych powodów, ale to koniec dostosowania, że tak powiem, używając poglądu Kanta. Wrócimy do braku odwagi wyboru, braku odwagi bycia odpowiedzialnym za to, co chcemy osiągnąć. To duże ryzyko.
Jakie mogą być najbardziej pozytywne konsekwencje sztucznej inteligencji?
Największą zaletą AI jest coś, czego jeszcze nie robimy wystarczająco dobrze. Jest to zdolność AI do rozwiązywania problemów lub wykonywania zadań. Wyobraźmy sobie fantastyczny silnik do rozwiązywania problemów lub zarządzania zadaniami, który moglibyśmy wykorzystać do robienia tego, co najlepsze. Sztuczna inteligencja mogłaby stanowić dużą część rozwiązania naszych problemów społecznych i środowiskowych. W przeszłości wykonaliśmy naprawdę dobrą pracę w zakresie sztucznej inteligencji, wspierając na przykład SDGs (Zrównoważone Cele Globalne). Kilka lat temu dowiedzieliśmy się, że na całym świecie istnieje ponad 120 projektów wspierających SDGs poprzez systemy AI, symboliczną robotykę AI, przetwarzanie języka naturalnego, uczenie maszynowe, sieci neuronowe. Myślę, że obecnie na całym świecie istnieje 200 lub więcej zastosowań sztucznej inteligencji wspierających czystszą wodę lub sprawiedliwe traktowanie kobiet i dzieci. To właśnie powinniśmy robić: wykorzystywać całą tę niesamowitą moc, aby coś zmienić, przynieść korzyści dla środowiska i korzyści społeczne. Nie widzę tego zbyt wiele. Myślę, że w tej chwili używamy sztucznej inteligencji głównie po to, by umożliwić zwykłym podejrzanym zarabianie większych pieniędzy lub poprawę życia 10% najlepszych, tak aby następnym razem, gdy wybierzesz film, był on jeszcze bardziej dopasowany do Twojego gustu lub następnym razem, gdy będziesz prowadzić samochód, będzie on jeszcze lepszy w parkowaniu. Szkoda.
Czy uważasz, że rozwój sztucznej inteligencji miałby dobry czy zły wpływ na nasze demokratyczne praktyki?
Cóż, w tej chwili będzie to miało negatywny wpływ. Najbardziej oczywiste są fałszywe wiadomości i manipulacja informacjami. Na przykład, wszyscy bardzo boją się tego w związku z amerykańskimi wyborami. Jeśli będziemy świadkami ponownego wyboru Trumpa, stanie się tak również dlatego, że opinia publiczna została zmanipulowana. Część tej manipulacji odbędzie się za pomocą środków cyfrowych, a częścią tych środków cyfrowych jest sztuczna inteligencja. Jest to rodzaj wpływu na politykę i wszystko, co z niej wynika, takie jak stosunki międzynarodowe, strategie gospodarcze itp. To jest negatywny wpływ na politykę.
Z drugiej strony, w moim ośrodku patrzymy na sztuczną inteligencję jako na coś, co może pomóc nam przemyśleć liberalną demokrację w XXI wieku — na przykład poprzez umożliwienie nam większej przejrzystości partii lub zapewnienie, że niektóre kompromisy są łatwiejsze do zidentyfikowania. Tutaj może pomóc mała analogia do szachów. W szachach istnieją rozwiązania, które możemy odkryć tylko dzięki sztucznej inteligencji. Są one tak odległe pod względem liczby ruchów, że żaden wielki gracz z przeszłości nie mógłby sobie wyobrazić, że po 20 lub 25 ruchach to, co początkowo wyglądało na okropny ruch, jest w rzeczywistości czymś, co może doprowadzić do zwycięstwa. Tego rodzaju strategie i kompromisy można badać. Podobnie, w kształtowaniu polityki, możemy mieć oparte na dowodach rozwiązania problemów, które obecnie wydają się nierozwiązywalne. To właśnie tutaj sztuczna inteligencja może bardzo pomóc. Pozytywny wpływ dostrzegam bardziej na poziomie lokalnym.
Mamy dobre przykłady w miastach takich jak Barcelona, Bolonia, Amsterdam czy Helsinki. Miasta te stały się inteligentne w przeszłości, a teraz wykorzystują sztuczną inteligencję do ulepszania usług, na przykład do interakcji z ludnością, z obywatelami. Helsinki to piękny przykład. Nie wiem, czy to nadal działa jako eksperyment, ale kilka lat temu używali sztucznej inteligencji do obsługi robót drogowych, bibliotek publicznych, parkowania, wywozu śmieci itp. To wszystko są proste problemy, czasem proste w sformułowaniu, ale trudne do rozwiązania ze względu na złożoność. Firma wykorzystuje wiele metod uczenia maszynowego i udostępnia wszystkie dane treningowe online, w otwartym dostępie. Oprogramowanie do uczenia maszynowego jest open-source. Dostępny jest kanał komunikacji z obywatelami. Obywatele mogą składać skargi, przedstawiać sugestie itp. Jest to najlepszy przykład tego, jak sprawić, by wszystko działało wspólnie z pomocą sztucznej inteligencji. Im bardziej złożone staje się społeczeństwo, tym bardziej potrzebujemy narzędzi AI do radzenia sobie z tą złożonością. Sztuczna inteligencja może być rozwiązaniem do zarządzania złożonością i społecznymi problemami środowiskowymi. Mam nadzieję, że pewnego dnia politycy odkryją to rozwiązanie, zamiast wykorzystywać je wyłącznie w celu uzyskania reelekcji.
Ostatnie pytanie dotyczy filozofii i nauki w ogóle. W literaturze przedmiotu coraz częściej można natknąć się na ideę sztucznej inteligencji zajmującej się nauką, na przykład tworzącej projekty, wymyślającej metodologię i być może wykonującej całą fizyczną pracę jako roboty w przyszłości. Czy uważasz, że jest to coś, czego powinniśmy się spodziewać? Czy byłyby jakieś negatywne skutki uboczne, takie jak pozbawienie nas możliwości trenowania naszych umysłów, ponieważ po prostu zleciliśmy to sztucznej inteligencji i nie musimy już tego robić?
Tak, myślę, że to pytanie jest ważne i można na nie odpowiedzieć, jeśli wyjaśnimy, co przez nie rozumiemy. Niektórzy czytelnicy mogą pamiętać debatę i skandal, gdy w latach 70. pojawiły się kalkulatory kieszonkowe. Niektórzy wielcy matematycy twierdzili, że to koniec matematyki. Nikt nie będzie w stanie zajmować się matematyką. Każdy będzie miał kalkulator kieszonkowy. Nikt nie będzie nawet wykonywał prostych działań arytmetycznych. Czy tak się stało? Oczywiście, że nie. Nadal mamy świetnych matematyków i nadal możesz sprawdzić swoje konto bankowe. Dlaczego? Cóż, ponieważ to jest komplementarne. Nie zastępuje ich. Oczywiście pojawiły się inne umiejętności, w tym umiejętność korzystania z super skomplikowanego kalkulatora kieszonkowego.
Podobnie dzisiaj, zdolność naukowców do pracy ze sztuczną inteligencją w celu rozwiązywania problemów ma fundamentalne znaczenie. Weźmy na przykład badania nad składaniem białek. Do niedawna był to proces wykonywany ręcznie. Naukowcy musieli interweniować i wykonywać całą pracę samodzielnie. Dziś sztuczna inteligencja robi to szybciej, bardziej niezawodnie i wydajniej. Czy to oznacza, że nie wiemy, jak to zrobić? Nie, ale oznacza to, że nie musimy tracić na to czasu i możemy wykorzystać naszą inteligencję do robienia czegoś innego. Żart polega na tym, że pytanie czasami przypomina analogię szachową: kto jest najlepszym graczem, AI czy arcymistrz? Odpowiedź brzmi: arcymistrz z AI. Razem są nie do pokonania. Kim więc jest naukowiec jutra? To naukowiec, który wykorzystuje sztuczną inteligencję do dowolnych celów.
Powinniśmy też być nieco ostrożni. Jestem do pewnego stopnia entuzjastycznie nastawiony do przyszłych możliwości, ale w tej chwili i w dającej się przewidzieć przyszłości nie możemy oczekiwać, że sztuczna inteligencja stanie się bardzo kreatywną AGI. Programy AI są szkolone na ogromnych ilościach języka. Czasami są bardzo wyspecjalizowane, na przykład tylko w dokumentach prawnych, ale działają jak tylne lusterko. Uczą się na podstawie przeszłości. Sztuczna inteligencja nie jest wystarczająco dobra, jeśli chcemy rozwiązać nowy problem i zrobić coś naprawdę kreatywnego; potrzebujemy momentów a‑ha. Nie wiemy nawet, w jaki sposób przychodzą one do naszych umysłów. I może przyjść poprzez interakcję ze sztuczną inteligencją; może to być, no wiesz, przypadek, szansa, ale nie powinniśmy mieć złudzeń, że nauka polega na przetwarzaniu coraz większej ilości danych.
Jest na odwrót. Nauka zaczyna od pytania i szuka na nie odpowiedzi. Nie zaczyna się od milionów odpowiedzi, aby sprawdzić, czy z tych wszystkich odpowiedzi można coś wycisnąć w postaci przyzwoitej nowej hipotezy. To jest codzienna, zwykła praca. Ale postęp wiedzy polega na rozwoju pytań, które zadajemy. Platon zdefiniował kogoś, kto wie, jako osobę, która wie, jak zadawać właściwe pytania. Zadanie formułowania właściwych pytań pozostaje zadaniem dla ludzi. Jestem więc dość optymistycznie nastawiony do interakcji człowiek-maszyna. Mam nadzieję, trzymam kciuki, że będę żył, gdy zaczniemy myśleć o różnych dyscyplinach naukowych jako niemożliwych bez sztucznej inteligencji. To tak, jakby dzisiejsza fizyka była niemożliwa bez CERN i akceleratora.
Sztuczna inteligencja będzie tylko kolejnym narzędziem. Będzie jak mikroskop, teleskop itp. Oczywiście będzie to wymagało nowych umiejętności, które bardzo różnią się od tego, co naukowiec wyobrażał sobie w ubiegłym wieku. Wyobrażam sobie bardziej symbiotyczny związek między nauką wszelkiego rodzaju, ale przede wszystkim więcej konstrukcji, na przykład symulacji, budowania widoków, które w przeciwnym razie byłyby niemożliwe, wizualizacji, które w niczym nie przypominałyby tego, co można zrobić piórem na papierze. Otworzy się cały świat możliwości.
Może jeszcze jedna uwaga na ten temat, jeśli mogę. Nie wiem, w jakiej dziedzinie pracujesz, ale ja byłem logikiem i zajmowałem się filozofią nauki. Jeśli weźmiesz do ręki podręcznik filozofii nauki, skupi się on bardziej na naukach, które patrzą na świat tak, jakby istniał system. I próbują reprezentować lub uchwycić, czym jest ten system. Filozofia nauki tak naprawdę nie skupia się na wszystkich innych dyscyplinach, które nie są mimetyczne, ale poetyckie, wykorzystują przedmiot, budując i modyfikując swój przedmiot. Astrofizyka nie buduje czarnych dziur, ale ekonomia, informatyka, studia żydowskie, architektura i inżynieria są poetyckie. Chodzi mi o to, że studiują temat, aby coś zmienić, tak jak medycyna, nauki polityczne itp.
Zbytnio upraszczam; wybacz mi. To bardzo uproszczona polaryzacja, która nie jest prawdziwa. Ale mamy dyscypliny, które opisują system, więc modelują system, gdzie model pojawia się po systemie, oraz dyscypliny, które mają plan systemu, gdzie plan pojawia się przed systemem, a następnie budują system. Tak więc mimetyczne i poetyckie. Filozofia nauki w dużej mierze opiera się na mimetyzmie. Jednak wiele nauk, którymi zajmujemy się na co dzień, tych, które robią dużą różnicę w codziennym życiu, ekonomii, architekturze, inżynierii i informatyce, jest poetyckich. Budują swoje systemy, a kiedy znajdują coś w rzeczywistości, próbują to zbadać, aby zmodyfikować lub ulepszyć. W większości filozofii nauki, której nauczamy dzisiaj, podręczniki koncentrują się na idei, że coś tam jest. Najpierw przychodzi rzeczywistość, a potem modelowanie. Modelowanie polega na uchwyceniu rzeczywistości. Jednak w rzeczywistości, również dzięki sztucznej inteligencji i rewolucji cyfrowej, coraz bardziej skupiamy się na dyscyplinach, które budują swoje systemy. I nie jestem antyrealistą, nie, nie chodzi mi o rzeczywistość konstruowaną społecznie. Mówię tylko o inżynierii, architekturze, żydowskiej roztropności, socjologii i tak dalej, o ile badają coś, co albo sami budują, albo zmieniają i chcą zmodyfikować, więc badanie ma coś zmienić.
W miarę jak coraz bardziej zbliżamy się do mechanizmu sztucznej inteligencji i narzędzi, które przenikają przez dyscypliny, będzie coraz większe poczucie tej konstruktywistycznej perspektywy, która jest bardzo galilejska. AI będzie miała nawet filozoficzny wpływ na to, jak pojmujemy naukę w jej najlepszym wydaniu. Myślę, że to zobaczę. Nie sądzę, że stanie się to stanie się za 100 lat, ale w ciągu najbliższych dwóch lub trzech dekad. Daję sobie sobie kolejne 40 lat. Mam 58 lat. Mam nadzieję, że dożyję 98.
tłumaczenie: Błażej Gębura
Luciano Floridi – profesor na Uniwersytecie Yale; założyciel i dyrektor Digital Ethics Center (Centrum Etyki Cyfrowej); w 2022 roku mianowany Kawalerem Wielkiego Krzyża OMRI za swoją pracę w dziedzinie filozofii. Jego najnowsze książki to The Ethics of Artificial Intelligence – Principles, Challenges, and Opportunities (OUP, 2023) oraz The Green and The Blue – Naive Ideas to Improve Politics in the Digital Age (Wiley, 2023). Na hobby nie ma czasu, ale kocha literaturę, kino, squasha i nurkowanie.
Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.
Ilustracja: ChatGPT
Prowadzenie portalu filozofuj.eu – finansowanie
Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
Ps. Bis…
Nie ma czegoś takiego jak sztuczna inteligencja — intelekt czy etyka!
AD 2025