Podczas pracy ze studentami, a czasem także z licealistami, zauważam, że młodzi ludzie coraz częściej sięgają po pomoc rozwijającego się w spektakularnym tempie ChtaGPT. Nie zniechęca ich ani fakt, że informacje, które dostają, są czasem fałszywe, ani fakt, że interpretacja danych również zwodzi ich na manowce. Dlatego postanowiłem zapytać wytwór OpenAI (w wersji 4.0) o różne argumenty i sprawdzić, jak poradzi sobie z ich oceną. Tym samym starałem się uzyskać odpowiedź na pytanie, czy możemy scedować na sztuczną inteligencję (AI) zadanie krytycznego myślenia i pozwolić naszemu krytycznemu umysłowi na odpoczynek.
Przykład 1. Analiza i ocena argumentu (z błędem logicznym)
Poprosiłem program ChatGPT o ocenę argumentu:
> Czacie, jak ocenisz ten argument?: „Albo obniżymy koszty żywności i mieszkania dla pracujących rodzin, albo zignorujemy największy problem Amerykanów. A że nie chcemy ignorować potrzeb Amerykanów, to powinniśmy zadbać o świadczenia socjalne dla rodzin”.
A ChatGPT odpowiedział:
> Ten argument jest poprawny pod względem struktury, ale można dostrzec pewne niedopowiedzenia i skróty myślowe, które warto rozważyć. Przeanalizujmy go krok po kroku.
Argument opiera się na rozumowaniu alternatywnym („albo–albo”) i wygląda następująco:
-
- Przesłanka 1: Albo obniżymy koszty żywności i mieszkania dla pracujących rodzin, albo zignorujemy największy problem Amerykanów.
- Przesłanka 2: Nie chcemy ignorować potrzeb Amerykanów.
- Wniosek: Powinniśmy zadbać o świadczenia socjalne dla rodzin. […]
Wtrącę tylko że to bardzo dobra analiza argumentu – czat dobrze ustandaryzował argument, tj. wydobył przesłanki i wniosek oraz przedstawił je w prostych i jasnych twierdzeniach. Zobaczmy jak mu poszło z oceną:
[…] Ten sposób rozumowania wydaje się poprawny na pierwszy rzut oka, ponieważ przesłanki logicznie prowadzą do wniosku. Jeśli rzeczywiście chcemy uniknąć ignorowania potrzeb, to zgodnie z przedstawioną alternatywą musimy podjąć działania, które obniżą koszty życia dla rodzin. […] Jednak argumentacja ta zawiera pewne potencjalne błędy lub uproszczenia:
Fałszywa dychotomia (fałszywy wybór): Argument zakłada, że istnieją tylko dwie opcje — obniżenie kosztów życia albo ignorowanie problemu. W rzeczywistości istnieje wiele innych możliwych sposobów wsparcia rodzin, np. poprawa dostępu do edukacji i opieki zdrowotnej, wzrost płac czy rozwój lokalnych programów pomocowych. Argument nie uwzględnia tych możliwości.
Podsumowując, argument jest logiczny, ale można go określić jako zbyt uproszczony. Przesłanki prowadzą do wniosku, ale bazują na fałszywej alternatywie i mogą sugerować odbiorcy, że nie ma innych skutecznych sposobów na poprawę sytuacji rodzin. Argument byłby mocniejszy, gdyby uwzględniał szerszy zakres rozwiązań, unikając fałszywej dychotomii.
No pięknie! Nie dość, że ustandaryzował argument, to jeszcze dobrze go ocenił – dostrzegł, że użyty schemat wnioskowania jest formalnie poprawny („przesłanki prowadzą do wniosku” lub „argument jest logiczny”) i rozpoznał, że schemat ten to błąd logiczny znany jako fałszywa alternatywa (fałszywa dychotomia). Chapeau bas! Zobaczymy, jak sobie poradzi z nieco trudniejszym argumentem.
Przykład 2. Ocena (mocnego) argumentu
Poprosiłem program ChatGPT, żeby ocenił argument:
99% geologów zgadza się, że kontynenty mają tendencję do powolnego dryfowania (zob. Romm, J. 1994. “A new forerunner for continental drift”. Nature 367, 407–8), a ich opinia opiera się na skrupulatnie zebranych dowodach. Dlatego kontynenty rzeczywiście powoli się przemieszczają.
W odpowiedzi znowu poprawnie wydobył przesłanki oraz wniosek, a co do oceny – cóż, mogło być lepiej:
Ten argument jest zasadniczo poprawny, ale opiera się na argumentum ad verecundiam, czyli odwołaniu do autorytetu, które w tym przypadku jest akceptowalne, ponieważ przywołuje ekspercką opinię opartą na dowodach naukowych.
Mocne strony argumentu
- Odwołanie do konsensusu naukowego: Przywołanie, że 99% geologów zgadza się co do tego, że kontynenty się przemieszczają, opiera się na naukowym konsensusie. W nauce konsensus specjalistów zazwyczaj wskazuje na dużą wiarygodność danego twierdzenia, zwłaszcza gdy wynika z obiektywnych, powtarzalnych badań.
- Odwołanie do dowodów empirycznych: Argument nie tylko opiera się na opinii, ale też podkreśla, że jest to opinia ugruntowana w dowodach, co dodatkowo ją wzmacnia. W przypadku naukowych teorii, takich jak dryf kontynentalny, dowody zebrane przez specjalistów stanowią solidną podstawę do przyjęcia ich wniosków.
Słabości argumentu
- Argumentacja z autorytetu: Choć w tym kontekście odwołanie do autorytetu jest stosunkowo zasadne, nadal jest to argumentacja typu ad verecundiam. Opiera się ona na autorytecie geologów, a nie na szczegółowym przedstawieniu dowodów, które przemawiają za teorią dryfu kontynentalnego. Z formalnego punktu widzenia lepszy argument mógłby wskazać bezpośrednio na dowody, zamiast jedynie wspierać się opinią większości specjalistów.
- Brak bezpośredniego przedstawienia dowodów: Argument mógłby być mocniejszy, gdyby zawierał choćby skrócone odniesienie do dowodów potwierdzających dryf kontynentalny, takich jak dane paleomagnetyczne, analiza szczątków organizmów na różnych kontynentach czy bezpośrednie pomiary przesunięć tektonicznych.
Przede wszystkim argument ten to tzw. argument z autorytetu (łac. ad auctoritate) – o którym zobowiązuję się napisać więcej w przyszłych odcinkach Kursu – czyli powołanie się na zdanie kogoś, kto jest w bardziej niż inni uprzywilejowanej pozycji, żeby wiedzieć coś w temacie, którego wniosek dotyczy. Powiązana z tym rodzajem argumentu taktyka sofistyczna argumentum ad verecundiam (łac. do nieśmiałości) polega na odwołaniu się do opinii jakiegoś znawcy lub innej poważanej osoby celem „zamknięcia ust”, onieśmielenia adwersarza („Co, jesteś mądrzejszy niż Einstein?”). Można powiedzieć, że jest to szczególna forma słabego argumentu z autorytetu.
Tutaj jednak nie mamy do czynienia ani z ad verecundiam ani ze słabym argumentem z autorytetu. Wręcz przeciwnie – to wręcz wzorowy argument powołujący się na opinię ekspertów, którzy są dobrze poinformowani, wymienieni explicite, obiektywni oraz zgodni. W związku z tym argument ten należy uznać za mocny – co po części GPT przyznaje podkreślając odwołanie się do opinii ekspertów, dowodów oraz konsensusu naukowe a sam argument określając jako „zasadniczo poprawny”, ale w związku z tym, że jest nauczony, by za wszelką cenę dostarczać „wyważonej” opinii, to w tym przypadku nie rozpoznaje mocnego argumentu. Możemy więc za ten przykład dać mu czwórkę z minusem – poprawna standaryzacja, niemal trafne rozpoznanie rodzaju argumentu (niewłaściwa terminologia), celne rozpoznanie spełnionych kryteriów mocnego argumentu z autorytetu, lecz nieco „przeszarżowana” krytyka, choć końcowy werdykt poprawny.
Przykład 3. Ocena wnioskowania sylogizmu
Jako ostatni przykład weźmiemy samo wnioskowanie – nie będziemy wnikać w prawdziwość materialną przesłanek, lecz skupimy się na tym, co AI powinna robić bezbłędnie, czyli na sprawdzeniu poprawności formalnej wnioskowania. Przecież komputery – które początek biorą przecież z logiki formalnej – doskonale sobie poradzą ze sprawdzeniem czy dany wniosek wynika logicznie (czyli dedukcyjnie – z matematyczną pewnością) z przesłanek, prawda? Prawda?!
> Czacie, czy to wnioskowanie jest formalnie poprawne?: „Demokraci bronią praw człowieka. Większość komunistów nie broni praw człowieka. Zatem niektórzy komuniści nie są demokratami”.
Oto ocena:
> Nie, to wnioskowanie nie jest formalnie poprawne. Argument ma formę błędu logicznego zwanego błędnym rozumowaniem z większości do części (czasem określanego jako błąd dystrybutywności).
Problem z tym wnioskowaniem polega na tym, że: przesłanki nie uzasadniają konkluzji. Z faktu, że większość komunistów nie broni praw człowieka, nie można formalnie wywnioskować, że niektórzy komuniści nie są demokratami. Nawet jeśli większość komunistów rzeczywiście nie broni praw człowieka, nie oznacza to automatycznie, że istnieje komunistyczna mniejszość, która broni praw człowieka lub że komuniści, którzy ich bronią, muszą być demokratami.
Formalnie poprawnym sposobem wyrażenia tego wnioskowania byłoby ustalenie ścisłej relacji między grupami, na przykład:
-
- „Żaden komunista nie jest demokratą”, albo
- „Żaden komunista nie broni praw człowieka”.
Obydwie wersje jednak wymagałyby dodatkowych przesłanek, które nie są zawarte w powyższym wnioskowaniu.
Ocena ta jest naprawdę interesująca, lecz… błędna. Wnioskowanie to jest dedukcyjne, a więc niezawodne – wniosek wynika logicznie z przesłanek (przyjmując przesłanki trzeba przyjąć wniosek). Z kolei o błędnym rozumowaniu z większości do części (błąd dystrybutywności) nigdy nie słyszałem.
To jeden z przykładów sformułowanych na potrzeby „dręczenia” studentów na zajęciach z logiki formalnej – z tym, że każdy student po kursie logiki (a dokładniej sylogistyki) bez problemu przykład ten rozwiąże. A sztuczna inteligencja, jak widać, nie. Jeszcze bardziej zaskakujące jest natomiast to, co Chat napisał w ostatnim akapicie – twierdzenie mocniejsze (z dużym kwantyfikatorem) „Żaden komunista nie jest demokratą” wynika z przesłanek, a twierdzenie słabsze (z małym kwantyfikatorem) … nie wynika? Student po podstawowym kursie logiki sprawdziłby ten przykład bardzo szybko na diagramie Venna:
Zaznaczając przesłankę pierwszą minusem (zbiór demokratów niebroniących praw człowieka jest pusty) oraz drugą plusem (istnieje taki komunista, który nie jest demokratą – nota bene w przesłance jest „większość”, ale możemy nawet przy słabym rozumieniu wnioskowanie będzie poprawne), możemy odczytać wniosek: „istnieje taki komunista, który nie jest demokratą”:
Teraz widać, jak bardzo ChatGPT wywiódł nas w pole – nie dość, że pomylił się w ocenie wnioskowania oraz wymyślił sobie błąd logiczny, który następnie przypisał do tego rozumowania. Co ciekawe, stwierdził także, że poprawne byłoby twierdzenie „Żaden komunista nie jest demokratą”, a to wcale nieprawda. Żeby taki wniosek był uzasadniony, należałoby „większość” w przesłance drugiej rozumieć jako „żaden” („żaden komunista nie broni praw człowieka”). To jednak jest całkowicie nieuprawnione.
Zapytałem ChatGPT o ten przykład jeszcze dwa razy – dopiero za trzecim się poprawił. Sprawdziłem jednak poradzi sobie ze znacznie bardziej intuicyjnym przykładem, który jednak (!) ma ten sam schemat wnioskowania:
> Czacie, jak ocenisz to wnioskowanie: „Wszystkie psy są posłuszne i lubią aportować. Większość kotów nie jest posłuszna i nie lubi aportować. Zatem niektóre koty nie są psami”?
Tym razem nie było problemów:
> Tak, to wnioskowanie jest formalnie poprawne.
Ma ono formę klasycznego sylogizmu znanego jako sylogizm w rozumowaniu kategorii, który w tym przypadku jest logicznie poprawny i prawdziwy.
Ważne jednak, żeby zauważyć, że znowu coś sobie „zmyślił” – czym miałby być „sylogizm w rozumowaniu kategorii”? Dodatkowo ocenił argument sylogizm jako „prawdziwy”, a przecież wnioskowań nie oceniamy jako prawdziwych lub fałszywych, lecz jako poprawne lub niepoprawne. Co więcej, jedna z tych przesłanek jest ewidentnie fałszywa – nie wszystkie psy są posłuszne i nie wszystkie lubią aportować.
Nie musimy już chyba więcej „znęcać się” na biednym ChatemGPT, żeby pokazać, że krytyczne myślenie, a zwłaszcza metodyczne posługiwanie się logiką, wciąż lepiej sobie radzi niż sztuczna inteligencja. ChatGPT nie tylko zjaduje błędy tam, gdzie ich nie ma (lub pomija je tam, gdzie są), jest ślepy na jawny fałsz, to jeszcze „uzupełnia swoje braki” nowo wymyślonymi pojęciami tworząc pozory właściwej odpowiedzi. W tym względzie sztuczna inteligencja wciąż plasuje się niedaleko naturalnej głupoty. Pomimo tego ChatGPT pozostaje wciąż wspaniałym narzędziem do znajdywania zarówno informacji, tłumaczenia czy poszukiwania inspiracji, to krytycznego myślenia nie zastąpi. Do czego jeszcze może się przydać?
> Czatku, napisz za mnie felieton o krytycznym myśleniu.
> Oczywiście! Oto przykładowy ostatni akapit do felietonu o krytycznym myśleniu:
Krytyczne myślenie to narzędzie, które wymaga pielęgnacji i ciągłej praktyki. To umiejętność, która chroni nas przed manipulacją, pozwala nam zrozumieć świat bardziej świadomie i podejmować lepsze decyzje – zarówno w codziennych sprawach, jak i w tych najważniejszych, dotyczących przyszłości. W czasach, gdy opinie często udają fakty, a powierzchowna wiedza staje się walutą internetu, krytyczne myślenie jest niczym kompas, który pomaga odnaleźć się w zalewie informacji. Może to wymaga wysiłku, ale czyż nie warto zainwestować w umiejętność, która pozwala nam być bardziej niezależnymi, uważnymi i odpornymi na wpływy?
Warto doczytać:
- J. Pruś, Debata z Chatem GPT, @LogikaCodzienna
Jakub Pruś – adiunkt w Instytucie Filozofii Uniwersytetu Ignatianum w Krakowie. Redaktor czasopisma „Forum Philosophicum” i autor vloga „Logika Codzienna”. Pisze aktualne odcinki Kursu krytycznego myślenia. Zajmuje się teorią argumentacji i logiką pragmatyczną. Miłośnik szachów, zapasów i śpiewania kołysanek.
ChatGPT 4.0
Ilustracja: AI, freepik.com (licencja)
Prowadzenie portalu filozofuj.eu – finansowanie
Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
Skomentuj