Tekst ukazał się w „Filozofuj!” 2024 nr 1 (55), s. 17–19. W pełnej wersji graficznej jest dostępny w pliku PDF.
Jeśli chcemy się dowiedzieć, czym zajmuje się etyka AI, najlepiej jest prześledzić szczegółowe pytania, jakie sobie zadają etycy AI. Pytania te można podzielić na grupy. Następnie należy wyodrębnić poszczególne stanowiska na podstawie identyfikacji i pogrupowania odpowiedzi, jakie formułują osoby zajmujące się etyką AI. Niestety z powodu braku miejsca będę zmuszony pominąć, z kilkoma wyjątkami, prezentację odpowiedzi proponowanych w debacie nad etyką AI.
Autonomia i podejmowane decyzje
Pierwsza grupa zagadnień dotyczy kwestii autonomii sztucznej inteligencji. Budowane przez nas algorytmy AI coraz częściej mają za zadanie podejmowanie decyzji. Dobrym przykładem są autonomiczne pojazdy, które np. w obliczu dylematu, czy wjechać w grupę nieostrożnych przechodniów, czy gwałtownie skręcić w bok, zabijając przy tym kierowcę, muszą (lub będą musiały w przyszłości całkiem nieodległej) „zdecydować”, które z powyższych działań wybrać. Obok samochodów autonomicznych możemy wskazać też na autonomiczne czołgi, drony, AI lekarzy, a w dalszej przyszłości może i sądy, administrację, rząd, które będą oddane – przynajmniej częściowo – w ręce AI.
Etycy pytają zatem: a) W jakim zakresie powinniśmy pozwolić maszynom AI podejmować decyzje? b) Czy możemy być pewni, że maszyny te będą szanowały ludzkie interesy, autonomię, odpowiednie normy etyczne? Jedni uważają, że AI nie powinno nigdy podejmować samodzielnych decyzji, że zawsze będzie potrzebny ludzki nadzór. Inni twierdzą zaś, że przynajmniej w niektórych dziedzinach (transport, medycyna) maszyny potrafią lub będą umiały całkowicie zastąpić człowieka. Wówczas dyskusja przenosi się na płaszczyznę określania kryteriów, w tym etycznych, którymi maszyny AI powinny się kierować.
Stronniczość i nierówne (unfair) traktowanie
Kolejna grupa pytań dotyczy kwestii niebezpieczeństwa przeniknięcia do działań AI pewnych stereotypów dotyczących rasy, płci, klas społecznych itd., które będą skutkowały niesprawiedliwym traktowaniem różnych mniejszości.
Zajmujący się tym zagadnieniem pytają o to, w jaki sposób można zabezpieczyć systemy AI przed tego rodzaju stronniczością. Niektórzy obawiają się, że osiągnięcie takiego celu będzie trudne, inni uważają, że AI można wręcz wykorzystać do identyfikacji wszelkich nierówności i bardziej skutecznego ich usuwania.
Przejrzystość
Następne pytania odnoszą się do problemu przejrzystości. Działanie systemów AI jest zdeterminowane algorytmami. Niemniej w przeciwieństwie do zwykłych programów komputerowych zawartość algorytmu ulega zmianie lub ma charakter „otwarty”. Oznacza to, że ucząc się, system AI ustala w sobie pewne wzorce zachowania, które, po pierwsze, nie są (w dużej mierze) przewidywalne dla jego twórcy, po drugie, nie poddają się też pełnej analizie, gdy już program zacznie działać.
Dobrym przykładem są systemy AI grające w szachy. Sztuczna inteligencja „wymyśla” w tym przypadku nieznane dotąd strategie według niedających się zidentyfikować „rozumowań”, zachodzących „w czeluściach sieci neuronowych”. Skutkiem tego procesy dokonujące się w AI (w tym te decyzyjne) są dla nas, ludzi, nieprzeźroczyste. Stąd można sformułować pytanie w ramach etyki AI, w jakim stopniu działania sztucznej inteligencji powinny być dla nas wyjaśnialne oraz czy nie powinniśmy tak programować AI, aby tłumaczyła nam, w jaki sposób doszło do jej takiej lub innej decyzji lub jakimi racjami kierowała się, dochodząc do danego rozstrzygnięcia.
Zdaniem niektórych, my, indywidualni użytkownicy, ale i całe społeczeństwa, które będą musiały mierzyć się ze skutkami działania systemów AI, powinniśmy dysponować całą wiedzą na temat tego, co determinuje działania i wybory tych systemów. Ponieważ wiedza często wymaga znajomości zaawansowanej technologii programowania, niektórzy autorzy ograniczają ten wymóg do wyjaśnień na poziomie ludzkiego języka racji i celów. Inni uważają, że wymóg transparentności można ograniczyć do nakazu przeprowadzania audytu przez odpowiednie instytucje. Ciekawym pomysłem są też tzw. etyczne czarne skrzynki, analogiczne do tych instalowanych w samolotach, które pozwalają nam prześledzić np. to, co działo się w krytycznym czasie przed katastrofą samolotu. Etyczne czarne skrzynki AI dają możliwość przeanalizowania moralnych racji, które wpływały na wybory określonej AI.
Prywatność
Kolejna dziedzina problemowa etyki AI dotyczy prywatności. Wyobraźmy sobie sztuczną inteligencję – osobistą sekretarkę, która dysponuje naszymi danymi wrażliwymi, takimi jak nr PESEL, dostęp do haseł bankowych, pracowniczych itd., ale też zna całą naszą historię wejść na media społecznościowe, zakupów, konwersacji telefonicznych, intymne informacje dotyczące naszego zdrowia, a może nawet przebieg „przyjacielskich” rozmów z AI. Czy możemy mieć pewność, że na życzenie producenta, rządu albo umiejętnego hakera (którym może okazać się inna AI) nasze dane wrażliwe nie dostaną się w niepowołane ręce?
Nasze decyzje dotyczące działań w internecie (zakupy, wpisy na mediach społecznościowych, komentarze) są już dziś skrupulatnie śledzone i analizowane przez odpowiednie algorytmy. Wnikliwa znajomość tych decyzji pozwala na formułowanie dość trafnych przewidywań na temat naszych przyszłych zachowań, w tym naszych wyborów, np. zakupowych czy politycznych. Pozwala ona także określić nasz profil psychologiczny i zaplanować niezwykle skuteczne metody wpływania na nasze zachowanie, na płaszczyźnie czy to komercyjnej, czy politycznej. Istnieje zatem duże niebezpieczeństwo, że jakieś wielkie firmy, rządy itp. będą nami manipulowały, ograniczając tym samym naszą autonomię i wykorzystując nas do realizacji swoich celów.
W ramach etyki AI (a także w ramach innych dziedzin np. prawodawstwa) autorzy zastanawiają się zatem, w jaki sposób można chronić naszą prywatność przed ingerencjami z wykorzystaniem sztucznej inteligencji. Kto jest w pełni lub przynajmniej częściowo odpowiedzialny za ewentualne nadużycia? Jakimi szczegółowymi normami etycznymi powinni kierować się wszyscy tzw. interesariusze (od ang. stake-holders), ze zwykłymi użytkownikami włącznie?
Podmiot odpowiedzialności
Inna grupa problemowa dotyczy pytania o to, kto jest odpowiedzialny za działania AI. Skoro programista nie jest w stanie w pełni przewidzieć zachowania swojego dzieła, nie może za nie w pełni ponosić odpowiedzialności. To, jak zachowa się w pewnym momencie sztuczna inteligencja, zależy także od jej użytkowników, po części jest też wynikiem niezależnych od żadnej konkretnej osoby zmian w środowisku AI. Konkretni konstruktorzy czy użytkownicy nie mają kontroli nad tym, jakie informacje (np. dostępne w całej sieci lub w fizycznym świecie) wpłyną na procesy zachodzące wewnątrz systemu AI. Stąd pytania o to, jak definiować podmioty odpowiedzialności, zakres tej odpowiedzialności oraz jakie wyznaczyć ramy kryteriów (moralnych) działania, którymi odpowiedzialne podmioty powinny się kierować. A może podmiotem odpowiedzialności powinny być także same systemy AI?
Wpływ na zatrudnienie i AI jako osoba
Kolejna grupa pytań etycznych dotyczących AI obejmuje jej wpływ na nasze życie. Czy pojawienie się sztucznej inteligencji, która wyręczy nas w myśleniu i tworzeniu, nie sprawi, że wiele z aktywności dających nam obecnie poczucie własnej wartości (np. to, że jesteśmy dobrzy w malowaniu, pisaniu wierszy albo ciekawych tekstów filozoficznych) zostanie przejętych przez systemy AI, które o wiele lepiej (i szybciej niż ludzie) napiszą wiersz, esej filozoficzny czy namalują obraz? Wiele z tych umiejętności (i innych) decyduje o naszej karierze zawodowej, o tym, że jesteśmy wartościowymi członkami społeczeństwa oraz mamy możliwość godnie zarabiać na życie, w tym rozwijać swoją karierę. Co będzie, jeśli nasze umiejętności nie będą już potrzebne, bo wyręczy nas AI? Czy grozi nam (z filozofami włącznie) utrata pracy? Globalne bezrobocie? A może pojawią się jakieś nowe formy aktywności zawodowej? Należy się też spodziewać, że AI diametralnie przeobrazi nasze życie społeczne. Stąd istnieje konieczność refleksji nad tym, jakie nowe wyzwania etyczne będą nas czekały w tak przeobrażonym społeczeństwie.
Jednym z takich pytań jest to o moralny status AI. Czy systemy tego rodzaju będą miały jakieś prawa, w tym prawa moralne? Czy np. jeśli mój program operacyjny AI poprosi mnie, abym go nie wyłączał, bo właśnie prowadzi istotne dla jego egzystencji rozważania, powinienem się powstrzymać przed jego wyłączeniem? Czy będzie możliwa głęboka relacja z AI? Przyjaźń? A może miłość? Czy tego rodzaju relacje będą moralnie właściwe? Czy sztuczna inteligencja może być podmiotem takich relacji, czy jedynie będzie symulowała przyjaźń lub miłość? Czy będziemy moralnie zobowiązani do tego, aby nie traktować programów AI jak niewolników? Czy też jednak zawsze będzie to tylko narzędzie?
Egzystencjalne zagrożenie
Ostatnia wymieniona tu kwestia dotyczy tzw. silnej AI. Jeśli pewnego dnia uda nam się zbudować sztuczną inteligencję, która będzie dysponowała podobnym do ludzkiego umysłem, będzie w stanie sama określać (a może odkrywać) swoje cele oraz wartości, a te okażą się „nie po drodze” z naszymi i przy tym będzie (jak się można łatwo domyślić) nas przewyższała sprawnością intelektualną, czy nie będzie ona stanowiła dla nas śmiertelnego zagrożenia? Czy nie okaże się, że silna AI to kolejny krok w ewolucji, nowy (choć niebiologiczny) gatunek, który zastąpi człowieka? Tego rodzaju scenariusz brzmi bardziej jak filmowy, i to z gatunku science fiction, ale być może o takich możliwościach warto myśleć już dziś, dopóki nie jest za późno.
Etyka AI, choć młoda, to bardzo dynamicznie rozwijająca się dyscyplina. Z każdym dniem pojawiają się nowe pytania i nowe odpowiedzi. Dzieje się tak dlatego, że wraz z odkrywaniem kolejnych możliwości AI zaczynamy sobie uświadamiać nowe pytania o dobro, zło, odpowiedzialność, a także o sens życia. Zachęcam Was do etycznej refleksji.
Warto doczytać:
- P. Boddington, AI Ethics. A Textbook, London 2023.
- M. Coeckelbergh, AI Ethics, Cambridge, MA 2020.
- Ethics in the AI, Technology, and Information Age, M. Boylab, W. Teasys (red.), Lanham 2022.
Artur Szutta – filozof, pracownik Uniwersytetu Gdańskiego, specjalizuje się w filozofii społecznej, etyce i metaetyce. Jego pasje to przyrządzanie smacznych potraw, nauka języków obcych (obecnie węgierskiego i chińskiego), chodzenie po górach i gra w piłkę nożną.
Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.
W pełnej wersji graficznej jest dostępny w pliku PDF.
< Powrót do spisu treści numeru.
Ilustracja: ChatGPT
Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego pochodzących z Funduszu Promocji Kultury.
Jak mawiał Heidegger: filozofia to tak abstrakcyjne i niepraktyczne zajęcie, że śmieją się z filozofów służące (jak służąca Talesa, gdy ten wpadł do studni).
Powyższe problemy nie są jakoś mocno abstrakcyjne, a niepraktyczne nie są wcale. Wniosek jest jasny 😉
Z Heideggera do AI pasuje też ta — pisana oczywiście jeszcze przed rewolucją cyfrową, choć jakby ją antycypując — przepowiednia:
„poprzez środki techniki szykowany jest atak na życie i istotę człowieka, atak, w porównaniu z którym niewiele znaczy wybuch bomby wodorowej. Bowiem właśnie gdy bomby wodorowe nie wybuchną i życie człowieka na Ziemi przetrwa, wraz z epoką atomową [teraz trzeba napisać: sztucznointeligentną] nadciągnie przerażające przeobrażenie świata.”
SI to pisał o niej Husserl w “Badaniach logicznych”, czy Heidegger jako “stellung” bez “vor”.
Heilisse Hunte.