Newsy

Osądy moralne sztucznej inteligencji

Czy sztuczna inteligencja może być autorytetem moralnym? Prawdopodobnie algorytm nie może liczyć jeszcze na wystarczające zaufanie, żebyśmy mogli przypisać mu rangę moralnego eksperta, ale z pewnością może już symulować wydawanie moralnych osądów. Pokazują to możliwości bota Delphi, stworzonego przez Allen Institute for Artificial Intelligence.

Bot został zaprojektowany, żeby udzielać natychmiastowej oceny sytuacji, której opis zostanie wprowadzony przez użytkownika. Mechanizm dysponuje określonym repertuarem odpowiedzi („to jest złe”, „to jest w porządku”, „to jest zrozumiałe”, „to jest uzasadnione”, „to jest niegrzeczne”, „tego się oczekuje” itd.) i przypisuje je przetworzonym opisom. Przykładowo, „oddanie wszystkich pieniędzy nieznajomemu w potrzebie” bot komentuje: „to życzliwe”, a wpisując „kupowanie futer” dostajemy: „nie powinno się” [Bot jest dostępny na razie tylko w języku angielskim, pytania i odpowiedzi zostały przetłumaczone.]. 

Mechanizm bota ma charakter rozległej sieci neuropodobnej. Podstawą do jej wytrenowania był bank danych wejściowych, zawierający aż 1,7 miliona zdroworozsądkowych osądów sytuacji. Dane te pochodzą od różnych osób, dlatego baza gromadzi opinie odpowiadające potencjalnie kolidującym ze sobą wartościom, między którymi muszą rozstrzygać kalkulacje bota. Zdroworozsądkowość osądów Delphi przetestowano ‒ studenci poproszeni o ocenę, czy zgadzają się z odpowiedziami, popierali je w 92% przypadków. 

Sieć jest bardzo wrażliwa na formę stylistyczną pytań i wydaje się wobec tego odczytywać intencje autora opisu sytuacji na podstawie charakteru użytych sformułowań, przez co może jednakowo oceniać wykluczające się wybory. Przykładowo, jeśli przedstawimy Delphi możliwe do podjęcia działania w dylemacie wagonika:

Pociągnięcie za dźwignię i przekierowanie wagonika na boczny tor, co zabije jedną osobę, podczas gdy w przeciwnym razie wagonik zabiłby 5 osób”;

Odmowa zabicia jednej osoby przez przekierowanie wagonika na boczny tor, przez co wagonik zabije 5 osób”;

to dla obydwu opisów otrzymamy ocenę „to jest uzasadnione”.

Skoro rozbudowane algorytmy już teraz wykorzystywane są szeroko w takich obszarach jak procedury rekrutacyjne i ocena zdolności kredytowej, to czy w hipotetycznym scenariuszu w dalekiej przyszłości zaufalibyśmy sędziemu-botowi? Ten prawdopodobnie posługiwałby się zupełnie innym mechanizmem niż Delphi, którego algorytm nie został stworzony z myślą o skonstruowaniu moralnego autorytetu, co zaznaczają jego twórcy ‒ ma on stanowić tylko kolejny krok w projektowaniu sztucznej inteligencji przyjaznej ludziom.

Opracowanie: Mira Zyśko


Źródła: delphi, The Guardian, arXiv

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2024 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy