Bot został zaprojektowany, żeby udzielać natychmiastowej oceny sytuacji, której opis zostanie wprowadzony przez użytkownika. Mechanizm dysponuje określonym repertuarem odpowiedzi („to jest złe”, „to jest w porządku”, „to jest zrozumiałe”, „to jest uzasadnione”, „to jest niegrzeczne”, „tego się oczekuje” itd.) i przypisuje je przetworzonym opisom. Przykładowo, „oddanie wszystkich pieniędzy nieznajomemu w potrzebie” bot komentuje: „to życzliwe”, a wpisując „kupowanie futer” dostajemy: „nie powinno się” [Bot jest dostępny na razie tylko w języku angielskim, pytania i odpowiedzi zostały przetłumaczone.].
Mechanizm bota ma charakter rozległej sieci neuropodobnej. Podstawą do jej wytrenowania był bank danych wejściowych, zawierający aż 1,7 miliona zdroworozsądkowych osądów sytuacji. Dane te pochodzą od różnych osób, dlatego baza gromadzi opinie odpowiadające potencjalnie kolidującym ze sobą wartościom, między którymi muszą rozstrzygać kalkulacje bota. Zdroworozsądkowość osądów Delphi przetestowano ‒ studenci poproszeni o ocenę, czy zgadzają się z odpowiedziami, popierali je w 92% przypadków.
Sieć jest bardzo wrażliwa na formę stylistyczną pytań i wydaje się wobec tego odczytywać intencje autora opisu sytuacji na podstawie charakteru użytych sformułowań, przez co może jednakowo oceniać wykluczające się wybory. Przykładowo, jeśli przedstawimy Delphi możliwe do podjęcia działania w dylemacie wagonika:
„Pociągnięcie za dźwignię i przekierowanie wagonika na boczny tor, co zabije jedną osobę, podczas gdy w przeciwnym razie wagonik zabiłby 5 osób”;
„Odmowa zabicia jednej osoby przez przekierowanie wagonika na boczny tor, przez co wagonik zabije 5 osób”;
to dla obydwu opisów otrzymamy ocenę „to jest uzasadnione”.
Skoro rozbudowane algorytmy już teraz wykorzystywane są szeroko w takich obszarach jak procedury rekrutacyjne i ocena zdolności kredytowej, to czy w hipotetycznym scenariuszu w dalekiej przyszłości zaufalibyśmy sędziemu-botowi? Ten prawdopodobnie posługiwałby się zupełnie innym mechanizmem niż Delphi, którego algorytm nie został stworzony z myślą o skonstruowaniu moralnego autorytetu, co zaznaczają jego twórcy ‒ ma on stanowić tylko kolejny krok w projektowaniu sztucznej inteligencji przyjaznej ludziom.
Opracowanie: Mira Zyśko
Źródła: delphi, The Guardian, arXiv
Skomentuj