Artykuł

Krzysztof Saja: Tokenizacja jako forma działalności językowej dla ludzi i maszyn

Dzięki tokenizacji powstaje nowy uniwersalny język scalający ludzi i maszyny. Tokenizacja, jako językotwórstwo i ontologia stosowana, zaczyna wprowadzać nowe kategorie bytów, umów i instytucji, które w pełni wykorzystują potencjał cyfrowego świata.

Tekst ukazał się w „Filozofuj!” 2023 nr 3 (51), s. 11–13. W pełnej wersji graficznej jest dostępny w pliku PDF.


Jak głosi słynna teza Ludwiga Wittgensteina,

granice mojego języka wyznaczają granice mojego świata. (Wittgenstein 2002, s. 64).

Struktura języka wpływa na nasze myślenie i postrzeganie rzeczywistości. Ideę tę rozwijało wielu filozofów. Tworzenie pojęć, nazywanie rzeczy, budowanie narracji ma bardzo dalekosiężne skutki, które rozciągają się poza granice samego języka. Jak ujął to Willard Van Orman Quine, warto postulować istnienie takich bytów, które są niezbędnym wyjaśnieniem doświadczanych zjawisk. Bez takich tworów językowych jak „kwark”, „atom”, „grawitacja”, „czarna dziura”, „prawa człowieka”, „niesprawiedliwość”, „zrównoważony rozwój”, „tożsamość płciowa”, „kapitalizm”, „komputer” czy „oprogramowanie” nie jest możliwe zrozumienie i wyjaśnienie współczesnego świata. „Tokenizacja” jest kolejnym słowem, które warto zapamiętać.

Digitalizacja i cyfryzacja jako działalność językotwórcza

W przeciwieństwie do „słowotwórczej mocy” filozofii i nauk szczegółowych wpływ kolejnych aplikacji i systemów cyfrowych w ramach znanej nam sieci 2.0, choć odciska się dużym piętnem na naszym życiu, nie wydaje się mieć ontologicznie istotnego znaczenia. Paradoksalnie, mimo że programowanie jest formą precyzyjnego definiowania i powoływania do życia za pomocą sztucznych języków różnych bytów, takich jak zmienne, stałe, obiekty, tablice, funkcje itd., które na coraz wyższych poziomach abstrakcji tworzą wewnętrzne skomplikowane światy znaczeń, relacji i zależności, byty te nie „zaludniają” przestrzeni publicznej. Językowa działalność programistów ma charakter zamknięty, tworząc coś, co za Wittgensteinem nazwać można językami prywatnymi. W prawie każdym systemie IT pojęcie „użytkownik” czy „produkt”, wyznaczone przez wewnętrzną sieć powiązań, oznacza coś innego. Z tego względu bardzo aktywna działalność językowa programistów nie przekłada się w proporcjonalny sposób na język publiczny, a w konsekwencji – przyjmowaną w naszym społeczeństwie ontologię.

Blockchain – uniwersalny język ludzi i maszyn

Rozwój sieci 3.0, opartej na publicznym łańcuchu bloków (blockchain), wydaje się pierwszym wdrożeniem w pełni otwartego społecznego „języka” lub platformy do tworzenia „cyfro­wych pojęć”. Te ostatnie przyjmują formę tokenów, które mogą odnosić się do dowolnych rzeczy w wirtualnym bądź fizycznym świecie. Blockchain można zobrazować jako publiczną, globalną, uniwersalną – skierowaną do ludzi i maszyn – platformę językową, w ramach której tworzonym „słowom” – tokenom – nadaje się dowolne referencje. Tokenizacja jest formą digitalizacji poprzez tokeny. Znacznie wykracza poza optymalizację komunikacji w języku potocznym, którą znamy z obecnych sieci społecznościowych.

Idea tokenu, który jest w samym sercu sieci 3.0, jest prosta i zarazem bardzo pojemna. W wielu sieciach blockchain publikować można inteligentne kontrakty (umowy), które nie mogą być w sposób nieuprawniony anulowane ani w istotny sposób zmienione. Reguły tych umów są zazwyczaj otwarte i publicznie dostępne. Kontrakty, będąc niewielkimi skryptami, mogą udostępniać użytkownikom różne informacje o swoim stanie w formie tworzonych (mintowanych) tokenów. Token jest zapisem w ramach umowy – stanowi część jej wewnętrznego stanu. Posiada również właściciela – przypisany jest do indywidualnego portfela blockchain. Spełnia też różne programistyczne standardy, w zależności od rzeczy, do których się może odnosić. Może być jednoznacznie powiązany z jakąś informacją, np. tekstem, zdjęciem, plikiem audio lub wideo. Na przykład, tworząc token, który będzie kluczem do jakiejś aplikacji, możemy przypisać mu obrazek animowanej karty wstępu wraz z listą dostępnych funkcjonalności. Token nie jest jednak obrazkiem, obrazek to jedynie jego wizualna reprezentacja. Token taki jest następnie rozpoznawalny przez niezależnie tworzone aplikacje zwane dApps (ang. decent­ralized applications), dzięki którym w prosty sposób można odczytywać powiązane z nim informacje lub wchodzić w interakcje z kontraktem, który powołał go do życia.

Wartość tokenu, podobnie jak znaczenie słowa, stanowi wypadkową bardzo wielu relacji. Wyznaczona jest przez zakodowane funkcje i reguły, relacje z innymi kontraktami, społeczne konwencje wiążące token z istotnymi oczekiwaniami i narracjami, umowy i prawne regulacje, wirtualne usługi. Token może odnosić się również do innych tokenów, tworząc tokeny wyższego rzędu. Obecnie znane tokeny reprezentują np. „możliwość zbycia go po cenie rynkowej (bitcoin)”; „możliwość zbycia lub opłacenia egzekucji inteligentnego kontraktu w globalnym komputerze, jakim jest Ethereum (ETH)”; „możliwość wymienienia go po stałej cenie jednego dolara”; „prawo do dywidendy/odsetek od udziałów (tokeny reprezentujące udział w puli płynności w zdecentralizowanych giełdach)”; „prawo do zysków z inwestycji w zdecentralizowanych funduszach inwestycyjnych”; „prawo do głosowania (tokeny zarządcze)”; prawa do zakupu towarów i usług; bilety wstępu; certyfikaty uczestnictwa; udziały w spółkach; potwierdzenie tożsamości.

Tokenizacja jako ontologia stosowana

Ponieważ rzeczywistość, którą można stokenizować, jest bardzo różnorodna, tokenizacja w pierwszej swej fazie polega na ontologicznej analizie rzeczy, którą mamy zamiar poddać procesowi digitalizacji. „Ontologia stosowana” tokenów polega na ich kategoryzacji i klasyfikacji, aby mogły one w trafny sposób reprezentować różne rodzaje bytów, umów, instytucji. Rozwijanych jest wiele standardów, np. w ramach projektu „Ethereum Improvement Proposals”, które definiują reguły i właściwości dla całych klas tokenów. Przypomina to pisanie formalnego podręcznika ontologii, w którym wyróżnia się i klasyfikuje różne rodzaje bytów, ich cechy i relacje. Na ten moment zaproponowano już kilkadziesiąt standardów i klas tokenów. Na przykład, jeśli jednostka tokenizo­wanej rzeczy jest równa innej jednostce tej rzeczy, jak dzieje się w przypadku pieniędzy, zazwyczaj proponuje się tokeny wymienne według standardu ERC-20. Jednak większość cennych dla nas dóbr ma charakter indywidualny i warto tokenizować je w standardzie NFT (Non-Fungible Tokens) – tokenów unikatowych (standard ERC-721).

Granice tokenizacji i granice świata maszyn

Jednym z kluczowych powodów dominacji ludzi na planecie Ziemia jest jedynie ludzka umiejętność tworzenia abstrakcyjnych pojęć i narracji, które w elastyczny sposób pozwalają koordynować nasze zachowania i działania na bardzo dużą skalę. Tworząc nowe pojęcia, a następnie wiążąc je w reguły, które leżą u podłoża instytucji, jesteśmy w stanie wpływać na życie milionów ludzi, co w długiej perspektywie daje olbrzymie możliwości transformacji naszej planety. Digitalizacja rzeczywistości jest formą optymalizacji tego procesu. Wraz z siecią 3.0 i możliwością przenoszenia wartości do świata cyfrowego poprzez tokeny proces ten nabiera nowego tempa i znaczenia.

Jeśli przedstawiona analogia procesu tokenizacji do procesu two­rzenia pojęć jest trafna i jeśli zdamy sobie sprawę, że tworzony język tokenów stanowi podstawę transferu i przekształcania wartości nie tylko przez ludzi, lecz także maszyny i systemy komputerowe, które mogą wchodzić w interakcje z inteligentnymi kontraktami, to parafrazując Wittgensteina, powiedzieć można, że w sieci 3.0 „granice tokenizacji wyznaczają granice manipu­lacji” – granice automatyzacji i digitalizacji wartości. Dzięki tokenizacji powstaje nowy uniwersalny język scalający ludzi i maszyny. Tokenizacja, jako językotwórstwo i ontologia stosowana, zaczyna wprowadzać nowe kategorie bytów, umów oraz instytucji, które w pełni wykorzystują potencjał cyfrowego świata. Ta ontologiczna programistyczna inżynieria, zakorzeniona w technologii blockchain, może ułatwić zarówno komunikację, jak i współpracę na niespotykaną dotąd, globalną skalę, w której np. udziały w firmie lub prawo własności do nowoczesnego samochodu mogą być przekazane na drugi koniec świata przez wymianę tokenów w portfelu – tokenów, które mogą być reprezentowane w formie pięknego obrazka i mogą stanowić element prywatnej i transferowalnej galerii cyfrowych dóbr – kluczy do wartości realnego świata.

To, czy wizja ta zostanie zrealizowana i czy przyniesie więcej korzyści niż zagrożeń, zależy od powodzenia dalszego procesu tokenizacji oraz wielu decyzji społecznych, ekonomicznych i politycznych. Z perspektywy czysto technologicznej, dzięki blockchainowi, inteligentnym kontraktom i tokenom, mamy wszelkie narzędzia, aby móc realizować najbardziej śmiałe wizje digitalizacji rzeczywistości w bardzo wielu jej wymiarach. Dyskusja ta dopiero się otwiera i warto, aby również filo­zofowie brali w niej udział.


Warto doczytać:

  • L. Wittgenstein, Tractatus logico-philosophicus, tłum. B. Wolniewicz, Warszawa 2002.

Krzysztof Saja – dr hab., profesor Instytutu Filozofii i Kognitywistyki US, lider zespołów technologicznych, programista, filozof, członek Stowarzyszenia Ekspertów Blockchain i wykładowca studiów podyplomowych Blockchain: biznes, prawo, technologia na SGH.

Tekst jest dostępny na licencji: Uznanie autorstwa-Na tych samych warunkach 3.0 Polska.
W pełnej wersji graficznej jest dostępny w pliku PDF.

< Powrót do spisu treści numeru.

Ilustracja: Małgorzata Uglik

 

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2024 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Skomentuj

Kliknij, aby skomentować

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy