Edukacja filozoficzna Próby filozoficzne

Igor Skórzybót: Alfabet ludzkich myśli

„Alfabet ludzkich myśli” jest konceptem stworzonym przez Gottfrieda Leibniza. Według Couturata był to rodzaj „algebry myślenia”, zakładającej istnienie elementarnych pojęć dla wszystkich języków.

Zapisz się do naszego newslettera

Obec­nie, po upły­wie kilkuset lat, ling­wisty­ka może badać znacznie więk­szą ilość języków. Wciąż udoskon­alany jest nat­u­ral­ny meta­język seman­ty­czny, który obe­j­mu­je te indefini­bil­ia. Głównym filarem ling­wisty­cznych kon­cepcji Leib­niza było jed­nakowoż tworze­nie char­ac­ter­is­ti­ca uni­ver­salis, czyli pod­sta­wowego języ­ka mogącego opisy­wać wszelkie zagad­nienia matem­aty­czne, fizy­czne i metafizy­czne. Wielu naukow­ców, zwłaszcza fizyków, uważa dziś sym­bole logi­ki matem­aty­cznej i teorii mno­goś­ci za pod­sta­wowe zna­ki „alfa­betu ludz­kich myśli”; ich marze­niem jest sprowadze­nie języków wszys­t­kich nauk do jed­nego pod­sta­wowego char­ac­ter­is­ti­ca uni­ver­salis. I to marze­nie jest wciąż niespełnione.

Leib­niz jako ling­wista

Ważne dla tej pra­cy będzie wykazanie, że XVII- i XVI­II-wiecz­na ling­wisty­ka różni się znaczą­co od ling­wisty­ki dzisiejszej. Nie chodzi tu jedynie o rozwój metod, zwłaszcza statysty­ki, lecz głównie o kon­tekst społeczny tam­tych cza­sów. Ówczes­ny europocen­tryzm, przeko­nanie o wyżs­zoś­ci okcy­den­tu nad cywiliza­c­ja­mi nieeu­rope­jski­mi, wpły­wał na naukę. Prowad­zono wprawdzie bada­nia na tem­at języków innych grup etnicznych, ling­wiś­ci sku­pi­ali się jed­nakże przede wszys­tkim na językach z grupy indoeu­rope­jskiej. Już w roku 1603 Ludovi­ca Bertoni wydał dzieło Arte de la lengua aymara, gdzie podzi­wiał język aymara – uży­wany do dziś w częś­ci­ach Peru i Boli­wii – jako nieby­wale gięt­ki i wital­ny, mogą­cy z łat­woś­cią wyrażać abstrakc­je; sam Leib­niz zresztą był zafas­cynowany mno­goś­cią języków nat­u­ral­nych.

Got­tfried Leib­niz, jako wybit­ny matem­atyk, był zafas­cynowany kom­bi­na­to­ryką, konkret­niej iloś­cią możli­wych prawd (lub nieprawd) dają­cych się wyraz­ić w języku złożonym z dwudziestocztero­literowego alfa­betu – była to licz­ba 243 650 000 000 001–24/23. Wych­walał także babelizm i uważał za niemożli­wy powrót do języ­ka pier­wot­nego (adamowego) ani jego iden­ty­fikację. Niem­niej zaskaku­jące może być to, dlaczego człowiek, którego ontolo­gia była mon­adologią zain­tere­sował się stworze­niem języ­ka uni­w­er­sal­nego. „Podob­nie jak mias­to z różnych stron oglą­dane wyda­je się coraz to inne i stanowi jak­by zwielokrot­niony per­spek­ty­wicznie widok, tak dzię­ki nieskońc­zonej mno­goś­ci sub­stancji prostych tyle samo jest jak­by roz­maitych wszechświatów, które są wsze­lako widoka­mi tego samego wszechświa­ta odpowiada­ją­cy­mi roz­maitym punk­tom widzenia każdej mon­ady”, pisał Leib­niz. Trze­ba pamię­tać, że był on także irenistą, bywał na dworach, zaj­mował się dyplo­macją. Uważał, że stworze­nie jed­nego języ­ka mogło­by przy­wró­cić pokój w Europie.

Pro­gram Leib­niza real­i­zowany przez całe jego życie miał za zadanie:

1)    znalezie­nie indefini­bil­iów – pojęć pier­wot­nych, charak­terysty­cznych dla wszys­t­kich języków;

2)    stworze­nie gra­maty­ki ide­al­nej;

3)    stworze­nie uni­w­er­sal­nych reguł wymowy znaków;

4)    opra­cow­anie słown­ict­wa znaków, z których moż­na by za pomocą rachunków (podob­nych do tych uży­wanych przez matem­atyków) for­mułować prawdzi­we wypowiedzi.

Umber­to Eco zauważa, że „istot­ny wkład Leib­niza zaw­iera się w czwartym punkcie pro­jek­tu, co potwierdza zarazem ta okoliczność, że zaprzes­tał on w końcu prób real­iza­cji trzech pozostałych”. Sam „alfa­bet ludz­kich myśli” miał być narzędziem, dzię­ki które­mu myśl została­by wzmoc­niona, tak jak wzrok dzię­ki teleskopowi. Wari­ac­je liter danego alfa­betu i anal­iza słów z nich utwor­zonych pozwalały­by na ocenę i odkrycie wszel­kich rzeczy. Aby to było możli­we, wszys­tkie nau­ki musi­ały­by dać się sprowadzać do jedynego języ­ka.

Próby stworzenia języka uniwersalnego

Do XVI wieku pró­by tworzenia języków sztucznych były związane nieroz­er­wal­nie z mistyką (m. in. kabała) oraz religią. Opier­ały się na pró­bie odnalezienia „języ­ka adamowego”, a hipotezy doty­czące takowego, mało miały wspól­nego z nauką, były raczej np. nacjon­al­isty­czne.

Rezul­tat tych prac moż­na streś­cić cytatem z Sal­im­bene z Parmy:

[Fry­deryk II] zaprag­nął sprawdz­ić, jakim językiem przemówiły­by, osią­ga­jąc wiek młodzieńczy, dzieci, którym nie dane było wcześniej z nikim roz­maw­iać. Nakazał prze­to niańkom i mamkom karmić je […], a zakazał do nich prze­maw­iać. Chci­ał bowiem dowiedzieć się, czy mówiły­by językiem hebra­jskim, który był pier­wszy, czy greckim, łacińskim, a może arab­skim, o ile nie mówiły­by językiem rodz­iców, z których się poczęły. Trudz­ił się jed­nak na próżno, albowiem tak niemowlę­ta, jak i podrost­ki wszys­tkie pomarły”.

XVI wieku pojaw­iły się pier­wsze pro­gramy „języków filo­zoficznych” mają­cych na celu wye­lim­i­nowanie Baconows­kich idoli z języ­ka – leib­niz­jańs­ki wyda­je się najbardziej zaawan­sowany. Dopiero od XVIII wieku zaczęły pow­stawać tzw. „między­nar­o­dowe języ­ki pomoc­nicze” – sztuczne języ­ki aspiru­jące do miana uni­w­er­sal­nych, czer­piące z wielu języków, stwor­zone, aby wszyscy ludzie mogli nimi mówić.

Według Umber­to Eco pod­sta­wową zaletą języ­ka ang­iel­skiego jako lin­gua fran­ca jest to, że moż­na w nim mówić błęd­nie. W takim razie jest w nim coś wspól­nego dla więk­szoś­ci, jeśli nie wszys­t­kich, kul­tur. Ale nie o to prze­cież chodz­iło Leib­ni­zowi. Ang­iel­s­ki jest zwykłym językiem nat­u­ral­nym, nie „alfa­betem ludz­kich myśli”.

Pró­by stworzenia języków sztucznych opier­ały się na zupełnie innych filo­zofi­ach niż leib­niz­jańs­ka, choć zazwyczaj starały się spełnić pier­wsze trzy jej punk­ty. Najbardziej znanym praw­dopodob­nie jest esperan­to.

Z ciekawszych języków sztucznych warto wymienić lożban i toki pona. Ten pier­wszy jest językiem opar­tym na predykat­ach, o bard­zo prostej gra­matyce. Z założe­nia ma być jed­nak neu­tral­ny kul­tur­owo. Bliższy „alge­brze myśli” wyda­je się sztuczny język toki pona (w toki pona oznacza to zarówno „prosty język”, jak i „dobry język”). Po raz pier­wszy zaprezen­towany w roku 2001, również w celu udowod­nienia hipotezy Sapi­ra-Whor­fa, według autor­ki Son­ji Lang jest zain­spirowany filo­zofią taoisty­czną – słowa „prosty” i „dobry” jest w nim wyrażane jed­nym wyrazem „pona”. Choć nie został stwor­zony jako pomoc­niczy język między­nar­o­dowy, a za jego pomocą nie da opisy­wać się pojęć naukowych, może przy­pom­i­nać nieco ory­gi­nal­ny pomysł Leib­niza. Alfa­bet toki pona skła­da się z dziewię­ciu spółgłosek i pię­ciu samogłosek o ustalonych regułach wymowy. Gra­maty­ka jest bard­zo pros­ta, może aspirować do miana ide­al­nej, jeśli za kry­teri­um oce­ny przyjmiemy właśnie pros­totę. Podob­nie jak w esperan­to, dłuższe wyraże­nia tworzy się, łącząc kil­ka słów (np. „jan pona” – dosłown­ie „dobry człowiek” – oznacza przy­ja­ciel); jed­nak w odróżnie­niu od esperan­to baza słów jest zamknię­ta, jest ich około stu dwudzi­es­tu, twor­zonych na pod­staw­ie różnych języków nat­u­ral­nych. Przez to w języku tym jest wiele dwuz­nacznoś­ci (np. „telo pima­je wawa” – „moc­na ciem­na ciecz” – może oznaczać zarówno kawę, jak i ropę naftową). Poza tym oczy­wistym jest, że i ten język nie poma­ga w for­mowa­niu prawdzi­wych sądów, o co chodz­iło Leib­ni­zowi.

Wiele jest języków sztucznych aspiru­ją­cych (bądź nie) do miana lin­gua fran­ca, dają­cych się (bądź nie) sprowadz­ić do zbioru ele­men­tarnych pojęć, prymi­ty­wów (tych z kolei czer­pa­nych z języków nat­u­ral­nych, indoeu­rope­js­kich bądź też innych, na pod­staw­ie badań ling­wisty­cznych bądź sztucznych, wymyślonych), jed­nak żaden z nich nie może opisy­wać wszys­t­kich nauk. Jedynym punk­tem z pro­gra­mu Leib­niza, jaki speł­ni­a­ją, jest wymowa znaków, ale w związku ze słabym rozpowszech­nie­niem języków sztucznych jest to marne pociesze­nie. Ling­wisty­ka zresztą znalazła lep­szy sposób na wyo­dręb­ni­an­ie indefini­bil­iów.

Naturalny metajęzyk semantyczny

Leib­niz zdawał sobie sprawę, że klasy­fikac­ja Wszechświa­ta, tzw. podzi­ał kat­e­go­ri­al­ny, jest rzeczą niemożli­wą, gdyż nieo­biek­ty­wną, auto­ry­taty­wnie ustaloną, opartą na domysłach. To jeden z prob­lemów, który nie pozwalał na stworze­nie sztucznego języ­ka pełnego i spójnego. Podob­nie było z iden­ty­fikowaniem indefini­bil­iów. Mimo iż Boole (w Inves­ti­ga­tion on the Laws of Thought) zauważył, że nie­zlic­zone ludzkie języ­ki zdołały zachować przez wie­ki tak wiele cech wspól­nych, dopiero po upły­wie pon­ad trzys­tu lat od śmier­ci Leib­niza Andrzej Bogusławs­ki (na wykładzie „O założe­ni­ach seman­ty­ki” wygłos­zonym na Uni­w­er­syte­cie Warsza­wskim w roku 1964) stwierdz­ił, że narzędzia ling­wisty­czne pozwala­ją już na znalezie­nie owych najprost­szych ele­men­tów wspól­nych dla każdego języ­ka. Tak oto nar­o­dz­ił się nat­u­ral­ny meta­język seman­ty­czny (NSMnat­ur­al seman­tic meta­lan­guage). Anna Wierzbic­ka, jego głów­na twór­czyni, początkowo skupiła się na językach indoeu­rope­js­kich, wyo­dręb­ni­a­jąc dla nich – w pra­cy Seman­tic prim­i­tives z roku 1972 – 14 wyrazów wspól­nych. Późniejsze bada­nia, prowad­zone na dużą skalę przez między­nar­o­dowy zespół badaczy (między inny­mi Clif­fa God­dar­da) zajęły się więk­szą iloś­cią języków. Obec­nie licz­ba tych słów to nieco pon­ad 60. Pro­gram ten wciąż jest udoskon­alany, trwa anal­iza danych językowych spły­wa­ją­cych z całego świa­ta, aczkol­wiek Wierzbic­ka mówi, iż więcej indefini­bil­iów praw­dopodob­nie już nie zna­jdziemy.

Moż­na nie zgadzać się z teza­mi Wierzbick­iej, jako­by NSM był bard­zo znaczą­cym narzędziem, które moż­na stosować w psy­chologii, etyce i „gdziekol­wiek indziej” (NSM jest tu narzędziem „inwazji” ling­wisty­ki na inne dziedziny – wiz­ja Wierzbick­iej różni się więc od Chomsky’ego, zain­tere­sowanego również inny­mi dyscy­plina­mi). Metodolo­gia wyo­dręb­ni­a­nia indefini­bil­iów jest jed­nak na tyle dobra (w sen­sie: uznana przez społeczność naukową, wykładana na uni­w­er­syte­tach), że NSM moż­na uznać za spełnie­nie pier­wszego punk­tu pro­gra­mu Leib­niza.

Ale czy ktokol­wiek może powiedzieć, że nat­u­ral­ny meta­język seman­ty­czny satys­fakcjonował­by go w całoś­ci? Zapewne pro­gram badaw­czy bard­zo by mu się podobał, tak samo jak hipotezy staw­iane przez Wierzbicką doty­czące zas­tosowa­nia NSM w innych naukach. Jed­nak NSM nie jest narzędziem, za pomocą którego może­my odkry­wać prawdę o Wszechświecie; Leib­niz poszuki­wał char­ac­ter­is­ti­ca uni­ver­salisjedynego języ­ka umożli­wia­jącego oce­ni­an­ie poprawnoś­ci rozu­mowań na pod­staw­ie samego zapisu na wzór aryt­mety­ki i geometrii, pozwala­jącego wyrażać prawdy na tem­at nau­ki: matem­aty­ki, fizy­ki, nauk przy­rod­niczych, metafizy­ki. Dlaczego nie udało się to ani twór­com języków sztucznych, ani badac­zom uczest­niczą­cym w pro­gramie nat­u­ral­nego meta­języ­ka seman­ty­cznego (choć ci niewąt­pli­wie, wyo­dręb­ni­a­jąc indefini­bil­ia, spełnili pier­wsze z punk­tów pro­gra­mu Leib­niza)? Powo­dem tego nie jest wsza­kże natu­ra języ­ka. Nau­ki nie są bowiem na tyle zunifikowane, aby za pomocą samego tylko wspól­nego języ­ka wyrażać prawdy na tem­at Wszechświa­ta.

Języ­ki apos­te­ri­o­ryczne nie poma­ga­ją zatem w stworze­niu char­ac­ter­is­ti­ca uni­ver­salis. Po głęb­szym zas­tanowie­niu się moż­na jed­nak stwierdz­ić, że wyni­ka to z samej definicji. Nawet jeśli język był­by zrozu­mi­ały dla wszys­t­kich ludzi, to nie wyni­ka z tego, że pomoże on w porozu­miewa­niu się z cywiliza­cją kos­miczną czy też, bardziej proza­icznie, z maszy­na­mi. Przymiotnik „ludzkie” w „alfabecie ludz­kich myśli” to ozna­ka daleko posuniętego antropocen­tryz­mu.

Zde­cy­dowanie lep­szy był­by więc język apri­o­ryczny. Leib­niz wspom­i­na o dzi­ałal­noś­ci logików. Może to w tej dziedzinie należy szukać alfa­betu ludz­kich myśli?

Principia mathematica

Z nurtów filo­zofii matem­aty­ki pow­stałych przed XIX wiekiem intere­sować nas będzie wyłącznie real­izm, uza­leż­ni­a­ją­cy ist­nie­nie obiek­tów matem­aty­cznych jedynie od ich wewnętrznej niesprzecznoś­ci (obec­nie w matem­aty­cznym sporze o uni­w­er­salia współczesne formy real­iz­mu konku­ru­ją z kon­struk­ty­wiz­mem, który uzna­je ist­nie­nie obiek­tów matem­aty­cznych wtedy i tylko wtedy, gdy są one kon­struowalne). Matem­aty­ka ma też olbrzy­mi wpływ na teorie fizy­czne. Więcej słów o tym powiem w kole­jnym para­grafie.

XIX wieku pow­stały nowe nur­ty: wspom­ni­any kon­struk­ty­wizm, for­mal­izm oraz log­i­cyzm. Nas intere­sować będzie szczegól­nie ten ostat­ni. Stan­fordz­ka Encyk­lo­pe­dia Filo­zofii poda­je, że pier­wsze ozna­ki log­i­cyz­mu moż­na zobaczyć już u Leib­niza, aczkol­wiek nie zna­jdziemy tu na ten tem­at więcej szczegółów. Szczegól­nie  czwarty punkt pro­gra­mu Leib­niza zbliżony jest do log­i­cyz­mu (co nie powin­no dzi­wić, gdyż jak wspom­ni­ano, Leib­niz podzi­wiał prace logików).

Log­i­cyzm to kierunek filo­zofii matem­aty­ki zakłada­ją­cy, że jej pod­stawy moż­na oprzeć na bazie log­icznego rachunku zdań. Według log­i­cys­tów matem­aty­ka może zostać sprowad­zona do szczegól­nego rodza­ju for­mal­nej teorii log­icznej, wyprowadza­jącej anal­i­ty­cznie wnios­ki (imple­men­tu­jąc aksjo­maty) z pewnego zestawu definicji.

Na przełomie XIXXX wieku dokon­ała się rewoluc­ja w log­ice, głównie za sprawą Got­t­lo­ba Fregego i Giuseppe Peano. Przed wydaniem Begriff­ss­chrift Fregego, zaw­ier­a­jącego zaląż­ki logi­ki predykatów stop­nia drugiego, najważniejszą teorią log­iczną była wciąż liczą­ca sobie pon­ad dwa tysiące lat syl­o­gisty­ka Arys­tote­le­sa. Już aksjo­maty­ka liczb nat­u­ral­nych Peano opar­ta na prawach logi­ki wpłynęła na rozwój log­i­cyz­mu. Frege oparł na log­ice całą aryt­metykę. Głównym dziełem w tej dziedzinie jest jed­nak niedokońc­zone (planowane na cztery tomy, wydano trzy) Prin­cip­ia Math­e­mat­i­ca Bertran­da Rus­sel­la i Alfre­da N. White­hea­da. Autorzy przede wszys­tkim stworzyli spójną teorię rachunku elimin­u­jącą (dzię­ki teorii typów) prob­le­my pod­staw matem­aty­ki, głównie antynomii klas samozwrot­nych (zwaną także „paradok­sem Rus­sel­la”). Prob­le­mem okaza­ło się jed­nak sprowadze­nie matem­aty­ki do samej logi­ki. Konieczny do dowodzenia matem­aty­cznego, poza aksjo­mata­mi logi­ki, okazał się aksjo­mat nieskońc­zonoś­ci oraz aksjo­mat wyboru. Rus­sell i White­head nie chcieli ich włączyć do swo­jego sys­te­mu, ponieważ pos­tu­lowały ist­nie­nie pewnego typu obiek­tów bez instrukcji, jak je skon­struować. Log­i­cyzm więc nie pow­iódł się, ale autorom Prin­cip­ia Math­e­mat­i­ca udało się sprowadz­ić (wraz z kon­tynu­a­tora­mi ich myśli) matem­atykę do logi­ki i teorii mno­goś­ci, tworząc przy tym język (pozbaw­iony seman­ty­ki), który przy­na­jm­niej częś­ciowo mógł­by satys­fakcjonować Leib­niza. Owszem, jest on trud­ny, trud­niejszy niż pos­tu­lowane char­ac­ter­is­ti­ca uni­ver­salis, ale wspólne dla wszys­t­kich dziedzin nau­ki jest to, że ich współczesne teorie moż­na uznać za „trud­niejsze w odbiorze” dla oso­by niebędącej spec­jal­istą, niż było to w początkach cza­sów nowożyt­nych – jest to pewnego rodza­ju odwróce­nie tren­du, bowiem Matem­aty­czne zasady filo­zofii przy­rody New­tona czy inne dzieła tam­tych cza­sów są „prost­sze” niż metafizy­czne, tele­o­log­iczne rozważa­nia scholastyków śred­niowiecznych.

Fizyczny imperializm

Helge Kragh nazy­wa fizy­cznym impe­ri­al­izmem charak­terysty­czny dla wielu fizyków, m.in. Tiplera, pogląd, iż wszys­tkie nau­ki – przy­rod­nicze oraz społeczne – moż­na sprowadz­ić do fizy­ki. Tipler ujął to naj­moc­niej: „Inwaz­ja na inne dyscy­pliny jest nie­u­nikniona, a w rzeczy samej postęp w nauce moż­na mierzyć zakre­sem pod­bo­ju innych dyscy­plin przez fizykę”, aczkol­wiek redukcjonizm doty­czą­cy sprowadza­nia nauk do fizy­ki jest dość starą kwest­ią. „Teorie wszys­tkiego” twor­zone przez Kartezjusza czy Boskovi­ca, czy też hipoteza eteru, niezwyk­le pop­u­lar­na wśród XIX-wiecznych fizyków, moż­na uznać za pró­by opar­cia nau­ki na fun­da­men­tach pod­sta­wowej teorii fizy­cznej. Z całą pewnoś­cią moż­na już powiedzieć, że tak wybit­ni fizy­cy początków dwudzi­estego wieku jak Bohr, Born czy Som­mer­feld uważali, że chemia jest jedynie stosowaną fizyką kwan­tową.

Impe­ri­al­izm fizy­czny jest czymś zupełnie innym niż zwykłe mieszanie się poszczegól­nych dyscy­plin. Nan­cy Cartwright twierdzi, iż prawa chemii i biologii nie pochodzą z fizy­ki, ale wszys­tkie znakomi­cie się dopeł­ni­a­ją. W impe­ri­al­izmie fizy­cznym chodzi o bezpod­stawne przeko­nanie o wyżs­zoś­ci włas­nej dziedziny, uzur­powanie jej prawa do bycia tą najważniejszą, z której wywodzą się inne.

Wydawać by się mogło, że brak wiel­kich postępów w tworze­niu „teorii wszys­tkiego” w ostat­nich lat­ach mógł­by osłabić fizy­czny impe­ri­al­izm. Jest jed­nak wręcz prze­ci­wnie. Należy wspom­nieć Rogera Penrose’a. Ten wybit­ny matem­atyk i fizyk staw­ia w książkach Nowy umysł cesarza oraz Cie­nie umysłu odważne hipotezy doty­czące kwestii umysłu i samoświado­moś­ci pomi­mo tego, że nie jest spec­jal­istą w tych dziedz­i­nach. Uży­wa do tego fizy­ki (co praw­da w dużej mierze „nowej fizy­ki” – niekoniecznie już odkry­tej), a już samo to jest oznaką impe­ri­al­iz­mu. Ważniejsze są jed­nak jego wielokrot­nie wygłaszane (choć­by w wykładzie w Cen­trum Nau­ki Kopernik w listopadzie 2015 roku) rozważa­nia, dlaczego te kon­cepc­je są kon­trow­er­syjne. Więk­szość naukow­ców (z racji pro­fesji Pen­rose odnosi się w więk­szoś­ci do fizyków) twierdzi, iż „mózg jest kom­put­erem”. Dzi­ałanie kom­put­era jest w pełni wyjaś­ni­ane przez fizykę, co stwarza jej łatwą drogę do pod­bo­ju kole­jnych dziedzin – głównie psy­chologii, a pośred­nio, przez neu­rosocjologię, neu­ropoli­tologię, neu­ro­filo­zofię, także nauk społecznych, a nawet filo­zofii, z której, chcąc nie chcąc, fizy­ka się wywodzi i w której, co zaraz postaram się udowod­nić, wciąż tkwi.

Teo­ria strun”, głów­na kandy­dat­ka na teorię wszys­tkiego, nie daje żad­nych przewidy­wań – tez dają­cych się zwery­fikować empirycznie. Jest więc co najwyżej hipotezą. Wpłynęła zde­cy­dowanie bardziej na rozwój matem­aty­ki niż fizy­ki, co nie powin­no dzi­wić, doty­czy bowiem jedynie bard­zo skom­p­likowanego mech­a­niz­mu matem­aty­cznego, którego twór­cy uzur­pu­ją sobie pra­wo do wyjaś­ni­a­nia natu­ry Wszechświa­ta (jak już wspom­ni­ano, nie tylko fizy­ki). Sam pomysł, żeby była ona „teorią wszys­tkiego” – teorią wielkiej unifikacji wszel­kich sił fizy­cznych – pojaw­ił się niespodziewanie. Powin­no się myśleć o nim z uwzględ­nie­niem panu­jącego wtedy przeko­na­nia o „końcu his­torii”. W społeczeńst­wie zachod­nim domi­nowało przeświad­cze­nie o tri­um­fie ekonomii lib­er­al­nej, która miała wyjaśnić wszys­tko. Podob­nie myślano o demokracji lib­er­al­nej; dlaczego więc nie miano by myśleć w ten sposób o fizyce? Nur­ty te zostały negaty­wnie zwery­fikowane przez prob­le­my na świecie, że wymienię tylko takie oczy­wis­toś­ci jak tzw. głód struk­tu­ral­ny czy zmi­any kli­maty­czne; struny pozosta­ją za to jed­nym z najpop­u­larniejszych obszarów badań na wydzi­ałach i w insty­tu­tach fizy­ki.

Leonard Susskind odrzu­ca ata­ki na niefal­sy­fikowal­ność „teorii strun”, prosząc o „zostaw­ie­nie nau­ki naukow­com”; nie zna przy tym prac Pop­pera, który nie wyma­gał od teorii fal­sy­fikowal­noś­ci na każdym etapie przy­go­towań. Prob­lem, jaki zauważa­ją filo­zo­fowie nau­ki, socjol­o­gowie nau­ki, a także spo­ra część naukow­ców brz­mi: „jak dłu­go musimy czekać?”. Czy czter­dzieś­ci lat od stworzenia pod­staw „teorii strun” to nie za dłu­go, aby fizy­cy dalej nad nią pra­cow­ali? Czy nie powin­ni jej porzu­cić, może zostaw­ić matem­atykom? Trze­ba też zauważyć, choć jest to tem­at na inną pracę, iż przyj­mowanie „teorii strun” jako teorii naukowej może stworzyć niebez­pieczny prece­dens uznawa­nia za naukowe innych nieda­ją­cych żad­nych przewidy­wań samozwańczych „teorii”, wszelkiego rodza­ju paranauk, jak np. psy­cholo­gia kwan­towa, a także dawać argu­men­ty pseudonauce, jak na przykład denial­is­tom kli­maty­cznym (odrzu­ca­ją­cym – wbrew stanowisku nau­ki – antro­pogeniczność zmi­an kli­matu przy jed­noczes­nym powoły­wa­niu się na dawno odrzu­cone hipotezy, jak np. wpływ dzi­ałal­noś­ci Słoń­ca na ostat­nie ocieple­nie).

Moż­na powiedzieć, że „teo­ria strun” – jako niefal­sy­fikowal­na oraz niew­ery­fikowal­na – nie należy ani do fizy­ki, ani w ogóle do współczes­nej nau­ki. Dlaczego zatem, mimo upad­ku towarzyszą­cych jej nurtów społecznych, hipoteza strun pozosta­je tak bard­zo pop­u­larnym dzi­ałem badań w insty­tu­tach fizy­ki?

Odpowiedź brz­mi: ponieważ jest ona nową metafizyką – metafizyką matem­aty­czną.

Nie ule­ga wąt­pli­woś­ci, że kon­cepc­je matem­aty­czne miały już od początku XX wieku olbrzy­mi wpływ na fizykę, poma­ga­jąc – częs­to w zaskaku­ją­cy sposób – zrozu­mieć prawa przy­rody; jed­nak ostat­nie słowo zawsze należało tu do nauk empirycznych. Pon­ad­to: jed­nym z wcześniejszych poglądów na filo­zofię matem­aty­ki był pla­tonizm, mówią­cy o tym, że idee matem­aty­czne ist­nieją w odd­ziel­nym świecie (przez Penrose’a nazwanym „pla­tońskim światem idei matem­aty­cznych”). Pla­tonizm jest radykalną wer­sją real­iz­mu w filo­zofii matem­aty­ki. Fizy­cy i matem­aty­cy od daw­na uzna­ją wpływ przy­na­jm­niej częś­ci z nich na świat real­ny – być może jedynie w związku z niezwyk­le rozległym zas­tosowaniem teorii matem­aty­cznych w fizyce, być może ze względów metafizy­cznych. Według Penrose’a pogląd ten domin­u­je wśród matem­atyków i fizyków. Obec­nie jed­nak wielu fizyków decy­du­je się uznać pewne wyjaśnie­nie świa­ta za wielce praw­dopodob­ne jedynie dlat­ego, że jest on doskon­ałym mech­a­nizmem matem­aty­cznym. Matem­aty­ka pod­biła fizykę, która chci­ała dokon­ać tego samego z inny­mi dziedz­i­na­mi (przy okazji tworząc jedyną akcep­towal­ną przez XXI-wieczne środowisko naukowe metafizykę). Matem­aty­ka, która jak wykazano w Prin­cip­ia Math­e­mat­i­ca, da się sprowadz­ić do logi­ki i teorii mno­goś­ci.

Podsumowanie

Spełnie­nie marzenia wielu fizyków – prawdzi­wość teorii strun i inwaz­ja fizy­ki na inne dziedziny – oznacza­ła­by spełnie­nie marzenia Leib­niza, prag­nienia stworzenia prostego języ­ka, którym najlepiej opisać prawa nau­ki: matem­aty­ki, fizy­ki, nauk przy­rod­niczych, a także metafizy­ki. Językiem tym była­by logi­ka matem­aty­cz­na i teo­ria mno­goś­ci. Jak skom­p­likowana nie była­by ta dyscy­plina, dostar­cza ona prostych sym­boli, z których moż­na ułożyć wiele, a być może wszys­tko. Marze­nie to jest jed­nak nadal niespełnione.

Z drugiej strony, trud­no było­by wyobraz­ić sobie fizykę nieop­artą na matem­atyce, która ma także coraz więk­sze znacze­nie w biologii, a także w naukach społecznych. To marze­nie może się spełnić, nawet jeśli porzucimy fizy­czny impe­ri­al­izm, a nie odrzucimy Pop­pera. Śmiem pode­jrze­wać więc, że ta idea jest mniej utopi­j­na niż idee Zamen­ho­fa.


Igor Skórzy­bót – trzykrot­ny uczest­nik finału OF, absol­went I Liceum Ogól­nok­sz­tałcącego w Lęborku, od niedaw­na stu­dent kog­ni­ty­wisty­ki i pub­l­i­cys­ta „Osiem Dziewięć”, poza swoim kierunk­iem studiów zain­tere­sowany głównie filo­zofią i socjologią nau­ki.

 

 

autor ilus­tracji: bau­r­ka

Najnowszy numer można nabyć od 3 września w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2020 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy