Edukacja filozoficzna Próby filozoficzne

Igor Skórzybót: Alfabet ludzkich myśli

„Alfabet ludzkich myśli” jest konceptem stworzonym przez Gottfrieda Leibniza. Według Couturata był to rodzaj „algebry myślenia”, zakładającej istnienie elementarnych pojęć dla wszystkich języków.

Obec­nie, po upły­wie kilkuset lat, ling­wisty­ka może badać znacznie więk­szą ilość języków. Wciąż udoskon­alany jest nat­u­ral­ny meta­język seman­ty­czny, który obe­j­mu­je te indefini­bil­ia. Głównym filarem ling­wisty­cznych kon­cepcji Leib­niza było jed­nakowoż tworze­nie char­ac­ter­is­ti­ca uni­ver­salis, czyli pod­sta­wowego języ­ka mogącego opisy­wać wszelkie zagad­nienia matem­aty­czne, fizy­czne i metafizy­czne. Wielu naukow­ców, zwłaszcza fizyków, uważa dziś sym­bole logi­ki matem­aty­cznej i teorii mno­goś­ci za pod­sta­wowe zna­ki „alfa­betu ludz­kich myśli”; ich marze­niem jest sprowadze­nie języków wszys­t­kich nauk do jed­nego pod­sta­wowego char­ac­ter­is­ti­ca uni­ver­salis. I to marze­nie jest wciąż niespełnione.

Leib­niz jako ling­wista

Ważne dla tej pra­cy będzie wykazanie, że XVII- i XVI­II-wiecz­na ling­wisty­ka różni się znaczą­co od ling­wisty­ki dzisiejszej. Nie chodzi tu jedynie o rozwój metod, zwłaszcza statysty­ki, lecz głównie o kon­tekst społeczny tam­tych cza­sów. Ówczes­ny europocen­tryzm, przeko­nanie o wyżs­zoś­ci okcy­den­tu nad cywiliza­c­ja­mi nieeu­rope­jski­mi, wpły­wał na naukę. Prowad­zono wprawdzie bada­nia na tem­at języków innych grup etnicznych, ling­wiś­ci sku­pi­ali się jed­nakże przede wszys­tkim na językach z grupy indoeu­rope­jskiej. Już w roku 1603 Ludovi­ca Bertoni wydał dzieło Arte de la lengua aymara, gdzie podzi­wiał język aymara – uży­wany do dziś w częś­ci­ach Peru i Boli­wii – jako nieby­wale gięt­ki i wital­ny, mogą­cy z łat­woś­cią wyrażać abstrakc­je; sam Leib­niz zresztą był zafas­cynowany mno­goś­cią języków nat­u­ral­nych.

Got­tfried Leib­niz, jako wybit­ny matem­atyk, był zafas­cynowany kom­bi­na­to­ryką, konkret­niej iloś­cią możli­wych prawd (lub nieprawd) dają­cych się wyraz­ić w języku złożonym z dwudziestocztero­literowego alfa­betu – była to licz­ba 243 650 000 000 001–24/23. Wych­walał także babelizm i uważał za niemożli­wy powrót do języ­ka pier­wot­nego (adamowego) ani jego iden­ty­fikację. Niem­niej zaskaku­jące może być to, dlaczego człowiek, którego ontolo­gia była mon­adologią zain­tere­sował się stworze­niem języ­ka uni­w­er­sal­nego. „Podob­nie jak mias­to z różnych stron oglą­dane wyda­je się coraz to inne i stanowi jak­by zwielokrot­niony per­spek­ty­wicznie widok, tak dzię­ki nieskońc­zonej mno­goś­ci sub­stancji prostych tyle samo jest jak­by roz­maitych wszechświatów, które są wsze­lako widoka­mi tego samego wszechświa­ta odpowiada­ją­cy­mi roz­maitym punk­tom widzenia każdej mon­ady”, pisał Leib­niz. Trze­ba pamię­tać, że był on także irenistą, bywał na dworach, zaj­mował się dyplo­macją. Uważał, że stworze­nie jed­nego języ­ka mogło­by przy­wró­cić pokój w Europie.

Pro­gram Leib­niza real­i­zowany przez całe jego życie miał za zadanie:

1)    znalezie­nie indefini­bil­iów – pojęć pier­wot­nych, charak­terysty­cznych dla wszys­t­kich języków;

2)    stworze­nie gra­maty­ki ide­al­nej;

3)    stworze­nie uni­w­er­sal­nych reguł wymowy znaków;

4)    opra­cow­anie słown­ict­wa znaków, z których moż­na by za pomocą rachunków (podob­nych do tych uży­wanych przez matem­atyków) for­mułować prawdzi­we wypowiedzi.

Umber­to Eco zauważa, że „istot­ny wkład Leib­niza zaw­iera się w czwartym punkcie pro­jek­tu, co potwierdza zarazem ta okoliczność, że zaprzes­tał on w końcu prób real­iza­cji trzech pozostałych”. Sam „alfa­bet ludz­kich myśli” miał być narzędziem, dzię­ki które­mu myśl została­by wzmoc­niona, tak jak wzrok dzię­ki teleskopowi. Wari­ac­je liter danego alfa­betu i anal­iza słów z nich utwor­zonych pozwalały­by na ocenę i odkrycie wszel­kich rzeczy. Aby to było możli­we, wszys­tkie nau­ki musi­ały­by dać się sprowadzać do jedynego języ­ka.

Próby stworzenia języka uniwersalnego

Do XVI wieku pró­by tworzenia języków sztucznych były związane nieroz­er­wal­nie z mistyką (m. in. kabała) oraz religią. Opier­ały się na pró­bie odnalezienia „języ­ka adamowego”, a hipotezy doty­czące takowego, mało miały wspól­nego z nauką, były raczej np. nacjon­al­isty­czne.

Rezul­tat tych prac moż­na streś­cić cytatem z Sal­im­bene z Parmy:

[Fry­deryk II] zaprag­nął sprawdz­ić, jakim językiem przemówiły­by, osią­ga­jąc wiek młodzieńczy, dzieci, którym nie dane było wcześniej z nikim roz­maw­iać. Nakazał prze­to niańkom i mamkom karmić je […], a zakazał do nich prze­maw­iać. Chci­ał bowiem dowiedzieć się, czy mówiły­by językiem hebra­jskim, który był pier­wszy, czy greckim, łacińskim, a może arab­skim, o ile nie mówiły­by językiem rodz­iców, z których się poczęły. Trudz­ił się jed­nak na próżno, albowiem tak niemowlę­ta, jak i podrost­ki wszys­tkie pomarły”.

XVI wieku pojaw­iły się pier­wsze pro­gramy „języków filo­zoficznych” mają­cych na celu wye­lim­i­nowanie Baconows­kich idoli z języ­ka – leib­niz­jańs­ki wyda­je się najbardziej zaawan­sowany. Dopiero od XVIII wieku zaczęły pow­stawać tzw. „między­nar­o­dowe języ­ki pomoc­nicze” – sztuczne języ­ki aspiru­jące do miana uni­w­er­sal­nych, czer­piące z wielu języków, stwor­zone, aby wszyscy ludzie mogli nimi mówić.

Według Umber­to Eco pod­sta­wową zaletą języ­ka ang­iel­skiego jako lin­gua fran­ca jest to, że moż­na w nim mówić błęd­nie. W takim razie jest w nim coś wspól­nego dla więk­szoś­ci, jeśli nie wszys­t­kich, kul­tur. Ale nie o to prze­cież chodz­iło Leib­ni­zowi. Ang­iel­s­ki jest zwykłym językiem nat­u­ral­nym, nie „alfa­betem ludz­kich myśli”.

Pró­by stworzenia języków sztucznych opier­ały się na zupełnie innych filo­zofi­ach niż leib­niz­jańs­ka, choć zazwyczaj starały się spełnić pier­wsze trzy jej punk­ty. Najbardziej znanym praw­dopodob­nie jest esperan­to.

Z ciekawszych języków sztucznych warto wymienić lożban i toki pona. Ten pier­wszy jest językiem opar­tym na predykat­ach, o bard­zo prostej gra­matyce. Z założe­nia ma być jed­nak neu­tral­ny kul­tur­owo. Bliższy „alge­brze myśli” wyda­je się sztuczny język toki pona (w toki pona oznacza to zarówno „prosty język”, jak i „dobry język”). Po raz pier­wszy zaprezen­towany w roku 2001, również w celu udowod­nienia hipotezy Sapi­ra-Whor­fa, według autor­ki Son­ji Lang jest zain­spirowany filo­zofią taoisty­czną – słowa „prosty” i „dobry” jest w nim wyrażane jed­nym wyrazem „pona”. Choć nie został stwor­zony jako pomoc­niczy język między­nar­o­dowy, a za jego pomocą nie da opisy­wać się pojęć naukowych, może przy­pom­i­nać nieco ory­gi­nal­ny pomysł Leib­niza. Alfa­bet toki pona skła­da się z dziewię­ciu spółgłosek i pię­ciu samogłosek o ustalonych regułach wymowy. Gra­maty­ka jest bard­zo pros­ta, może aspirować do miana ide­al­nej, jeśli za kry­teri­um oce­ny przyjmiemy właśnie pros­totę. Podob­nie jak w esperan­to, dłuższe wyraże­nia tworzy się, łącząc kil­ka słów (np. „jan pona” – dosłown­ie „dobry człowiek” – oznacza przy­ja­ciel); jed­nak w odróżnie­niu od esperan­to baza słów jest zamknię­ta, jest ich około stu dwudzi­es­tu, twor­zonych na pod­staw­ie różnych języków nat­u­ral­nych. Przez to w języku tym jest wiele dwuz­nacznoś­ci (np. „telo pima­je wawa” – „moc­na ciem­na ciecz” – może oznaczać zarówno kawę, jak i ropę naftową). Poza tym oczy­wistym jest, że i ten język nie poma­ga w for­mowa­niu prawdzi­wych sądów, o co chodz­iło Leib­ni­zowi.

Wiele jest języków sztucznych aspiru­ją­cych (bądź nie) do miana lin­gua fran­ca, dają­cych się (bądź nie) sprowadz­ić do zbioru ele­men­tarnych pojęć, prymi­ty­wów (tych z kolei czer­pa­nych z języków nat­u­ral­nych, indoeu­rope­js­kich bądź też innych, na pod­staw­ie badań ling­wisty­cznych bądź sztucznych, wymyślonych), jed­nak żaden z nich nie może opisy­wać wszys­t­kich nauk. Jedynym punk­tem z pro­gra­mu Leib­niza, jaki speł­ni­a­ją, jest wymowa znaków, ale w związku ze słabym rozpowszech­nie­niem języków sztucznych jest to marne pociesze­nie. Ling­wisty­ka zresztą znalazła lep­szy sposób na wyo­dręb­ni­an­ie indefini­bil­iów.

Naturalny metajęzyk semantyczny

Leib­niz zdawał sobie sprawę, że klasy­fikac­ja Wszechświa­ta, tzw. podzi­ał kat­e­go­ri­al­ny, jest rzeczą niemożli­wą, gdyż nieo­biek­ty­wną, auto­ry­taty­wnie ustaloną, opartą na domysłach. To jeden z prob­lemów, który nie pozwalał na stworze­nie sztucznego języ­ka pełnego i spójnego. Podob­nie było z iden­ty­fikowaniem indefini­bil­iów. Mimo iż Boole (w Inves­ti­ga­tion on the Laws of Thought) zauważył, że nie­zlic­zone ludzkie języ­ki zdołały zachować przez wie­ki tak wiele cech wspól­nych, dopiero po upły­wie pon­ad trzys­tu lat od śmier­ci Leib­niza Andrzej Bogusławs­ki (na wykładzie „O założe­ni­ach seman­ty­ki” wygłos­zonym na Uni­w­er­syte­cie Warsza­wskim w roku 1964) stwierdz­ił, że narzędzia ling­wisty­czne pozwala­ją już na znalezie­nie owych najprost­szych ele­men­tów wspól­nych dla każdego języ­ka. Tak oto nar­o­dz­ił się nat­u­ral­ny meta­język seman­ty­czny (NSMnat­ur­al seman­tic meta­lan­guage). Anna Wierzbic­ka, jego głów­na twór­czyni, początkowo skupiła się na językach indoeu­rope­js­kich, wyo­dręb­ni­a­jąc dla nich – w pra­cy Seman­tic prim­i­tives z roku 1972 – 14 wyrazów wspól­nych. Późniejsze bada­nia, prowad­zone na dużą skalę przez między­nar­o­dowy zespół badaczy (między inny­mi Clif­fa God­dar­da) zajęły się więk­szą iloś­cią języków. Obec­nie licz­ba tych słów to nieco pon­ad 60. Pro­gram ten wciąż jest udoskon­alany, trwa anal­iza danych językowych spły­wa­ją­cych z całego świa­ta, aczkol­wiek Wierzbic­ka mówi, iż więcej indefini­bil­iów praw­dopodob­nie już nie zna­jdziemy.

Moż­na nie zgadzać się z teza­mi Wierzbick­iej, jako­by NSM był bard­zo znaczą­cym narzędziem, które moż­na stosować w psy­chologii, etyce i „gdziekol­wiek indziej” (NSM jest tu narzędziem „inwazji” ling­wisty­ki na inne dziedziny – wiz­ja Wierzbick­iej różni się więc od Chomsky’ego, zain­tere­sowanego również inny­mi dyscy­plina­mi). Metodolo­gia wyo­dręb­ni­a­nia indefini­bil­iów jest jed­nak na tyle dobra (w sen­sie: uznana przez społeczność naukową, wykładana na uni­w­er­syte­tach), że NSM moż­na uznać za spełnie­nie pier­wszego punk­tu pro­gra­mu Leib­niza.

Ale czy ktokol­wiek może powiedzieć, że nat­u­ral­ny meta­język seman­ty­czny satys­fakcjonował­by go w całoś­ci? Zapewne pro­gram badaw­czy bard­zo by mu się podobał, tak samo jak hipotezy staw­iane przez Wierzbicką doty­czące zas­tosowa­nia NSM w innych naukach. Jed­nak NSM nie jest narzędziem, za pomocą którego może­my odkry­wać prawdę o Wszechświecie; Leib­niz poszuki­wał char­ac­ter­is­ti­ca uni­ver­salisjedynego języ­ka umożli­wia­jącego oce­ni­an­ie poprawnoś­ci rozu­mowań na pod­staw­ie samego zapisu na wzór aryt­mety­ki i geometrii, pozwala­jącego wyrażać prawdy na tem­at nau­ki: matem­aty­ki, fizy­ki, nauk przy­rod­niczych, metafizy­ki. Dlaczego nie udało się to ani twór­com języków sztucznych, ani badac­zom uczest­niczą­cym w pro­gramie nat­u­ral­nego meta­języ­ka seman­ty­cznego (choć ci niewąt­pli­wie, wyo­dręb­ni­a­jąc indefini­bil­ia, spełnili pier­wsze z punk­tów pro­gra­mu Leib­niza)? Powo­dem tego nie jest wsza­kże natu­ra języ­ka. Nau­ki nie są bowiem na tyle zunifikowane, aby za pomocą samego tylko wspól­nego języ­ka wyrażać prawdy na tem­at Wszechświa­ta.

Języ­ki apos­te­ri­o­ryczne nie poma­ga­ją zatem w stworze­niu char­ac­ter­is­ti­ca uni­ver­salis. Po głęb­szym zas­tanowie­niu się moż­na jed­nak stwierdz­ić, że wyni­ka to z samej definicji. Nawet jeśli język był­by zrozu­mi­ały dla wszys­t­kich ludzi, to nie wyni­ka z tego, że pomoże on w porozu­miewa­niu się z cywiliza­cją kos­miczną czy też, bardziej proza­icznie, z maszy­na­mi. Przymiotnik „ludzkie” w „alfabecie ludz­kich myśli” to ozna­ka daleko posuniętego antropocen­tryz­mu.

Zde­cy­dowanie lep­szy był­by więc język apri­o­ryczny. Leib­niz wspom­i­na o dzi­ałal­noś­ci logików. Może to w tej dziedzinie należy szukać alfa­betu ludz­kich myśli?

Principia mathematica

Z nurtów filo­zofii matem­aty­ki pow­stałych przed XIX wiekiem intere­sować nas będzie wyłącznie real­izm, uza­leż­ni­a­ją­cy ist­nie­nie obiek­tów matem­aty­cznych jedynie od ich wewnętrznej niesprzecznoś­ci (obec­nie w matem­aty­cznym sporze o uni­w­er­salia współczesne formy real­iz­mu konku­ru­ją z kon­struk­ty­wiz­mem, który uzna­je ist­nie­nie obiek­tów matem­aty­cznych wtedy i tylko wtedy, gdy są one kon­struowalne). Matem­aty­ka ma też olbrzy­mi wpływ na teorie fizy­czne. Więcej słów o tym powiem w kole­jnym para­grafie.

XIX wieku pow­stały nowe nur­ty: wspom­ni­any kon­struk­ty­wizm, for­mal­izm oraz log­i­cyzm. Nas intere­sować będzie szczegól­nie ten ostat­ni. Stan­fordz­ka Encyk­lo­pe­dia Filo­zofii poda­je, że pier­wsze ozna­ki log­i­cyz­mu moż­na zobaczyć już u Leib­niza, aczkol­wiek nie zna­jdziemy tu na ten tem­at więcej szczegółów. Szczegól­nie  czwarty punkt pro­gra­mu Leib­niza zbliżony jest do log­i­cyz­mu (co nie powin­no dzi­wić, gdyż jak wspom­ni­ano, Leib­niz podzi­wiał prace logików).

Log­i­cyzm to kierunek filo­zofii matem­aty­ki zakłada­ją­cy, że jej pod­stawy moż­na oprzeć na bazie log­icznego rachunku zdań. Według log­i­cys­tów matem­aty­ka może zostać sprowad­zona do szczegól­nego rodza­ju for­mal­nej teorii log­icznej, wyprowadza­jącej anal­i­ty­cznie wnios­ki (imple­men­tu­jąc aksjo­maty) z pewnego zestawu definicji.

Na przełomie XIXXX wieku dokon­ała się rewoluc­ja w log­ice, głównie za sprawą Got­t­lo­ba Fregego i Giuseppe Peano. Przed wydaniem Begriff­ss­chrift Fregego, zaw­ier­a­jącego zaląż­ki logi­ki predykatów stop­nia drugiego, najważniejszą teorią log­iczną była wciąż liczą­ca sobie pon­ad dwa tysiące lat syl­o­gisty­ka Arys­tote­le­sa. Już aksjo­maty­ka liczb nat­u­ral­nych Peano opar­ta na prawach logi­ki wpłynęła na rozwój log­i­cyz­mu. Frege oparł na log­ice całą aryt­metykę. Głównym dziełem w tej dziedzinie jest jed­nak niedokońc­zone (planowane na cztery tomy, wydano trzy) Prin­cip­ia Math­e­mat­i­ca Bertran­da Rus­sel­la i Alfre­da N. White­hea­da. Autorzy przede wszys­tkim stworzyli spójną teorię rachunku elimin­u­jącą (dzię­ki teorii typów) prob­le­my pod­staw matem­aty­ki, głównie antynomii klas samozwrot­nych (zwaną także „paradok­sem Rus­sel­la”). Prob­le­mem okaza­ło się jed­nak sprowadze­nie matem­aty­ki do samej logi­ki. Konieczny do dowodzenia matem­aty­cznego, poza aksjo­mata­mi logi­ki, okazał się aksjo­mat nieskońc­zonoś­ci oraz aksjo­mat wyboru. Rus­sell i White­head nie chcieli ich włączyć do swo­jego sys­te­mu, ponieważ pos­tu­lowały ist­nie­nie pewnego typu obiek­tów bez instrukcji, jak je skon­struować. Log­i­cyzm więc nie pow­iódł się, ale autorom Prin­cip­ia Math­e­mat­i­ca udało się sprowadz­ić (wraz z kon­tynu­a­tora­mi ich myśli) matem­atykę do logi­ki i teorii mno­goś­ci, tworząc przy tym język (pozbaw­iony seman­ty­ki), który przy­na­jm­niej częś­ciowo mógł­by satys­fakcjonować Leib­niza. Owszem, jest on trud­ny, trud­niejszy niż pos­tu­lowane char­ac­ter­is­ti­ca uni­ver­salis, ale wspólne dla wszys­t­kich dziedzin nau­ki jest to, że ich współczesne teorie moż­na uznać za „trud­niejsze w odbiorze” dla oso­by niebędącej spec­jal­istą, niż było to w początkach cza­sów nowożyt­nych – jest to pewnego rodza­ju odwróce­nie tren­du, bowiem Matem­aty­czne zasady filo­zofii przy­rody New­tona czy inne dzieła tam­tych cza­sów są „prost­sze” niż metafizy­czne, tele­o­log­iczne rozważa­nia scholastyków śred­niowiecznych.

Fizyczny imperializm

Helge Kragh nazy­wa fizy­cznym impe­ri­al­izmem charak­terysty­czny dla wielu fizyków, m.in. Tiplera, pogląd, iż wszys­tkie nau­ki – przy­rod­nicze oraz społeczne – moż­na sprowadz­ić do fizy­ki. Tipler ujął to naj­moc­niej: „Inwaz­ja na inne dyscy­pliny jest nie­u­nikniona, a w rzeczy samej postęp w nauce moż­na mierzyć zakre­sem pod­bo­ju innych dyscy­plin przez fizykę”, aczkol­wiek redukcjonizm doty­czą­cy sprowadza­nia nauk do fizy­ki jest dość starą kwest­ią. „Teorie wszys­tkiego” twor­zone przez Kartezjusza czy Boskovi­ca, czy też hipoteza eteru, niezwyk­le pop­u­lar­na wśród XIX-wiecznych fizyków, moż­na uznać za pró­by opar­cia nau­ki na fun­da­men­tach pod­sta­wowej teorii fizy­cznej. Z całą pewnoś­cią moż­na już powiedzieć, że tak wybit­ni fizy­cy początków dwudzi­estego wieku jak Bohr, Born czy Som­mer­feld uważali, że chemia jest jedynie stosowaną fizyką kwan­tową.

Impe­ri­al­izm fizy­czny jest czymś zupełnie innym niż zwykłe mieszanie się poszczegól­nych dyscy­plin. Nan­cy Cartwright twierdzi, iż prawa chemii i biologii nie pochodzą z fizy­ki, ale wszys­tkie znakomi­cie się dopeł­ni­a­ją. W impe­ri­al­izmie fizy­cznym chodzi o bezpod­stawne przeko­nanie o wyżs­zoś­ci włas­nej dziedziny, uzur­powanie jej prawa do bycia tą najważniejszą, z której wywodzą się inne.

Wydawać by się mogło, że brak wiel­kich postępów w tworze­niu „teorii wszys­tkiego” w ostat­nich lat­ach mógł­by osłabić fizy­czny impe­ri­al­izm. Jest jed­nak wręcz prze­ci­wnie. Należy wspom­nieć Rogera Penrose’a. Ten wybit­ny matem­atyk i fizyk staw­ia w książkach Nowy umysł cesarza oraz Cie­nie umysłu odważne hipotezy doty­czące kwestii umysłu i samoświado­moś­ci pomi­mo tego, że nie jest spec­jal­istą w tych dziedz­i­nach. Uży­wa do tego fizy­ki (co praw­da w dużej mierze „nowej fizy­ki” – niekoniecznie już odkry­tej), a już samo to jest oznaką impe­ri­al­iz­mu. Ważniejsze są jed­nak jego wielokrot­nie wygłaszane (choć­by w wykładzie w Cen­trum Nau­ki Kopernik w listopadzie 2015 roku) rozważa­nia, dlaczego te kon­cepc­je są kon­trow­er­syjne. Więk­szość naukow­ców (z racji pro­fesji Pen­rose odnosi się w więk­szoś­ci do fizyków) twierdzi, iż „mózg jest kom­put­erem”. Dzi­ałanie kom­put­era jest w pełni wyjaś­ni­ane przez fizykę, co stwarza jej łatwą drogę do pod­bo­ju kole­jnych dziedzin – głównie psy­chologii, a pośred­nio, przez neu­rosocjologię, neu­ropoli­tologię, neu­ro­filo­zofię, także nauk społecznych, a nawet filo­zofii, z której, chcąc nie chcąc, fizy­ka się wywodzi i w której, co zaraz postaram się udowod­nić, wciąż tkwi.

Teo­ria strun”, głów­na kandy­dat­ka na teorię wszys­tkiego, nie daje żad­nych przewidy­wań – tez dają­cych się zwery­fikować empirycznie. Jest więc co najwyżej hipotezą. Wpłynęła zde­cy­dowanie bardziej na rozwój matem­aty­ki niż fizy­ki, co nie powin­no dzi­wić, doty­czy bowiem jedynie bard­zo skom­p­likowanego mech­a­niz­mu matem­aty­cznego, którego twór­cy uzur­pu­ją sobie pra­wo do wyjaś­ni­a­nia natu­ry Wszechświa­ta (jak już wspom­ni­ano, nie tylko fizy­ki). Sam pomysł, żeby była ona „teorią wszys­tkiego” – teorią wielkiej unifikacji wszel­kich sił fizy­cznych – pojaw­ił się niespodziewanie. Powin­no się myśleć o nim z uwzględ­nie­niem panu­jącego wtedy przeko­na­nia o „końcu his­torii”. W społeczeńst­wie zachod­nim domi­nowało przeświad­cze­nie o tri­um­fie ekonomii lib­er­al­nej, która miała wyjaśnić wszys­tko. Podob­nie myślano o demokracji lib­er­al­nej; dlaczego więc nie miano by myśleć w ten sposób o fizyce? Nur­ty te zostały negaty­wnie zwery­fikowane przez prob­le­my na świecie, że wymienię tylko takie oczy­wis­toś­ci jak tzw. głód struk­tu­ral­ny czy zmi­any kli­maty­czne; struny pozosta­ją za to jed­nym z najpop­u­larniejszych obszarów badań na wydzi­ałach i w insty­tu­tach fizy­ki.

Leonard Susskind odrzu­ca ata­ki na niefal­sy­fikowal­ność „teorii strun”, prosząc o „zostaw­ie­nie nau­ki naukow­com”; nie zna przy tym prac Pop­pera, który nie wyma­gał od teorii fal­sy­fikowal­noś­ci na każdym etapie przy­go­towań. Prob­lem, jaki zauważa­ją filo­zo­fowie nau­ki, socjol­o­gowie nau­ki, a także spo­ra część naukow­ców brz­mi: „jak dłu­go musimy czekać?”. Czy czter­dzieś­ci lat od stworzenia pod­staw „teorii strun” to nie za dłu­go, aby fizy­cy dalej nad nią pra­cow­ali? Czy nie powin­ni jej porzu­cić, może zostaw­ić matem­atykom? Trze­ba też zauważyć, choć jest to tem­at na inną pracę, iż przyj­mowanie „teorii strun” jako teorii naukowej może stworzyć niebez­pieczny prece­dens uznawa­nia za naukowe innych nieda­ją­cych żad­nych przewidy­wań samozwańczych „teorii”, wszelkiego rodza­ju paranauk, jak np. psy­cholo­gia kwan­towa, a także dawać argu­men­ty pseudonauce, jak na przykład denial­is­tom kli­maty­cznym (odrzu­ca­ją­cym – wbrew stanowisku nau­ki – antro­pogeniczność zmi­an kli­matu przy jed­noczes­nym powoły­wa­niu się na dawno odrzu­cone hipotezy, jak np. wpływ dzi­ałal­noś­ci Słoń­ca na ostat­nie ocieple­nie).

Moż­na powiedzieć, że „teo­ria strun” – jako niefal­sy­fikowal­na oraz niew­ery­fikowal­na – nie należy ani do fizy­ki, ani w ogóle do współczes­nej nau­ki. Dlaczego zatem, mimo upad­ku towarzyszą­cych jej nurtów społecznych, hipoteza strun pozosta­je tak bard­zo pop­u­larnym dzi­ałem badań w insty­tu­tach fizy­ki?

Odpowiedź brz­mi: ponieważ jest ona nową metafizyką – metafizyką matem­aty­czną.

Nie ule­ga wąt­pli­woś­ci, że kon­cepc­je matem­aty­czne miały już od początku XX wieku olbrzy­mi wpływ na fizykę, poma­ga­jąc – częs­to w zaskaku­ją­cy sposób – zrozu­mieć prawa przy­rody; jed­nak ostat­nie słowo zawsze należało tu do nauk empirycznych. Pon­ad­to: jed­nym z wcześniejszych poglądów na filo­zofię matem­aty­ki był pla­tonizm, mówią­cy o tym, że idee matem­aty­czne ist­nieją w odd­ziel­nym świecie (przez Penrose’a nazwanym „pla­tońskim światem idei matem­aty­cznych”). Pla­tonizm jest radykalną wer­sją real­iz­mu w filo­zofii matem­aty­ki. Fizy­cy i matem­aty­cy od daw­na uzna­ją wpływ przy­na­jm­niej częś­ci z nich na świat real­ny – być może jedynie w związku z niezwyk­le rozległym zas­tosowaniem teorii matem­aty­cznych w fizyce, być może ze względów metafizy­cznych. Według Penrose’a pogląd ten domin­u­je wśród matem­atyków i fizyków. Obec­nie jed­nak wielu fizyków decy­du­je się uznać pewne wyjaśnie­nie świa­ta za wielce praw­dopodob­ne jedynie dlat­ego, że jest on doskon­ałym mech­a­nizmem matem­aty­cznym. Matem­aty­ka pod­biła fizykę, która chci­ała dokon­ać tego samego z inny­mi dziedz­i­na­mi (przy okazji tworząc jedyną akcep­towal­ną przez XXI-wieczne środowisko naukowe metafizykę). Matem­aty­ka, która jak wykazano w Prin­cip­ia Math­e­mat­i­ca, da się sprowadz­ić do logi­ki i teorii mno­goś­ci.

Podsumowanie

Spełnie­nie marzenia wielu fizyków – prawdzi­wość teorii strun i inwaz­ja fizy­ki na inne dziedziny – oznacza­ła­by spełnie­nie marzenia Leib­niza, prag­nienia stworzenia prostego języ­ka, którym najlepiej opisać prawa nau­ki: matem­aty­ki, fizy­ki, nauk przy­rod­niczych, a także metafizy­ki. Językiem tym była­by logi­ka matem­aty­cz­na i teo­ria mno­goś­ci. Jak skom­p­likowana nie była­by ta dyscy­plina, dostar­cza ona prostych sym­boli, z których moż­na ułożyć wiele, a być może wszys­tko. Marze­nie to jest jed­nak nadal niespełnione.

Z drugiej strony, trud­no było­by wyobraz­ić sobie fizykę nieop­artą na matem­atyce, która ma także coraz więk­sze znacze­nie w biologii, a także w naukach społecznych. To marze­nie może się spełnić, nawet jeśli porzucimy fizy­czny impe­ri­al­izm, a nie odrzucimy Pop­pera. Śmiem pode­jrze­wać więc, że ta idea jest mniej utopi­j­na niż idee Zamen­ho­fa.


Igor Skórzy­bót – trzykrot­ny uczest­nik finału OF, absol­went I Liceum Ogól­nok­sz­tałcącego w Lęborku, od niedaw­na stu­dent kog­ni­ty­wisty­ki i pub­l­i­cys­ta „Osiem Dziewięć”, poza swoim kierunk­iem studiów zain­tere­sowany głównie filo­zofią i socjologią nau­ki.

 

 

autor ilus­tracji: bau­r­ka

Najnowszy numer można nabyć od 3 września w salonikach prasowych wielu sieci. Szczegóły zob. tutaj.

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2020 można zamówić > tutaj.

Aby dobrowolnie WESPRZEĆ naszą inicjatywę dowolną kwotą, kliknij „tutaj”.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

55 podróży filozoficznych okładka

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy