Edukacja filozoficzna Próby filozoficzne

Igor Skórzybót: Alfabet ludzkich myśli

próby fil skórzybut
„Alfabet ludzkich myśli” jest konceptem stworzonym przez Gottfrieda Leibniza. Według Couturata był to rodzaj „algebry myślenia”, zakładającej istnienie elementarnych pojęć dla wszystkich języków.

Tekst ukazał się w dziale „Próby filozoficzne”, poświęconego pracom adeptów filozofii.


Obecnie, po upływie kilkuset lat, lingwistyka może badać znacznie większą ilość języków. Wciąż udoskonalany jest naturalny metajęzyk semantyczny, który obejmuje te indefinibilia. Głównym filarem lingwistycznych koncepcji Leibniza było jednakowoż tworzenie characteristica universalis, czyli podstawowego języka mogącego opisywać wszelkie zagadnienia matematyczne, fizyczne i metafizyczne. Wielu naukowców, zwłaszcza fizyków, uważa dziś symbole logiki matematycznej i teorii mnogości za podstawowe znaki „alfabetu ludzkich myśli”; ich marzeniem jest sprowadzenie języków wszystkich nauk do jednego podstawowego characteristica universalis. I to marzenie jest wciąż niespełnione.

Leibniz jako lingwista

Ważne dla tej pracy będzie wykazanie, że XVII- i XVIII-wieczna lingwistyka różni się znacząco od lingwistyki dzisiejszej. Nie chodzi tu jedynie o rozwój metod, zwłaszcza statystyki, lecz głównie o kontekst społeczny tamtych czasów. Ówczesny europocentryzm, przekonanie o wyższości okcydentu nad cywilizacjami nieeuropejskimi, wpływał na naukę. Prowadzono wprawdzie badania na temat języków innych grup etnicznych, lingwiści skupiali się jednakże przede wszystkim na językach z grupy indoeuropejskiej. Już w roku 1603 Ludovica Bertoni wydał dzieło Arte de la lengua aymara, gdzie podziwiał język aymara – używany do dziś w częściach Peru i Boliwii – jako niebywale giętki i witalny, mogący z łatwością wyrażać abstrakcje; sam Leibniz zresztą był zafascynowany mnogością języków naturalnych.

Gottfried Leibniz, jako wybitny matematyk, był zafascynowany kombinatoryką, konkretniej ilością możliwych prawd (lub nieprawd) dających się wyrazić w języku złożonym z dwudziestoczteroliterowego alfabetu – była to liczba 243 650 000 000 001–24/23. Wychwalał także babelizm i uważał za niemożliwy powrót do języka pierwotnego (adamowego) ani jego identyfikację. Niemniej zaskakujące może być to, dlaczego człowiek, którego ontologia była monadologią zainteresował się stworzeniem języka uniwersalnego. „Podobnie jak miasto z różnych stron oglądane wydaje się coraz to inne i stanowi jakby zwielokrotniony perspektywicznie widok, tak dzięki nieskończonej mnogości substancji prostych tyle samo jest jakby rozmaitych wszechświatów, które są wszelako widokami tego samego wszechświata odpowiadającymi rozmaitym punktom widzenia każdej monady”, pisał Leibniz. Trzeba pamiętać, że był on także irenistą, bywał na dworach, zajmował się dyplomacją. Uważał, że stworzenie jednego języka mogłoby przywrócić pokój w Europie.

Program Leibniza realizowany przez całe jego życie miał za zadanie:

1)    znalezienie indefinibiliów – pojęć pierwotnych, charakterystycznych dla wszystkich języków;

2)    stworzenie gramatyki idealnej;

3)    stworzenie uniwersalnych reguł wymowy znaków;

4)    opracowanie słownictwa znaków, z których można by za pomocą rachunków (podobnych do tych używanych przez matematyków) formułować prawdziwe wypowiedzi.

Umberto Eco zauważa, że „istotny wkład Leibniza zawiera się w czwartym punkcie projektu, co potwierdza zarazem ta okoliczność, że zaprzestał on w końcu prób realizacji trzech pozostałych”. Sam „alfabet ludzkich myśli” miał być narzędziem, dzięki któremu myśl zostałaby wzmocniona, tak jak wzrok dzięki teleskopowi. Wariacje liter danego alfabetu i analiza słów z nich utworzonych pozwalałyby na ocenę i odkrycie wszelkich rzeczy. Aby to było możliwe, wszystkie nauki musiałyby dać się sprowadzać do jedynego języka.

Próby stworzenia języka uniwersalnego

Do XVI wieku próby tworzenia języków sztucznych były związane nierozerwalnie z mistyką (m. in. kabała) oraz religią. Opierały się na próbie odnalezienia „języka adamowego”, a hipotezy dotyczące takowego, mało miały wspólnego z nauką, były raczej np. nacjonalistyczne.

Rezultat tych prac można streścić cytatem z Salimbene z Parmy:

[Fryderyk II] zapragnął sprawdzić, jakim językiem przemówiłyby, osiągając wiek młodzieńczy, dzieci, którym nie dane było wcześniej z nikim rozmawiać. Nakazał przeto niańkom i mamkom karmić je […], a zakazał do nich przemawiać. Chciał bowiem dowiedzieć się, czy mówiłyby językiem hebrajskim, który był pierwszy, czy greckim, łacińskim, a może arabskim, o ile nie mówiłyby językiem rodziców, z których się poczęły. Trudził się jednak na próżno, albowiem tak niemowlęta, jak i podrostki wszystkie pomarły”.

XVI wieku pojawiły się pierwsze programy „języków filozoficznych” mających na celu wyeliminowanie Baconowskich idoli z języka – leibnizjański wydaje się najbardziej zaawansowany. Dopiero od XVIII wieku zaczęły powstawać tzw. „międzynarodowe języki pomocnicze” – sztuczne języki aspirujące do miana uniwersalnych, czerpiące z wielu języków, stworzone, aby wszyscy ludzie mogli nimi mówić.

Według Umberto Eco podstawową zaletą języka angielskiego jako lingua franca jest to, że można w nim mówić błędnie. W takim razie jest w nim coś wspólnego dla większości, jeśli nie wszystkich, kultur. Ale nie o to przecież chodziło Leibnizowi. Angielski jest zwykłym językiem naturalnym, nie „alfabetem ludzkich myśli”.

Próby stworzenia języków sztucznych opierały się na zupełnie innych filozofiach niż leibnizjańska, choć zazwyczaj starały się spełnić pierwsze trzy jej punkty. Najbardziej znanym prawdopodobnie jest esperanto.

Z ciekawszych języków sztucznych warto wymienić lożban i toki pona. Ten pierwszy jest językiem opartym na predykatach, o bardzo prostej gramatyce. Z założenia ma być jednak neutralny kulturowo. Bliższy „algebrze myśli” wydaje się sztuczny język toki pona (w toki pona oznacza to zarówno „prosty język”, jak i „dobry język”). Po raz pierwszy zaprezentowany w roku 2001, również w celu udowodnienia hipotezy Sapira-Whorfa, według autorki Sonji Lang jest zainspirowany filozofią taoistyczną – słowa „prosty” i „dobry” jest w nim wyrażane jednym wyrazem „pona”. Choć nie został stworzony jako pomocniczy język międzynarodowy, a za jego pomocą nie da opisywać się pojęć naukowych, może przypominać nieco oryginalny pomysł Leibniza. Alfabet toki pona składa się z dziewięciu spółgłosek i pięciu samogłosek o ustalonych regułach wymowy. Gramatyka jest bardzo prosta, może aspirować do miana idealnej, jeśli za kryterium oceny przyjmiemy właśnie prostotę. Podobnie jak w esperanto, dłuższe wyrażenia tworzy się, łącząc kilka słów (np. „jan pona” – dosłownie „dobry człowiek” – oznacza przyjaciel); jednak w odróżnieniu od esperanto baza słów jest zamknięta, jest ich około stu dwudziestu, tworzonych na podstawie różnych języków naturalnych. Przez to w języku tym jest wiele dwuznaczności (np. „telo pimaje wawa” – „mocna ciemna ciecz” – może oznaczać zarówno kawę, jak i ropę naftową). Poza tym oczywistym jest, że i ten język nie pomaga w formowaniu prawdziwych sądów, o co chodziło Leibnizowi.

Wiele jest języków sztucznych aspirujących (bądź nie) do miana lingua franca, dających się (bądź nie) sprowadzić do zbioru elementarnych pojęć, prymitywów (tych z kolei czerpanych z języków naturalnych, indoeuropejskich bądź też innych, na podstawie badań lingwistycznych bądź sztucznych, wymyślonych), jednak żaden z nich nie może opisywać wszystkich nauk. Jedynym punktem z programu Leibniza, jaki spełniają, jest wymowa znaków, ale w związku ze słabym rozpowszechnieniem języków sztucznych jest to marne pocieszenie. Lingwistyka zresztą znalazła lepszy sposób na wyodrębnianie indefinibiliów.

Naturalny metajęzyk semantyczny

Leibniz zdawał sobie sprawę, że klasyfikacja Wszechświata, tzw. podział kategorialny, jest rzeczą niemożliwą, gdyż nieobiektywną, autorytatywnie ustaloną, opartą na domysłach. To jeden z problemów, który nie pozwalał na stworzenie sztucznego języka pełnego i spójnego. Podobnie było z identyfikowaniem indefinibiliów. Mimo iż Boole (w Investigation on the Laws of Thought) zauważył, że niezliczone ludzkie języki zdołały zachować przez wieki tak wiele cech wspólnych, dopiero po upływie ponad trzystu lat od śmierci Leibniza Andrzej Bogusławski (na wykładzie „O założeniach semantyki” wygłoszonym na Uniwersytecie Warszawskim w roku 1964) stwierdził, że narzędzia lingwistyczne pozwalają już na znalezienie owych najprostszych elementów wspólnych dla każdego języka. Tak oto narodził się naturalny metajęzyk semantyczny (NSMnatural semantic metalanguage). Anna Wierzbicka, jego główna twórczyni, początkowo skupiła się na językach indoeuropejskich, wyodrębniając dla nich – w pracy Semantic primitives z roku 1972 – 14 wyrazów wspólnych. Późniejsze badania, prowadzone na dużą skalę przez międzynarodowy zespół badaczy (między innymi Cliffa Goddarda) zajęły się większą ilością języków. Obecnie liczba tych słów to nieco ponad 60. Program ten wciąż jest udoskonalany, trwa analiza danych językowych spływających z całego świata, aczkolwiek Wierzbicka mówi, iż więcej indefinibiliów prawdopodobnie już nie znajdziemy.

Można nie zgadzać się z tezami Wierzbickiej, jakoby NSM był bardzo znaczącym narzędziem, które można stosować w psychologii, etyce i „gdziekolwiek indziej” (NSM jest tu narzędziem „inwazji” lingwistyki na inne dziedziny – wizja Wierzbickiej różni się więc od Chomsky’ego, zainteresowanego również innymi dyscyplinami). Metodologia wyodrębniania indefinibiliów jest jednak na tyle dobra (w sensie: uznana przez społeczność naukową, wykładana na uniwersytetach), że NSM można uznać za spełnienie pierwszego punktu programu Leibniza.

Ale czy ktokolwiek może powiedzieć, że naturalny metajęzyk semantyczny satysfakcjonowałby go w całości? Zapewne program badawczy bardzo by mu się podobał, tak samo jak hipotezy stawiane przez Wierzbicką dotyczące zastosowania NSM w innych naukach. Jednak NSM nie jest narzędziem, za pomocą którego możemy odkrywać prawdę o Wszechświecie; Leibniz poszukiwał characteristica universalisjedynego języka umożliwiającego ocenianie poprawności rozumowań na podstawie samego zapisu na wzór arytmetyki i geometrii, pozwalającego wyrażać prawdy na temat nauki: matematyki, fizyki, nauk przyrodniczych, metafizyki. Dlaczego nie udało się to ani twórcom języków sztucznych, ani badaczom uczestniczącym w programie naturalnego metajęzyka semantycznego (choć ci niewątpliwie, wyodrębniając indefinibilia, spełnili pierwsze z punktów programu Leibniza)? Powodem tego nie jest wszakże natura języka. Nauki nie są bowiem na tyle zunifikowane, aby za pomocą samego tylko wspólnego języka wyrażać prawdy na temat Wszechświata.

Języki aposterioryczne nie pomagają zatem w stworzeniu characteristica universalis. Po głębszym zastanowieniu się można jednak stwierdzić, że wynika to z samej definicji. Nawet jeśli język byłby zrozumiały dla wszystkich ludzi, to nie wynika z tego, że pomoże on w porozumiewaniu się z cywilizacją kosmiczną czy też, bardziej prozaicznie, z maszynami. Przymiotnik „ludzkie” w „alfabecie ludzkich myśli” to oznaka daleko posuniętego antropocentryzmu.

Zdecydowanie lepszy byłby więc język aprioryczny. Leibniz wspomina o działalności logików. Może to w tej dziedzinie należy szukać alfabetu ludzkich myśli?

Principia mathematica

Z nurtów filozofii matematyki powstałych przed XIX wiekiem interesować nas będzie wyłącznie realizm, uzależniający istnienie obiektów matematycznych jedynie od ich wewnętrznej niesprzeczności (obecnie w matematycznym sporze o uniwersalia współczesne formy realizmu konkurują z konstruktywizmem, który uznaje istnienie obiektów matematycznych wtedy i tylko wtedy, gdy są one konstruowalne). Matematyka ma też olbrzymi wpływ na teorie fizyczne. Więcej słów o tym powiem w kolejnym paragrafie.

XIX wieku powstały nowe nurty: wspomniany konstruktywizm, formalizm oraz logicyzm. Nas interesować będzie szczególnie ten ostatni. Stanfordzka Encyklopedia Filozofii podaje, że pierwsze oznaki logicyzmu można zobaczyć już u Leibniza, aczkolwiek nie znajdziemy tu na ten temat więcej szczegółów. Szczególnie  czwarty punkt programu Leibniza zbliżony jest do logicyzmu (co nie powinno dziwić, gdyż jak wspomniano, Leibniz podziwiał prace logików).

Logicyzm to kierunek filozofii matematyki zakładający, że jej podstawy można oprzeć na bazie logicznego rachunku zdań. Według logicystów matematyka może zostać sprowadzona do szczególnego rodzaju formalnej teorii logicznej, wyprowadzającej analitycznie wnioski (implementując aksjomaty) z pewnego zestawu definicji.

Na przełomie XIXXX wieku dokonała się rewolucja w logice, głównie za sprawą Gottloba Fregego i Giuseppe Peano. Przed wydaniem Begriffsschrift Fregego, zawierającego zalążki logiki predykatów stopnia drugiego, najważniejszą teorią logiczną była wciąż licząca sobie ponad dwa tysiące lat sylogistyka Arystotelesa. Już aksjomatyka liczb naturalnych Peano oparta na prawach logiki wpłynęła na rozwój logicyzmu. Frege oparł na logice całą arytmetykę. Głównym dziełem w tej dziedzinie jest jednak niedokończone (planowane na cztery tomy, wydano trzy) Principia Mathematica Bertranda Russella i Alfreda N. Whiteheada. Autorzy przede wszystkim stworzyli spójną teorię rachunku eliminującą (dzięki teorii typów) problemy podstaw matematyki, głównie antynomii klas samozwrotnych (zwaną także „paradoksem Russella”). Problemem okazało się jednak sprowadzenie matematyki do samej logiki. Konieczny do dowodzenia matematycznego, poza aksjomatami logiki, okazał się aksjomat nieskończoności oraz aksjomat wyboru. Russell i Whitehead nie chcieli ich włączyć do swojego systemu, ponieważ postulowały istnienie pewnego typu obiektów bez instrukcji, jak je skonstruować. Logicyzm więc nie powiódł się, ale autorom Principia Mathematica udało się sprowadzić (wraz z kontynuatorami ich myśli) matematykę do logiki i teorii mnogości, tworząc przy tym język (pozbawiony semantyki), który przynajmniej częściowo mógłby satysfakcjonować Leibniza. Owszem, jest on trudny, trudniejszy niż postulowane characteristica universalis, ale wspólne dla wszystkich dziedzin nauki jest to, że ich współczesne teorie można uznać za „trudniejsze w odbiorze” dla osoby niebędącej specjalistą, niż było to w początkach czasów nowożytnych – jest to pewnego rodzaju odwrócenie trendu, bowiem Matematyczne zasady filozofii przyrody Newtona czy inne dzieła tamtych czasów są „prostsze” niż metafizyczne, teleologiczne rozważania scholastyków średniowiecznych.

Fizyczny imperializm

Helge Kragh nazywa fizycznym imperializmem charakterystyczny dla wielu fizyków, m.in. Tiplera, pogląd, iż wszystkie nauki – przyrodnicze oraz społeczne – można sprowadzić do fizyki. Tipler ujął to najmocniej: „Inwazja na inne dyscypliny jest nieunikniona, a w rzeczy samej postęp w nauce można mierzyć zakresem podboju innych dyscyplin przez fizykę”, aczkolwiek redukcjonizm dotyczący sprowadzania nauk do fizyki jest dość starą kwestią. „Teorie wszystkiego” tworzone przez Kartezjusza czy Boskovica, czy też hipoteza eteru, niezwykle popularna wśród XIX-wiecznych fizyków, można uznać za próby oparcia nauki na fundamentach podstawowej teorii fizycznej. Z całą pewnością można już powiedzieć, że tak wybitni fizycy początków dwudziestego wieku jak Bohr, Born czy Sommerfeld uważali, że chemia jest jedynie stosowaną fizyką kwantową.

Imperializm fizyczny jest czymś zupełnie innym niż zwykłe mieszanie się poszczególnych dyscyplin. Nancy Cartwright twierdzi, iż prawa chemii i biologii nie pochodzą z fizyki, ale wszystkie znakomicie się dopełniają. W imperializmie fizycznym chodzi o bezpodstawne przekonanie o wyższości własnej dziedziny, uzurpowanie jej prawa do bycia tą najważniejszą, z której wywodzą się inne.

Wydawać by się mogło, że brak wielkich postępów w tworzeniu „teorii wszystkiego” w ostatnich latach mógłby osłabić fizyczny imperializm. Jest jednak wręcz przeciwnie. Należy wspomnieć Rogera Penrose’a. Ten wybitny matematyk i fizyk stawia w książkach Nowy umysł cesarza oraz Cienie umysłu odważne hipotezy dotyczące kwestii umysłu i samoświadomości pomimo tego, że nie jest specjalistą w tych dziedzinach. Używa do tego fizyki (co prawda w dużej mierze „nowej fizyki” – niekoniecznie już odkrytej), a już samo to jest oznaką imperializmu. Ważniejsze są jednak jego wielokrotnie wygłaszane (choćby w wykładzie w Centrum Nauki Kopernik w listopadzie 2015 roku) rozważania, dlaczego te koncepcje są kontrowersyjne. Większość naukowców (z racji profesji Penrose odnosi się w większości do fizyków) twierdzi, iż „mózg jest komputerem”. Działanie komputera jest w pełni wyjaśniane przez fizykę, co stwarza jej łatwą drogę do podboju kolejnych dziedzin – głównie psychologii, a pośrednio, przez neurosocjologię, neuropolitologię, neurofilozofię, także nauk społecznych, a nawet filozofii, z której, chcąc nie chcąc, fizyka się wywodzi i w której, co zaraz postaram się udowodnić, wciąż tkwi.

Teoria strun”, główna kandydatka na teorię wszystkiego, nie daje żadnych przewidywań – tez dających się zweryfikować empirycznie. Jest więc co najwyżej hipotezą. Wpłynęła zdecydowanie bardziej na rozwój matematyki niż fizyki, co nie powinno dziwić, dotyczy bowiem jedynie bardzo skomplikowanego mechanizmu matematycznego, którego twórcy uzurpują sobie prawo do wyjaśniania natury Wszechświata (jak już wspomniano, nie tylko fizyki). Sam pomysł, żeby była ona „teorią wszystkiego” – teorią wielkiej unifikacji wszelkich sił fizycznych – pojawił się niespodziewanie. Powinno się myśleć o nim z uwzględnieniem panującego wtedy przekonania o „końcu historii”. W społeczeństwie zachodnim dominowało przeświadczenie o triumfie ekonomii liberalnej, która miała wyjaśnić wszystko. Podobnie myślano o demokracji liberalnej; dlaczego więc nie miano by myśleć w ten sposób o fizyce? Nurty te zostały negatywnie zweryfikowane przez problemy na świecie, że wymienię tylko takie oczywistości jak tzw. głód strukturalny czy zmiany klimatyczne; struny pozostają za to jednym z najpopularniejszych obszarów badań na wydziałach i w instytutach fizyki.

Leonard Susskind odrzuca ataki na niefalsyfikowalność „teorii strun”, prosząc o „zostawienie nauki naukowcom”; nie zna przy tym prac Poppera, który nie wymagał od teorii falsyfikowalności na każdym etapie przygotowań. Problem, jaki zauważają filozofowie nauki, socjologowie nauki, a także spora część naukowców brzmi: „jak długo musimy czekać?”. Czy czterdzieści lat od stworzenia podstaw „teorii strun” to nie za długo, aby fizycy dalej nad nią pracowali? Czy nie powinni jej porzucić, może zostawić matematykom? Trzeba też zauważyć, choć jest to temat na inną pracę, iż przyjmowanie „teorii strun” jako teorii naukowej może stworzyć niebezpieczny precedens uznawania za naukowe innych niedających żadnych przewidywań samozwańczych „teorii”, wszelkiego rodzaju paranauk, jak np. psychologia kwantowa, a także dawać argumenty pseudonauce, jak na przykład denialistom klimatycznym (odrzucającym – wbrew stanowisku nauki – antropogeniczność zmian klimatu przy jednoczesnym powoływaniu się na dawno odrzucone hipotezy, jak np. wpływ działalności Słońca na ostatnie ocieplenie).

Można powiedzieć, że „teoria strun” – jako niefalsyfikowalna oraz nieweryfikowalna – nie należy ani do fizyki, ani w ogóle do współczesnej nauki. Dlaczego zatem, mimo upadku towarzyszących jej nurtów społecznych, hipoteza strun pozostaje tak bardzo popularnym działem badań w instytutach fizyki?

Odpowiedź brzmi: ponieważ jest ona nową metafizyką – metafizyką matematyczną.

Nie ulega wątpliwości, że koncepcje matematyczne miały już od początku XX wieku olbrzymi wpływ na fizykę, pomagając – często w zaskakujący sposób – zrozumieć prawa przyrody; jednak ostatnie słowo zawsze należało tu do nauk empirycznych. Ponadto: jednym z wcześniejszych poglądów na filozofię matematyki był platonizm, mówiący o tym, że idee matematyczne istnieją w oddzielnym świecie (przez Penrose’a nazwanym „platońskim światem idei matematycznych”). Platonizm jest radykalną wersją realizmu w filozofii matematyki. Fizycy i matematycy od dawna uznają wpływ przynajmniej części z nich na świat realny – być może jedynie w związku z niezwykle rozległym zastosowaniem teorii matematycznych w fizyce, być może ze względów metafizycznych. Według Penrose’a pogląd ten dominuje wśród matematyków i fizyków. Obecnie jednak wielu fizyków decyduje się uznać pewne wyjaśnienie świata za wielce prawdopodobne jedynie dlatego, że jest on doskonałym mechanizmem matematycznym. Matematyka podbiła fizykę, która chciała dokonać tego samego z innymi dziedzinami (przy okazji tworząc jedyną akceptowalną przez XXI-wieczne środowisko naukowe metafizykę). Matematyka, która jak wykazano w Principia Mathematica, da się sprowadzić do logiki i teorii mnogości.

Podsumowanie

Spełnienie marzenia wielu fizyków – prawdziwość teorii strun i inwazja fizyki na inne dziedziny – oznaczałaby spełnienie marzenia Leibniza, pragnienia stworzenia prostego języka, którym najlepiej opisać prawa nauki: matematyki, fizyki, nauk przyrodniczych, a także metafizyki. Językiem tym byłaby logika matematyczna i teoria mnogości. Jak skomplikowana nie byłaby ta dyscyplina, dostarcza ona prostych symboli, z których można ułożyć wiele, a być może wszystko. Marzenie to jest jednak nadal niespełnione.

Z drugiej strony, trudno byłoby wyobrazić sobie fizykę nieopartą na matematyce, która ma także coraz większe znaczenie w biologii, a także w naukach społecznych. To marzenie może się spełnić, nawet jeśli porzucimy fizyczny imperializm, a nie odrzucimy Poppera. Śmiem podejrzewać więc, że ta idea jest mniej utopijna niż idee Zamenhofa.


Igor Skórzybót – trzykrotny uczestnik finału OF, absolwent I Liceum Ogólnokształcącego w Lęborku, od niedawna student kognitywistyki i publicysta „Osiem Dziewięć”, poza swoim kierunkiem studiów zainteresowany głównie filozofią i socjologią nauki.

 

 

autor ilustracji: baurka

Numery drukowane można zamówić online > tutaj. Prenumeratę na rok 2024 można zamówić > tutaj.

Dołącz do Załogi F! Pomóż nam tworzyć jedyne w Polsce czasopismo popularyzujące filozofię. Na temat obszarów współpracy można przeczytać tutaj.

1 komentarz

Kliknij, aby skomentować

  • To jest niesamowite, ‘próby filozoficzne studentów lepsze niż felietony czy artykuły zawodowych filozofów! Gratulacje.

Wesprzyj „Filozofuj!” finansowo

Jeśli chcesz wesprzeć tę inicjatywę dowolną kwotą (1 zł, 2 zł lub inną), przejdź do zakładki „WSPARCIE” na naszej stronie, klikając poniższy link. Klik: Chcę wesprzeć „Filozofuj!”

Polecamy