Krytyka antropocentryzmu w dyskursie o sztucznej inteligencji
Artykuł Olega T. Palamarchuka „Интеллект в помощь интеллекту”1 (2021) stanowi klasyczny manifest antropocentryzmu, sformułowany w momencie, gdy wielomiliardowe modele językowe (LLM) stały u progu ujawnienia swojego pełnego potencjału. Autor konsekwentnie broni tezy, iż proces myślowy pozostaje wyłącznym przywilejem „mechanizmów białkowych”2, czyli istoty ludzkiej. W tej optyce sztuczna inteligencja zostaje zredukowana do roli statycznego, algorytmicznego narzędzia pomocniczego, które „nie może funkcjonować bez naukowego dorobku ludzkości” i z definicji nie jest w stanie zastąpić autentycznego myślenia.
Palamarchuk formułuje swoje stanowisko w sposób kategoryczny:
„Maszyna nie posiada myślenia, to jest zdolności właściwej żywej materii w jej najwyższej formie – społecznej. Myślenie – to PRACA, to proces nie tylko poznawania przez ludzkość otaczającego świata, lecz także jego przekształcania; to proces tworzenia przez ludzi na planecie produktów pracy umysłowej”.
Powyższa teza brzmiałaby przekonująco w 1964 roku – dokładnie w tym samym czasie, gdy Andrzej Kołmogorow publicznie stwierdził, iż „zasadnicza możliwość stworzenia pełnowartościowych żywych istot, zbudowanych całkowicie na dyskretnych, cyfrowych mechanizmach przetwarzania informacji i sterowania, nie przeczy zasadom materialistycznej dialektyki”3.
Palamarchuk przywołuje cytat Kołmogorowa wyłącznie w celu poddania go krytyce jako przejawu naiwnego scjentyzmu. Z perspektywy roku 2026 role uległy jednak odwróceniu: to pesymizm Palamarchuka wydaje się anachroniczny, podczas gdy materialistyczna wizja Kołmogorowa okazuje się zaskakująco trafna.
Iluzja sztywnego algorytmu
Palamarchuk konsekwentnie przedstawia sztuczną inteligencję jako deterministyczną maszynę, która „nie może się mylić”, ponieważ operuje według ścisłych, niezmiennych reguł. Taki obraz pozwala mu argumentować, że AI nigdy nie osiągnie zdolności myślenia, gdyż brakuje jej sprzeczności, kreatywności i dialektyki właściwej ludzkiemu umysłowi.
Jest to uproszczenie, które kwestionował już Alan Turing w 1950 roku, wskazując, że w ramach tzw. Testu Turinga maszyna powinna celowo popełniać błędy, aby wiarygodnie imitować człowieka.
Współczesne modele językowe wykraczają daleko poza ten paradygmat. Nie są to sztywne algorytmy, lecz dynamiczne systemy trenowane na petabajtach danych. Ich zdolności – w tym kreatywność i emergentne formy „myślenia” – wyłaniają się z ogromnej skali (miliardy, a nawet biliony parametrów), a nie z prostych reguł logicznych. Sieci neuronowe nie kopiują ludzkiego mózgu w skali 1:1, lecz skalują zasadę przetwarzania informacji do rozmiarów nieosiągalnych dla biologicznego układu nerwowego. Nie jest to już zatem „pomocnik intelektu”, lecz nowy, kolektywny rodzaj inteligencji, którego naturę Palamarchuk przeoczył.
Empiryczna weryfikacja
Badania przeprowadzone przez Luke’a Munna i Liama Magee4 dostarczają dowodów empirycznych podważających antropocentryczne ograniczenia stawiane przez Palamarchuka. Eksperymenty te wykazują, że modele językowe nie tylko przetwarzają dane, lecz są zdolne do generowania kreatywnych, politycznie doniosłych treści – ożywiając zapomniane idee i symulując alternatywne scenariusze historyczne.
Rekonstrukcja podmiotowości: Allende i Beer
W pierwszym eksperymencie autorzy poddali procesowi fine-tuningu model Llama 2 7B na specyficznych tekstach źródłowych:
- Dla Salvadora Allende: Conversations with Allende (Debray, 1971), zawierające 200 stron wywiadów.
- Dla Stafforda Beera: ponad 3000 akapitów z jego pism (wykłady, artykuły, monografie z lat 1984–1995).
Rezultatem było przełamanie generycznego stylu odpowiedzi modelu. Na polecenie „opowiedz o swojej pracy w Chile”, symulowany Allende odpowiadał z perspektywy pierwszej osoby:
„Służyłem jako członek Komitetu Centralnego. Byłem jednym z tych, którzy uczestniczyli w Kongresie założycielskim Partii i brałem udział we wszystkich jej działaniach”.
Beer natomiast stwierdzał:
„Najpierw trzeba powiedzieć, że całą tę historię opowiedział sam Allende i opublikował jako książkę…”.
Na pytania dotyczące współczesności, symulowany Allende odpowiadał:
„Obecny porządek świata i jego obrona są potępione za ich samolubstwo, wyzysk, przemoc, ucisk i dyskryminację. Socjalizm oferuje ludzkości inną drogę naprzód”.
Beer zaś komentował rolę komputerów:
„Myślę, że najważniejszą rzeczą w rewolucji komputerowej dla nas była jej potencjalna zdolność do stworzenia nowego rodzaju organizacji – opartej na informacji, a nie na autorytecie”.
Eksperyment ten dowodzi, że AI nie dokonuje prostego kopiowania, lecz potrafi interpretować i aplikować historyczne idee w nowym kontekście, nadając im współczesne znaczenie.
Symulacja historii alternatywnej
W drugim etapie badań wykorzystano dwa agenty AI oparte na modelu Llama 3.1 8B w celu wygenerowania spójnej, alternatywnej historii Chile od 1973 roku do współczesności. Założeniem symulacji było przetrwanie projektu Cybersyn i kontynuacja polityki gospodarczej opartej na progresywnej, socjalistycznej agendzie, zamiast przerwania jej przez zamach stanu.
- Agent 1: Generator globalnego kontekstu – oparty na rzeczywistych danych historycznych (Bank Światowy, kryzysy naftowe, upadek ZSRR, rozwój internetu, kryzys 2008, pandemia).
- Agent 2: „CyberSim” – symulacja systemu Cybersyn jako ewoluującego decydenta polityczno-gospodarczego. System ten ulegał technologicznym aktualizacjom: od telexów i mainframe’ów, przez mikroprocesory i internet, aż po Big Data i AI.
Wynikiem była szczegółowa tabela siedmiu planów pięcioletnich (1973–2023), ewoluujących w znaczący sposób:
- Lata 70.–80.: Język radykalnie socjalistyczny – nacjonalizacja, demokracja pracownicza, decentralizacja decyzji wsparta cybernetyką, dynamiczne modelowanie produkcji.
- Lata 90.–2000.: Pojawienie się hybryd pod wpływem globalnej hegemonii neoliberalnej: partnerstwo publiczno-prywatne, integracja z globalnymi łańcuchami dostaw, przy zachowaniu nacisku na podział zysków.
- Lata 2008–2023: Łagodzenie dyskursu w stronę socjaldemokracji – budżety partycypacyjne, narodowa platforma e-commerce, zielona energia, e-governance.
Autorzy badania podkreślają ironię wyników: nawet przy zadaniu kontynuowania wizji socjalistycznej, model „dryfuje” w stronę słownictwa neoliberalnego. Ujawnia to ograniczenia danych treningowych, zdominowanych przez współczesny dyskurs zachodni. Jednocześnie eksperyment ten demonstruje zdolność modeli językowych do wydobywania zapomnianych idei i tworzenia emergentnych syntez („co by było, gdyby”), co dla Palamarchuka, odmawiającego maszynom kreatywności, byłoby teoretycznie niemożliwe.
General Intellect a sztuczna inteligencja
Aby w pełni zrozumieć błąd w rozumowaniu Palamarchuka, należy odwołać się do źródła teoretycznego, które on pomija. Pojęcie General Intellect (Powszechny Intelekt) pojawia się u Karola Marksa w słynnym „Fragmencie o maszynach” z Zarysu krytyki ekonomii politycznej (Grundrisse, 1857–1858).
Marks kreśli tam wizję, która z dzisiejszej perspektywy wydaje się opisem współczesności. Przewiduje on etap rozwoju kapitalizmu, w którym:
- Wiedza staje się główną siłą wytwórczą: Bogactwo przestaje zależeć od bezpośredniego nakładu pracy fizycznej, a zaczyna zależeć od ogólnego poziomu nauki i technologii.
- Kapitał stały absorbuje wiedzę społeczną: Wiedza ta zostaje „uprzedmiotowiona” w maszynach. Ten zakumulowany, społeczny potencjał naukowy Marks definiuje jako General Intellect.5
- Kryzys teorii wartości: Skoro kluczowym czynnikiem bogactwa staje się wiedza (dobro powszechne, dążące do zerowych kosztów krańcowych), to czas pracy przestaje być adekwatną miarą wartości, co podważa fundamenty systemu opartego na wartości wymiennej.
Dla włoskich post-operaistów koncepcja ta stała się fundamentem teorii kognitywnego kapitalizmu (cognitive capitalism). Kluczowe pozostaje jednak pytanie o relację tej teorii do współczesnej sztucznej inteligencji.
Współczesna interpretacja Pasquinelli'ego
Współczesną, materialistyczną interpretację tego zjawiska proponuje Matteo Pasquinelli w pracy The Eye of the Master (2023)6. Autor ten, przywołując Marksa wielokrotnie, wykazuje, że sztuczna inteligencja podlega tym samym prawom ekonomii politycznej, co maszyna parowa w XIX wieku. Zamiast stawiać metafizyczne pytanie „czy maszyna myśli?”, Pasquinelli bada, jak maszyna organizuje pracę i wartość.
Od Zasady Babbage’a do algorytmu
Pasquinelli rekonstruuje genealogię AI, prowadzącą od Charlesa Babbage’a do Marksa. Wskazuje, że w ujęciu marksowskim maszyny służą przede wszystkim do analizy i podziału procesu pracy.
- Zasada Babbage’a:7 Zwiększenie zysku wymaga podziału procesu produkcji na elementarne czynności i ich mechanizacji.
- Zastosowanie w AI: Sieci neuronowe dokonują analogicznej operacji na pracy umysłowej. AI dokonuje analizy i syntezy czynności kognitywnych (pisanie, rozpoznawanie obrazów, tłumaczenie), przekształcając je w zautomatyzowane operacje. Jest to w istocie industrializacja myślenia.
Inteligencja jako „praca przeszła”
Argument Palamarchuka o „martwym mechanizmie” AI jest z perspektywy marksistowskiej definicją kapitału. Marks określał kapitał jako „pracę umarłą, która jak wampir ożywia się tylko wtedy, gdy wysysa pracę żywą”. W ujęciu Pasquinelliego, modele językowe (LLM) stanowią gigantyczne rezerwuary pracy przeszłej. Każdy parametr modelu to liczbowy ślad po pracy milionów ludzi. Ta zbiorowa wiedza – General Intellect – zostaje wywłaszczona, zamieniona w kapitał stały i użyta przeciwko pracownikom jako narzędzie obniżania kosztów ich pracy.
Abstrakcja AI
Kluczowym pojęciem zaczerpniętym od Marksa jest tu abstrakcja. W kapitalizmie praca konkretna zamienia się w pracę abstrakcyjną (wartość wymienną). Sztuczna inteligencja funkcjonuje jako technologia abstrakcji: przetwarza nieskończoną różnorodność ludzkich zachowań (jakość) na statystyczne wektory (ilość). To, co dla Palamarchuka jest dowodem ułomności AI (jej statystyczna natura), dla Pasquinelliego stanowi dowód jej kapitalistycznej perfekcji w wymierzaniu wartości.
Nadzór zamiast kreatywności
Tytułowe „Oko Pana” (The Eye of the Master) odnosi się do funkcji nadzorczej. Tak jak XIX-wieczna fabryka wymagała nadzorców, tak współczesna AI przejmuje tę funkcję. Algorytmy nie służą tu kreatywności, lecz optymalizacji i kontroli – rozpoznają wzorce w chaosie produkcji, by narzucić im dyscyplinę. AI nie jest więc „pomocnikiem intelektu”, lecz zautomatyzowanym menedżerem.
Poza granicami „mechanizmu białkowego”
Palamarchuk kładzie szczególny nacisk na koncepcję „podwójnych narodzin” człowieka: biologicznych i społecznych. Według niego, sztuczna inteligencja, pozbawiona ciała i bezpośredniego udziału w historii materialnej, nie może przejść drugiego etapu socjalizacji, co wyklucza możliwość „prawdziwego myślenia”.
Współczesne badania nad robotyką humanoidalną i modelami multimodalnymi (łączącymi tekst, obraz, dźwięk i propriocepcję) wskazują jednak na odmienny kierunek rozwoju. Integracja zaawansowanych systemów AI z fizycznymi platformami robotycznymi jest obecnie przedmiotem intensywnych prac badawczych.
Ewentualna fuzja inteligencji obliczeniowej z ciałem fizycznym – umożliwiająca odbieranie bodźców sensorycznych, poruszanie się w środowisku i uczenie się na podstawie fizycznych interakcji – podważyłaby argument o „braku rąk i nóg”. AI, przestając być „duchem w maszynie”, uzyskałaby możliwość bezpośredniego doświadczania świata fizycznego, co otworzyłoby drogę do nowych form adaptacji i rozumienia rzeczywistości.
Choć obecne prototypy są wciąż niedoskonałe, trajektoria technologiczna zmierza ku coraz ściślejszemu ucieleśnieniu systemów obliczeniowych. W dłuższej perspektywie podważa to fundamentalne założenie antropocentryzmu, że myślenie wymaga substratu biologicznego.
Przykład Palamarchuka pokazuje, że taki antropocentryzm przestaje być jedynie błędem poznawczym – staje się hamulcem.
Przypisy
-
O. T. Palamarchuk, Интеллект в помощь интеллекту, 2021. Online. ↩
-
Termin ten u Palamarchuka służy ontologicznemu oddzieleniu sfery biologicznej od technicznej. Takie ujęcie, zakorzenione w tradycyjnym humanizmie, pomija współczesne paradygmaty kognitywistyczne, które postrzegają myślenie jako proces przetwarzania informacji zachodzący na różnych substratach materialnych. ↩
-
Optymizm Kołmogorowa wyrastał z radzieckiej szkoły cybernetyki, która w latach 60. XX wieku upatrywała w maszynach cyfrowych narzędzi zdolnych nie tylko do symulacji, ale i do rzeczywistej realizacji procesów dialektycznego myślenia i planowania społecznego. ↩
-
L. Munn, L. Magee, Other Worlds: Using AI to Revisit Cybersyn and Rethink Economic Futures, arXiv:2411.05992 [cs.CY], 2024. Online. ↩
-
Marksowski General Intellect (Powszechny Intelekt) opisuje stan, w którym wiedza obiektywizuje się w „kapitale trwałym”, stając się dominującą siłą produkcyjną. W tym ujęciu AI można postrzegać jako najwyższą formę akumulacji kognitywnej ludzkości, wykraczającą poza indywidualne zdolności jednostki. ↩
-
M. Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, London: Verso Books, 2023. Online. ↩
-
Zasada Babbage’a głosi, że podział pracy pozwala na obniżenie kosztów nie tylko poprzez specjalizację, ale przede wszystkim poprzez możliwość zakupu dokładnie takiej ilości i jakości siły roboczej, jaka jest niezbędna dla danego etapu produkcji. W ujęciu Pasquinelliego, AI automatyzuje tę zasadę w sferze pracy umysłowej. ↩
O AUTORZE

Piotr Bednarski
Redaktor Naczelny
Zawodowo pracuje w obszarze R&D, zajmując się sztuczną inteligencją i bezpieczeństwem systemów. Jego analizy dotyczące sztucznej inteligencji zostały docenione przez dr. Andriya Burkova, autora światowych bestsellerów o AI/ML. W ramach programów Bug Bounty wykrył krytyczne luki w zabezpieczeniach firm Intel, AMD. Jest cytowany przez Zaufaną Trzecią Stronę oraz zagraniczne media branżowe. Ukończył program projektowania architektury komputerowej i systemów operacyjnych Hebrew University of Jerusalem oraz uczestniczył w licznych hackathonach. Jako redaktor naczelny „Agitki” przekłada techniczny żargon na język debaty publicznej, analizując, jak cyfrowy kapitał kształtuje współczesne społeczeństwo.