Prawo Ashby’ego a spór o planowanie gospodarcze
Spór między zwolennikami centralnego planowania i gospodarki rynkowej jest starszy niż sama realizacja gospodarki planowej. Zazwyczaj przybiera on postać ideologicznej batalii, w której ścierają się zwolennicy socjalizmu i kapitalizmu. Tymczasem przedmiot analizy – gospodarka – jest przede wszystkim systemem złożonym: dynamicznym, nieliniowym, wieloelementowym, podatnym na zakłócenia, oscylacje i opóźnienia. Z tego względu można, a wręcz należy, rozpatrywać ją w świetle cybernetyki – nauki zajmującej się regulacją systemów złożonych.
Niniejszy artykuł, inaugurujący cykl poświęcony cybernetycznej analizie sporu rynek–plan, koncentruje się na pytaniu, który z tych mechanizmów lepiej spełnia rolę regulatora w świetle jednego z fundamentalnych praw cybernetyki – prawa niezbędnej różnorodności Ashby’ego. Prawo to głosi, że skuteczny regulator musi dysponować różnorodnością co najmniej równą różnorodności zakłóceń oddziałujących na system.
Kluczowe jest przy tym rozróżnienie pomiędzy regulacją a adaptacją. W kontekście gospodarki rynkowej pojęcia te często bywają utożsamiane: zdolność rynku do reagowania na bodźce i zmiany strukturalne bywa traktowana jako dowód jego wysokiej różnorodności regulacyjnej. Tymczasem reakcje te mają charakter post factum, są pozbawione globalnego celu i nie opierają się na modelu systemu jako całości. Oznacza to, że mamy do czynienia z adaptacją, a nie regulacją w sensie cybernetycznym. Prawo Ashby’ego dotyczy wyłącznie tego drugiego.
Różnorodność regulatora można analizować na kilku poziomach: wymiaru wektora stanu, sposobu agregacji informacji, istnienia modelu systemu, stopnia hierarchizacji, podatności na entropię decyzyjną, celowego generowania dodatnich sprzężeń zwrotnych oraz zdolności do izolacji zakłóceń.
Wymiar wektora stanu
Pierwszym z nich jest sposób opisu stanu układu. Gospodarka rynkowa opisuje stan systemu za pomocą jednowymiarowego sygnału – ceny. Cena pełni funkcję uniwersalnego hiperagregatu, w którym zawarte mają być informacje o dostępności surowców, podziale pracy, poziomie technologii, wolumenie produkcji, jakości dóbr, relacjach między gałęziami gospodarki i wielu innych czynnikach. Jednocześnie gospodarka jest systemem wielowymiarowym, w którym każdy z tych aspektów stanowi odrębny stopień swobody, wymagający specyficznej reakcji regulacyjnej.
Opisywanie takiego systemu za pomocą jednego parametru prowadzi do kolapsu informacyjnego: wiele jakościowo odmiennych stanów staje się nierozróżnialnych dla regulatora. Z punktu widzenia prawa Ashby’ego oznacza to drastyczne obniżenie efektywnej różnorodności regulatora. Cena nie tyle upraszcza opis gospodarki, ile niszczy zdolność rozróżniania zakłóceń o odmiennej strukturze.
W przypadku centralnego planowania sytuacja wygląda inaczej. Plan nie opiera się na jednowymiarowym sygnale, lecz na wielowymiarowym opisie stanu gospodarki, obejmującym zarówno parametry ilościowe, jak i jakościowe. Zamiast sprowadzać wszystkie procesy do jednej miary wartości, plan może operować równolegle na takich wielkościach jak ilości fizyczne, parametry techniczne, wskaźniki jakościowe czy bezpośrednio wyrażone preferencje konsumentów. Za przykład można podać tony stali, kilowaty energii elektrycznej, ilość operacji zmiennoprzecinkowych na sekundę, ilość tranzystorów, podział procentowy asortymentu schodzącego ze sklepów, bezpośrednio wyrażone preferencje konsumentów w ankietach wielokrotnego wyboru, wskaźnik ścieralności, współczynnik odrzutu, współczynnik izolacji termicznej, procentowa zawartość pożądanych składników, gęstość i czystość materiałowa itd. Umożliwia to znacznie precyzyjniejsze sterowanie procesami gospodarczymi.
Analiza ceny jako jednowymiarowego sygnału regulacyjnego nie jest wyłącznie abstrakcyjnym rozważaniem teoretycznym. Ten sam mechanizm redukcji różnorodności ujawnia się wyraźnie w praktyce historycznej oraz we współczesnych dużych organizacjach, które – stając wobec problemu koordynacji systemów o wysokiej złożoności – stopniowo ograniczają rolę ceny jako podstawowego nośnika informacji regulacyjnej.
W pierwszych latach industrializacji ZSRR planowanie jako nowy regulator napotkało na taki sam problem, jak każdy inny nowy regulator – mogło początkowo ukazać jedynie niewielką część swojej efektywności. Wiele branż w dużej mierze operowało na jednowymiarowych parametrach: dominowały mało różnorodne wskaźniki ilościowe, a wiele jakościowo istotnych stopni swobody gospodarki pozostawało poza bezpośrednią obserwacją regulatora. Skutkowało to problemami typowymi dla systemu o niskiej rozdzielczości regulacyjnej.
Istotne jest jednak to, że problemy te nie wynikały z samej natury centralnego planowania, lecz z jego niedojrzałej i niepełnej formy. System ten nie dysponował wówczas wystarczającą różnorodnością regulacyjną, by skutecznie kompensować zakłócenia gospodarcze. W miarę rozwoju i zwiększania centralizacji systemu planowego następowało stopniowe zwiększanie liczby dyrektywnych parametrów opisujących stan gospodarki – plan przestał być wyłącznie ilościowy, a zaczął obejmować wskaźniki jakościowe, materiałochłonność, energochłonność oraz parametry techniczne.
Innymi słowy: regulator zwiększał swoją różnorodność, starając się lepiej absorbować różnorodność zakłóceń. To klasyczny mechanizm uczenia się regulatora, znany także w gospodarce rynkowej u jej początków, kiedy to generowała bardzo niską wydajność. W porównaniu do rynku, można jednak powiedzieć, iż proces dostosowywania się radzieckiego planu centralnego do różnorodności był znacznie szybszy, bo rozpoczął się już od 1933-1934 roku (dyrektywne planowanie wprowadzono w 1928) i osiągnął w latach 1948-1955 wyjątkowo namacalne efekty w postaci bardzo wysokich stóp wzrostu dla wszystkich gałęzi gospodarki w oparciu o wzrost wydajności pracy, znacznego spadku materiałochłonności i energochłonności oraz poprawy jakości dóbr.
Proces ten uległ odwróceniu w okresie decentralizacji zapoczątkowanej w Związku Radzieckim. Zmniejszenie liczby dyrektyw planu, poluzowanie kontroli nad jego wykonywaniem, reformy sownarchozów oraz późniejsze reformy Kosygina ograniczyły zdolność centrum do narzucania wielowymiarowych norm i parametrów. Jednocześnie zatrzymano proces dalszego doskonalenia metod planowania, mimo postępującego wzrostu złożoności gospodarki. W efekcie plan ponownie uległ uproszczeniu, a opis stanu gospodarki zaczął tracić rozdzielczość.
Powszechnie przywoływane niepowodzenia gospodarcze ZSRR z lat 60–80 (jak choćby słynne planowanie produkcji żyrandoli w tonach) nie wynikały z absurdu samej metody, lecz były symptomem utraty możliwości sterowania jakościowo istotnymi wymiarami produkcji. To nie centralne planowanie zawiniło, lecz jego postępująca erozja.
Ograniczenia ceny jako nośnika informacji regulacyjnej są jeszcze wyraźniej widoczne we współczesnej praktyce wielkich korporacji. Korporacje takie jak Amazon funkcjonują w środowisku rynkowym, lecz wewnętrznie w coraz mniejszym stopniu opierają się na cenie jako głównym sygnale koordynacyjnym. Zamiast tego wykorzystują wielowymiarowe opisy stanu systemu: dane o zachowaniach użytkowników, zapytaniach w wyszukiwarkach, opiniach, czasach dostaw, niezawodności, rozkładach prawdopodobieństwa popytu czy parametrach logistycznych. Cena, jeśli w ogóle występuje, pełni rolę wtórną i pomocniczą.
Z perspektywy cybernetycznej nie jest to przypadek. Wraz ze wzrostem złożoności systemu jednowymiarowy sygnał cenowy przestaje być wystarczający do rozróżniania stanów istotnych dla stabilności i optymalizacji procesów. Duże organizacje, chcąc skutecznie regulować swoje wewnętrzne procesy, zastępują agregację cenową agregacją wielowymiarową, zwiększając tym samym efektywną różnorodność regulatora. Tym samym potwierdzają w praktyce wniosek płynący z prawa Ashby’ego: regulacja systemów złożonych wymaga bogatszego opisu stanu niż ten, jaki oferuje cena.
Agregacja
Istotnym elementem utrzymania sterowalności systemu złożonego jest redukcja różnorodności docierającej do regulatora. Redukcji tej nie należy jednak rozumieć jako usuwania informacji, lecz jako jej przetwarzanie w taki sposób, aby nie przeciążyć kanału regulacyjnego. Regulator nie musi bowiem obserwować wszystkich detali systemu, lecz jedynie te rozróżnienia, które są istotne z punktu widzenia regulacji. Jednym z podstawowych mechanizmów realizujących tak rozumianą redukcję różnorodności jest agregacja.
Agregacja polega na łączeniu pewnych stopni swobody systemu w agregaty o mniejszej liczbie wymiarów. Może ona jednak przyjmować jakościowo różne formy. Kluczowe jest rozróżnienie pomiędzy agregacją, która kondensuje informację przy zachowaniu rozróżnień istotnych regulacyjnie, a agregacją, która niszczy te rozróżnienia, prowadząc do utraty zdolności sterowania.
Rozważmy system, którego stan opisany jest przez trzy zmienne: temperaturę, ciśnienie i przepływ. Każda z tych wielkości ma własne dopuszczalne zakresy i własną dynamikę, lecz z punktu widzenia bezpieczeństwa systemu istotna jest ich wspólna relacja do jednego kryterium – na przykład marginesu bezpieczeństwa. Zamiast przekazywać regulatorowi trzy niezależne sygnały, można je zagregować do jednej wielkości opisującej, jak daleko system znajduje się od granicy stanu krytycznego.
W takim przypadku agregacja redukuje liczbę obserwowanych zmiennych, zachowuje informację istotną dla regulacji i umożliwia szybszą i stabilniejszą reakcję regulatora.
Choć szczegóły poszczególnych parametrów zostają ukryte, regulator nadal potrafi jednoznacznie odróżnić stany bezpieczne od niebezpiecznych i odpowiednio reagować. Redukcja różnorodności nie prowadzi tu do utraty sterowalności, lecz ją umożliwia.
Rozważmy teraz inny przypadek. Załóżmy, że system opisany jest przez cztery jakościowo różne zmienne: trwałość, efektywność energetyczną, jakość wyjścia oraz stabilność czasową. Każda z nich odpowiada innemu typowi zakłóceń i wymaga innego rodzaju reakcji regulacyjnej. Zamiast obserwować je oddzielnie, regulator otrzymuje wyłącznie jedną zagregowaną wartość – na przykład „wydajność ogólną”.
W takiej sytuacji istnieją liczne konfiguracje systemu, które dają identyczną wartość agregatu, mimo że są jakościowo odmienne: system może być bardzo wydajny, lecz niestabilny; stabilny, lecz energochłonny; energooszczędny, lecz niskiej jakości. Dla regulatora wszystkie te stany są nierozróżnialne, choć wymagają zupełnie innych działań.
Tak skonstruowana agregacja nie zachowuje struktury zakłóceń, kolapsuje jakościowo różne stany w jeden sygnał i prowadzi do utraty zdolności kompensacji różnorodności. Nie jest to redukcja różnorodności w sensie funkcjonalnym, lecz jej destrukcja. Regulator traci informację nie dlatego, że jej nie przetwarza, lecz dlatego, że została ona zniszczona na etapie agregacji.
Cena jawi się w tym świetle jako szczególny przypadek agregacji destrukcyjnej. Jest ona jednowymiarowym superagregatem, który łączy w jedną liczbę ogromną pulę jakościowo odmiennych stopni swobody gospodarki. Parametry takie jak podział pracy, jakość, trwałość, energochłonność, bezpieczeństwo, wpływ środowiskowy, struktura technologiczna, dostępność surowców czy stabilność łańcuchów dostaw zostają sprowadzone do jednego sygnału, który nie zachowuje rozróżnień istotnych dla regulacji.
Z punktu widzenia cybernetycznego cena nie jest więc jedynie uproszczeniem opisu systemu, lecz mechanizmem prowadzącym do utraty obserwowalności. Regulator oparty na cenie nie widzi różnicy między zakłóceniami o odmiennej strukturze i nie jest w stanie ich adekwatnie kompensować. Tym samym agregacja cenowa obniża efektywną różnorodność regulatora poniżej poziomu wymaganego przez prawo Ashby’ego.
Kontrast pomiędzy gospodarką rynkową a centralnym planowaniem ujawnia się szczególnie wyraźnie na poziomie agregacji informacji. O ile rynek opiera się na jednym, uniwersalnym agregacie w postaci ceny, o tyle plan centralny dysponuje możliwością wielopoziomowej, selektywnej agregacji, dostosowanej do struktury regulowanego systemu.
W planowaniu centralnym agregacja nie polega na sprowadzeniu wszystkich stopni swobody do jednej miary, lecz na łączeniu zmiennych tego samego typu w agregaty zachowujące znaczenie regulacyjne. Parametry ilościowe, jakościowe, techniczne czy logistyczne agregowane są osobno, zgodnie z ich funkcją w systemie. W efekcie redukcja różnorodności nie niszczy informacji istotnej dla sterowania, lecz kondensuje ją w formę operacyjną.
Przykładowo, zamiast jednego sygnału cenowego, plan może operować równolegle na takich agregatach jak bilanse materiałowe, normy zużycia energii, wskaźniki jakościowe, rozkłady asortymentowe czy harmonogramy czasowe. Każdy z tych agregatów redukuje liczbę obserwowanych zmiennych, ale czyni to w sposób jednorodny jakościowo, nie mieszając różnych typów zakłóceń w jeden sygnał.
Kluczową różnicą jest to, że agregacja planowa jest strukturalna i hierarchiczna. Informacja jest stopniowo kondensowana na kolejnych poziomach organizacji: od zakładu, przez branżę, aż po poziom ogólnosystemowy. Na każdym poziomie zachowywane są rozróżnienia istotne dla danego szczebla regulacji, a dopiero zbędne szczegóły ulegają eliminacji. Dzięki temu plan może jednocześnie unikać przeciążenia kanałów regulacyjnych i zachować obserwowalność systemu jako całości.
Z perspektywy prawa Ashby’ego oznacza to, że plan centralny posiada mechanizm kontrolowanej redukcji różnorodności, który pozwala dopasować efektywną różnorodność regulatora do różnorodności zakłóceń. W przeciwieństwie do agregacji cenowej, redukcja ta nie jest jednokrokowa ani globalna, lecz rozłożona w czasie i przestrzeni struktury regulacyjnej.
Nie oznacza to, że każdy system planowy automatycznie spełnia warunki skutecznej regulacji. Niedostateczna liczba parametrów, błędna hierarchizacja lub niewłaściwe kryteria agregacji prowadzą do tych samych problemów, co w przypadku rynku: utraty rozdzielczości regulacyjnej i wzrostu niesterowalności. Różnica polega jednak na tym, że w planie centralnym ograniczenia te mają charakter projektowy, a nie strukturalnie nieusuwalny.
W tym sensie plan centralny nie jest przeciwieństwem agregacji, lecz jej rozwinięciem. Tam, gdzie rynek zmuszony jest do stosowania jednowymiarowego superagregatu, plan dysponuje architekturą pozwalającą na agregację wielowymiarową, selektywną i rekursywną. To właśnie ta architektura daje mu potencjalną zdolność spełnienia warunku niezbędnej różnorodności w systemach o wysokiej złożoności.
Taka wielowymiarowa agregacja umożliwia rozpoznanie i kompensacja zakłóceń, które dla mechanizmu rynkowego pozostają niewidoczne. Dzięki temu regulacja może następować przed pojawieniem się klasycznych objawów nierównowagi, co w systemach o wysokiej złożoności jest warunkiem utrzymania stabilności i uniknięcia kolapsu informacyjnego.
Model globalny systemu
Z prawem niezbędnej różnorodności wiąże się inne kluczowe prawo cybernetyki – twierdzenie dobrego regulatora (Conant–Ashby). Głosi ono, że każdy skuteczny regulator musi dysponować modelem systemu, którym steruje. Nie jest to zaskakujące, a wręcz stanowi naturalne uzupełnienie prawa niezbędnej różnorodności. Różnorodność regulatora nie jest bowiem „surową liczbą danych”, lecz zdolnością do rozróżniania stanów istotnych regulacyjnie i do dobierania adekwatnych reakcji. Bez modelu regulator nie potrafi przypisać obserwowanym sygnałom znaczenia sterowniczego, nie potrafi odróżnić zakłóceń o różnej strukturze ani przewidzieć skutków działań. W konsekwencji jego efektywna różnorodność spada poniżej różnorodności zakłóceń, a regulacja staje się niemożliwa.
Centralne planowanie, rozumiane jako system zbierania informacji i koordynacji na poziomie ogólnosystemowym, posiada tu strukturalną przewagę: umożliwia budowę globalnego modelu procesów gospodarczych. Nie oznacza to konieczności gromadzenia pełnej informacji o każdym detalu systemu, lecz selektywne pozyskiwanie danych istotnych z punktu widzenia trajektorii referencyjnej: bilansów, wąskich gardeł, zależności technologicznych, parametrów jakościowych, czasów realizacji, zasobów krytycznych. Innymi słowy: plan może (i musi) dążyć do modelu, który nie jest kompletnym odwzorowaniem rzeczywistości, lecz jest wystarczająco bogaty, aby rozróżniać stany istotne regulacyjnie. Taka zresztą w cybernetyce jest istota modelu. Kwestia tego, jak włączyć wiedzę lokalną i nie przeciążyć kanałów regulacyjnych, zostanie omówiona w dalszej części artykułu (na etapie hierarchizacji i rekursji regulacyjnej).
Inaczej wygląda sytuacja w przypadku rynku. Nie istnieje w nim pojedynczy podmiot, który zbiera informację o systemie jako całości; zamiast tego mamy heterarchię wielu podmiotów dysponujących lokalnymi, fragmentarycznymi obserwacjami. Pojedynczy przedsiębiorca może budować co najwyżej model własnego wycinka systemu: swojej branży, łańcucha dostaw, segmentu popytu. Z konieczności nie obejmuje on sieci zależności ogólnosystemowych, a w szczególności sprzężeń zwrotnych, które ujawniają się dopiero na poziomie całego układu. W efekcie rynek tworzy nie model systemu, lecz zbiór lokalnych mikromodeli.
Kluczowe jest to, że mikromodele nie sumują się do globalnego modelu systemu. Własności systemów złożonych nie wynikają z dodania własności części, ponieważ to relacje i sprzężenia między częściami generują zachowanie całości – w zasadzie jest to cecha definicyjna układu złożonego. Twierdzenie dobrego regulatora wymaga modelu systemu jako całości, a nie luźnej kolekcji modeli jego fragmentów. Rynek pozostaje więc zbiorem mikrosterowań opartych na cząstkowych modelach, które nie mają punktu synchronizacji, w którym mogłyby zostać złożone w spójny model regulacyjny.
Można to ująć za pomocą analogii: wyobraźmy sobie remont domu, którego podjęło się wielu niezależnych fachowców. Każdy z nich ma dostęp tylko do pomieszczenia, w którym pracuje, i nie może komunikować się z pozostałymi. Chociaż wszyscy wykonują swoje zadania rzetelnie i racjonalnie ze swojego punktu widzenia, udany remont domu nie jest prostą sumą remontów poszczególnych pokoi. W takim układzie rura hydraulika może przechodzić przez środek rozdzielni elektrycznej, a murarz może zamurować dostęp do zaworu wody. Podobnie wygląda sytuacja dziesięciu kierowców uwięzionych w korku, z których każdy używa nawigacji GPS do wyznaczenia optymalnej trasy. System każdemu z nich podpowiada to samo rozwiązanie – objazd przez pobliską wioskę – co w efekcie prowadzi do jej błyskawicznego zablokowania. Gdyby zamiast sumowania lokalnych perspektyw zastosowano model globalny, do takiej sytuacji by nie doszło.
Wreszcie – argument o rzekomym „sumowaniu się” rozproszonej wiedzy lokalnej jest nie do obrony na gruncie matematyki formalnej. Opiera się on na błędnym założeniu, że system gospodarczy jest liniowy i addytywny, czyli taki, w którym wpływ jednego elementu nie zależy od stanu innych.
Aby to wykazać, rozważmy prosty model interakcji. Niech kluczowa cecha systemu (np. efektywność złożonego procesu) opisana będzie funkcją iloczynu:
Załóżmy, że podmiot A obserwuje i optymalizuje wyłącznie zmienną , a podmiot B wyłącznie zmienną . Jest to klasyczna sytuacja rynkowa: podział wiedzy i brak wspólnego modelu.
Kluczowy fakt matematyczny polega jednak na tym, że nie sposób odtworzyć globalnej funkcji systemu poprzez proste dodanie do siebie wiedzy tych podmiotów. Nie istnieją bowiem takie funkcje lokalne i , które spełniałyby równanie:
Jest to zjawisko braku addytywnej separowalności. Oznacza ono, że w systemie zawierającym interakcje (mnożenie) wartość wnoszona przez zmienną jest nierozerwalnie zależna od poziomu zmiennej . Suma lokalnych optymalizacji nie daje tu optymalizacji globalnej, ponieważ żaden z podmiotów nie widzi składnika interakcji – widzi go dopiero model globalny.
W analizie matematycznej zachodzi następująca własność: jeżeli funkcja wielu zmiennych jest addytywnie separowalna (tzn. da się ją zapisać jako sumę funkcji zależnych od pojedynczych zmiennych), to jej pochodne mieszane są równe zeru. Innymi słowy, brak sprzężeń między zmiennymi wyraża się formalnie przez zerowanie pochodnych mieszanych.
Dla funkcji pochodna mieszana jest różna od zera, co oznacza istnienie sprzężenia między zmiennymi i formalnie wyklucza możliwość addytywnego rozkładu funkcji.
Zastosowanie tego przykładu nie ma charakteru metaforycznego. W cybernetycznym i ekonomicznym opisie gospodarki przyjmuje się, że własności globalne systemu są funkcją jego zmiennych stanu. Gdyby funkcja ta była addytywnie separowalna, oznaczałoby to brak relacji i sprzężeń pomiędzy elementami systemu. W gospodarce sytuacja taka nie zachodzi: produktywność, popyt, stabilność i tempo wzrostu zależą od wzajemnych relacji między sektorami, technologiami i zasobami.
Formalnie oznacza to, że w gospodarce pochodne mieszane nie są zerowe. Gospodarka jest więc systemem nieliniowym w sensie ścisłym, a jej własności globalne nie mogą zostać odtworzone przez sumę lokalnych modeli.
Hierarchizacja i rekursja regulacyjna
Kolejnym sposobem redukcji różnorodności regulatora jest hierarchizacja. Polega ona na delegowaniu różnych rodzajów zadań i decyzji na różne poziomy sterowania. Każdy szczebel przetwarza określony typ informacji i wykonuje działania najlepiej dopasowane do swojego poziomu ogólności. Dzięki temu informacja nie przeciąża kanałów regulacyjnych, a regulator zachowuje zdolność reagowania na zakłócenia o różnej skali.
Planowanie centralne w naturalny sposób sięga po hierarchizację oraz rekursję regulacyjną na różnych poziomach instytucji planistycznych. Urząd centralny zbiera, agreguje i filtruje informacje od urzędów regionalnych, te zaś agregują i filtrują dane napływające z urzędów lokalnych. Lokalne jednostki zbierają informacje o stanie zakładów w okolicy, dostępności surowców, nastrojach konsumenckich, stanie siły roboczej, technicznym uzbrojeniu produkcji czy lokalnych zakłóceniach. Informacja ta przesyłana jest następnie w górę struktury, gdzie podlega agregacji i filtrowaniu odpowiednio do poziomu sterowania.
W oparciu o dane zagregowane na poziomie globalnym centralny planista podejmuje decyzje dotyczące kierunków i profilu produkcji poszczególnych zakładów w taki sposób, aby maksymalizować realizację trajektorii referencyjnej gospodarki. Decyzje te przekazywane są następnie w dół struktury, gdzie ulegają dalszej konkretyzacji. Mechanizm raportowania od dołu do góry oraz podejmowania decyzji od góry do dołu tworzy dla systemu sprzężenie zwrotne ujemne, stabilizujące jego dynamikę.
Hierarchizacja umożliwia jednocześnie rozwiązanie dwóch pozornie sprzecznych problemów. Z jednej strony centrum nie cierpi na brak wiedzy lokalnej, ponieważ jest ona systematycznie raportowana. Z drugiej strony nie zostaje ono przeciążone nadmiarem detali, gdyż dzięki rekursji regulacyjnej dysponuje wyłącznie informacją istotną regulacyjnie, pozbawioną szumów. Równocześnie niższe szczeble podejmują decyzje w ramach globalnego modelu systemu, a nie w oparciu o modele jedynie lokalnych wycinków.
Zupełnie inaczej wygląda sytuacja w gospodarce rynkowej. Jej naturalna heterarchia uniemożliwia powstanie pionowej struktury hierarchicznej w sensie cybernetycznym. Choć w ramach rynku istnieją organizacje, korporacje i sieci kontraktowe, nie tworzą one spójnego systemu regulacyjnego obejmującego gospodarkę jako całość. Brakuje tu jednolitego mechanizmu raportowania, agregacji i filtracji informacji od dołu do góry oraz podejmowania decyzji od góry do dołu w oparciu o globalny model systemu.
Informacja w gospodarce rynkowej pozostaje rozproszona i lokalna. Poszczególne podmioty przetwarzają dane istotne wyłącznie z punktu widzenia własnych interesów i własnego wycinka systemu. Nie istnieje poziom, na którym następowałoby systematyczne łączenie informacji lokalnych w spójny opis stanu gospodarki jako całości. W efekcie heterarchia rynku nie prowadzi do hierarchicznej redukcji różnorodności, lecz do jej rozproszenia: każdy podmiot posiada własny cząstkowy model, a żaden nie dysponuje modelem globalnym.
Brak hierarchii regulacyjnej oznacza również brak rekursji regulacyjnej. Decyzje podejmowane lokalnie nie są osadzane w strukturze nadrzędnych celów i ograniczeń systemowych, a ich skutki nie są korygowane przez wyższe poziomy sterowania. Sprzężenia zwrotne mają charakter pośredni, opóźniony i często dodatni, zamiast projektowanych sprzężeń ujemnych stabilizujących trajektorię systemu.
W tym miejscu często podnosi się argument o rzekomej większej elastyczności rynku i jego zdolności do szybkich zmian strukturalnych. Argument ten dotyczy jednak problemu adaptacji, a nie regulacji w sensie cybernetycznym. Analiza mechanizmów adaptacyjnych wykracza poza ramy niniejszego artykułu i zostanie podjęta w osobnym tekście. W kontekście regulacji kluczowe pozostaje to, że heterarchia rynku nie umożliwia integracji wiedzy lokalnej w globalny model systemu.
Z punktu widzenia prawa Ashby’ego oznacza to, że hierarchizacja w planowaniu centralnym nie jest rozwiązaniem organizacyjnym ani biurokratycznym dodatkiem, lecz koniecznym mechanizmem dystrybucji różnorodności regulatora pomiędzy poziomy sterowania. To ona pozwala jednocześnie korzystać z wiedzy lokalnej i zachować zdolność regulacji systemu jako całości.
Często podnoszonym zarzutem wobec planowania centralnego jest twierdzenie, że w procesie agregacji informacji do poziomu centralnego ginie wiedza lokalna. Zarzut ten pomija jednak podstawowy fakt cybernetyczny: w systemach złożonych agregacja informacji jest warunkiem koniecznym regulacji, ponieważ bez niej regulator zostałby przeciążony szumami.
Zadaniem agregacji i filtracji nie jest zachowanie całej informacji, lecz wyodrębnienie informacji istotnej regulacyjnie – ta bynajmniej nie ginie - i odrzucenie szumu. W dobrze zaprojektowanym systemie hierarchicznym proces ten przebiega w sposób precyzyjny i celowy: każdy poziom sterowania przekazuje wyżej wyłącznie te informacje, które są istotne z punktu widzenia decyzji podejmowanych na danym szczeblu – istotne informacje dla wyższego poziomu nie znikają, lecz są starannie selekcjonowane do przekazania. Informacja zaś, która jest kluczowa dla mikrodecyzji operacyjnych, pozostaje na poziomie lokalnym, ponieważ z perspektywy centrum nie ma ona wartości regulacyjnej i stanowiłaby jedynie źródło szumu.
Nawet w najbardziej scentralizowanych systemach mikrodecyzje operacyjne nie są i nie mogą być centralizowane. Decyzje dotyczące bieżącej organizacji pracy, drobnych korekt technologicznych czy lokalnych warunków realizacji planu pozostają w gestii niższych szczebli. Centralizacja dotyczy wyłącznie decyzji regulacyjnych o znaczeniu ogólnosystemowym, a nie pełnej informacji o każdym najmniejszym detalu funkcjonowania systemu.
Ponadto, jeżeli przyjąć argument, że agregacja informacji nieuchronnie „zabija” wiedzę lokalną, to należałoby uznać za najbardziej destrukcyjny mechanizm regulacyjny cenę rynkową, która stanowi skrajny przypadek hiperagregacji. Cena redukuje wielowymiarową informację o stanie systemu do pojedynczego skalaru, tracąc niemal całą strukturę relacji i uwarunkowań. W porównaniu z nią hierarchiczna agregacja planistyczna, zachowująca wiele wymiarów informacji na odpowiednich poziomach sterowania, jest mechanizmem nieporównywalnie mniej destrukcyjnym informacyjnie.
Entropia decyzyjna
Jednym z największych zagrożeń dla systemów złożonych jest wysoka entropia decyzyjna. Im bardziej złożony system, tym większa liczba potencjalnych decyzji, które mogą zostać podjęte w danym momencie, a tym samym – tym większa liczba możliwych zakłóceń generowanych przez same decyzje sterujące. Entropia decyzyjna wprost zwiększa różnorodność zakłóceń działających na system. Oznacza to, że aby system złożony nie uległ destabilizacji pod wpływem własnych decyzji, musi dysponować regulatorem o wyjątkowo dużej efektywnej różnorodności.
Gospodarka rynkowa cechuje się systemową entropią decyzyjną. Mnogość autonomicznych aktorów, podejmujących jednowymiarowe decyzje w oparciu o lokalne sygnały i bez dostępu do globalnego modelu systemu, sprawia, że każda decyzja obarczona jest dużą niepewnością co do jej skutków ogólnosystemowych. Brak synchronizacji decyzji dodatkowo wzmacnia to zjawisko: decyzje podejmowane niezależnie i asynchronicznie generują ogromną liczbę możliwych konfiguracji systemu, z których znaczna część ma charakter zakłóceniowy.
W efekcie rynek nie tylko reaguje na zakłócenia zewnętrzne, lecz sam produkuje zakłócenia na masową skalę, wynikające z nieskoordynowanych decyzji alokacyjnych. Z punktu widzenia prawa Ashby’ego oznacza to drastyczny wzrost różnorodności zakłóceń, przy jednoczesnym braku mechanizmu ich redukcji na poziomie systemowym.
Inaczej wygląda sytuacja w przypadku centralnego planowania. Dostęp do globalnego, wielowymiarowego modelu gospodarki umożliwia odgórną synchronizację decyzji oraz ich ukierunkowanie względem trajektorii referencyjnej. Centralny regulator nie eliminuje całkowicie ryzyka błędów decyzyjnych, lecz znacząco zawęża przestrzeń możliwych decyzji, a tym samym redukuje entropię decyzyjną systemu. Decyzje nie są podejmowane niezależnie, lecz w ramach spójnego modelu zależności i ograniczeń. Przykładowo, właściciel prywatnego przedsiębiorstwa, podejmując decyzję alokacyjną, obarczony jest szeregiem potencjalnych zakłóceń. Może duplikować wysiłki innych podmiotów, marnując zasoby. Może podjąć decyzję prowadzącą do upadku własnego zakładu, co pociąga za sobą zerwanie łańcuchów dostaw i zaburzenia u kontrahentów. Może również wytwarzać dobra, na które nie istnieje realny popyt, prowadząc do marnotrawstwa pracy i surowców. Centralny planista, dysponując wiedzą o produkcji wszystkich zakładów, sieci powiązań branżowych oraz strukturze popytu, jest w stanie takie błędy ograniczać lub im zapobiegać poprzez koordynację decyzji już na etapie planowania.
Często podnosi się zarzut, że w przypadku centralnego planowania błąd decyzyjny może dotknąć cały system, podczas gdy w gospodarce rynkowej skutki błędów ograniczają się do pojedynczych podmiotów. Argument ten pomija jednak kluczową różnicę cybernetyczną między zakresem skutków błędu a częstością i strukturą błędów. W gospodarce rynkowej błędy decyzyjne są rozproszone, lecz występują masowo i permanentnie. Każda niezależna decyzja obarczona wysoką entropią decyzyjną generuje potencjalne zakłócenia, które mogą propagować się przez sieć powiązań gospodarczych. Skumulowany efekt tysięcy lokalnych błędów często prowadzi do zaburzeń systemowych, mimo że żaden z nich nie był „globalny” w intencji.
Centralne planowanie działa odwrotnie: redukuje liczbę możliwych decyzji i ich losowość, drastycznie zmniejszając częstość błędów. Z punktu widzenia cybernetyki nie jest to wada, lecz kontrolowana centralizacja ryzyka, która umożliwia jego identyfikację, korektę i kompensację poprzez sprzężenia zwrotne ujemne. Błąd scentralizowany jest błędem widocznym i korygowalnym; błąd rozproszony w heterarchii rynku pozostaje często niewidoczny aż do momentu kryzysu.
W konsekwencji to nie skala pojedynczego błędu, lecz struktura generowania i korekty błędów decyduje o stabilności systemu. Z perspektywy prawa Ashby’ego centralne planowanie ogranicza entropię decyzyjną u źródła, podczas gdy rynek internalizuje ją jako permanentne źródło zakłóceń.
Argument, że błąd centralnego planowania dotyka całego systemu, podczas gdy błąd jednostkowy na rynku dotyczy tylko pojedynczego podmiotu, opiera się na błędnym rozumowaniu. Jest on analogiczny do stwierdzenia, że skoro przy chaotycznym gaszeniu pożaru każdy może używać dowolnych metod, to błąd jednego uczestnika dotknie tylko jego samego, natomiast w przypadku zorganizowanej straży pożarnej błędna decyzja może zagrozić wszystkim, więc lepiej zlikwidować straż pożarną i gasić pożary chaotycznie.
Rozumowanie to pomija fakt, że w pierwszym przypadku liczba błędów jest ogromna i niekontrolowana, a ich skumulowany efekt prowadzi do rozprzestrzenienia się pożaru, podczas gdy w drugim przypadku błędy są rzadsze, widoczne i korygowalne. Problemem nie jest skala pojedynczego błędu, lecz struktura jego generowania i zdolność systemu do jego korekty.
Często zakłada się, że błędy mikroaktorów w gospodarce rynkowej mają wyłącznie lokalne skutki, podczas gdy błąd centralnego planisty oddziałuje bezpośrednio na cały system. Rozróżnienie to jest jednak uproszczone i nie oddaje rzeczywistej dynamiki systemów złożonych. W praktyce błędy mikroaktorów oddziałują na całość systemu pośrednio, lecz poprzez sieć powiązań i sprzężeń mogą się kumulować i propagować, prowadząc do zaburzeń ogólnosystemowych. Lokalność decyzji nie oznacza lokalności jej skutków.
Równocześnie argument o „katastrofalnej skali” błędu centralnego planowania przecenia zarówno prawdopodobieństwo takiego błędu, jak i jego trwałość. W systemie hierarchicznym ryzyko popełnienia błędu fundamentalnego jest relatywnie niskie, ponieważ decyzje podejmowane są w oparciu o globalny model systemu i podlegają ciągłej weryfikacji przez sprzężenia zwrotne. Zdecydowana większość błędów ma charakter zwykłych odchyleń, które mogą zostać szybko wykryte i skorygowane dzięki centralnej koordynacji. Kluczowe znaczenie ma tu nie hipotetyczna możliwość błędu o dużym zasięgu, lecz zdolność systemu do jego identyfikacji i korekty.
Dobrą ilustracją tej różnicy jest porównanie systemów energetycznych. Elektrownia jądrowa jest obiektem o potencjalnie dużym zasięgu oddziaływania w przypadku awarii, lecz jednocześnie charakteryzuje się bardzo niskim prawdopodobieństwem poważnego błędu oraz rozbudowanym systemem zabezpieczeń, monitoringu i procedur korekcyjnych. Rozpalanie ognia w sposób chaotyczny, bez kontroli i koordynacji, niesie natomiast mniejsze skutki pojedynczego błędu, lecz generuje je masowo i bez mechanizmu ich izolacji. Z punktu widzenia teorii ryzyka istotna jest nie maksymalna możliwa szkoda, lecz iloczyn prawdopodobieństwa i skali skutków, a także zdolność systemu do ograniczania i korygowania odchyleń.
Analogicznie w gospodarce: centralne planowanie centralizuje ryzyko, ale jednocześnie je kontroluje i minimalizuje, podczas gdy rynek rozprasza decyzje, lecz generuje trwałą nadprodukcję nieskoordynowanych błędów. Z perspektywy cybernetycznej nie decyduje więc to, czy błąd może być „duży”, lecz to, czy system posiada regulator zdolny do jego szybkiej detekcji i kompensacji.
Na koniec zauważmy, że w systemach złożonych lokalne zakłócenia mogą ulegać nieliniowej propagacji do poziomu systemowej katastrofy. W gospodarce rynkowej brak mechanizmów izolacji sprawia, że błąd pojedynczego aktora – bankructwo zakładu, decyzja kredytowa, zerwanie kontraktu – może poprzez sieć powiązań finansowych, logistycznych i informacyjnych rozprzestrzenić się na znacznie szerszą skalę. Zjawisko to jest dobrze znane w teorii systemów jako efekt motyla, w którym niewielkie odchylenie początkowe prowadzi do nieproporcjonalnych skutków globalnych. Oznacza to, że nie tylko centralny plan może wygenerować błąd, który dotknie wszystkich. W istocie to taki efekt motyla w postaci upadku Lehman Brothers w 2008 roku był przyczyną wielkiego kryzysu finansowego świata kapitalistycznego.
Celowa produkcja dodatnich sprzężeń zwrotnych
Ponadto gospodarka rynkowa nie tylko nie kompensuje w pełni zakłóceń, lecz endogennie produkuje dodatnie sprzężenia zwrotne, zwiększając różnorodność zakłóceń bez jednoczesnego zwiększania różnorodności regulacji. Mechanizm ten nie jest anomalią ani patologią, lecz wynika bezpośrednio ze struktury konkurencji rynkowej. Wbudowaną cechą konkurencji jest eliminacja części podmiotów z procesu gospodarczego. Eliminacja ta oznacza nie tylko zmianę właściciela zasobów, lecz często ich czasowe lub trwałe wyłączenie z obiegu: przestoje produkcyjne, zerwanie łańcuchów dostaw, utratę kompetencji pracowników, degradację kapitału technicznego i organizacyjnego. Każde takie wyłączenie stanowi zakłócenie, które propaguje się przez sieć powiązań gospodarczych, generując dodatnie sprzężenia zwrotne.
Najbardziej skrajną formą tego mechanizmu są kryzysy gospodarcze, które pełnią funkcję rynkowego „oczyszczania”. Kryzysy nie redukują jednak zakłóceń w sposób kontrolowany, lecz dokonują ich gwałtownej kumulacji i propagacji, prowadząc do masowej destrukcji kapitału materialnego, ludzkiego i organizacyjnego. Z punktu widzenia cybernetycznego kryzys jest przykładem silnego dodatniego sprzężenia zwrotnego, w którym lokalne zaburzenia zostają wzmocnione do skali systemowej.
Dodatkowym źródłem dodatnich sprzężeń zwrotnych są celowe działania podmiotów rynkowych, ukierunkowane na optymalizację lokalną kosztem stabilności systemu jako całości. Należą do nich między innymi eksternalizacja kosztów zewnętrznych, planowe postarzanie produktów, blokowanie lub niszczenie innowacyjnego kapitału przez zagrożone nim sektory starej struktury produkcyjnej, a także kreowanie popytu na dobra szkodliwe z punktu widzenia długookresowej trajektorii referencyjnej systemu. Działania te zwiększają zmienność i niestabilność systemu, generując zakłócenia, których rynek nie posiada mechanizmu neutralizacji na poziomie ogólnosystemowym.
W przeciwieństwie do tego centralne planowanie nie posiada endogennych mechanizmów celowej produkcji dodatnich sprzężeń zwrotnych. Jego struktura regulacyjna nie premiuje eliminacji podmiotów ani destrukcji zasobów jako metody koordynacji, lecz opiera się na projektowanych sprzężeniach zwrotnych ujemnych, mających na celu stabilizację systemu względem zadanej trajektorii referencyjnej. Oznacza to, że zakłócenia są traktowane jako odchylenia wymagające kompensacji, a nie jako narzędzie selekcji.
Izolacja zakłóceń
Istotnym elementem minimalizacji zakłóceń w systemach złożonych jest zdolność regulatora do ich izolowania, tak aby lokalne odchylenie nie przyjmowało skali globalnej. Regulator, aby spełniać warunek optymalności w świetle prawa wymaganej różnorodności Ashby’ego, musi być zdolny do pochłaniania zakłóceń na możliwie najniższym poziomie organizacyjnym. W przeciwnym razie tempo narastania różnorodności zakłóceń znacznie przewyższa tempo wzrostu efektywnej różnorodności regulatora, prowadząc do destabilizacji systemu.
Zdolność izolacji zakłóceń posiada wyłącznie regulator dysponujący globalnym modelem systemu oraz zhierarchizowaną strukturą sterowania, umożliwiającą synchronizację działań jego elementów. W warunkach autonomii wielu aktorów, pozbawionych dostępu do całościowego modelu i działających niezależnie, skuteczna izolacja zakłóceń staje się niemożliwa. Brak koordynacji powoduje, że reakcje na zakłócenie nie są zsynchronizowane, a ich efekty mogą się wzajemnie wzmacniać.
Centralne planowanie spełnia warunki izolacji zakłóceń w sposób strukturalny. Jeżeli w danym zakładzie, regionie lub sektorze zostanie wykryta usterka, przestój lub inny typ zakłócenia, informacja ta jest raportowana do poziomu centralnego. Na podstawie globalnego modelu powiązań produkcyjnych i logistycznych następuje przestrojenie aktywności zarówno w miejscu wystąpienia zakłócenia, jak i w jednostkach znajdujących się na potencjalnej trajektorii jego propagacji. Celem tych działań jest minimalizacja skutków zakłócenia oraz zapobieżenie jego dalszemu rozprzestrzenianiu się.
Gospodarka rynkowa nie dysponuje natomiast organem stojącym ponad bieżącą aktywnością podmiotów, który mógłby dokonać takiej koordynacji. Mechanizm samoregulacji rynku opiera się na działaniach heterarchicznych aktorów, posiadających jedynie fragmentaryczną wiedzę o systemie i kierujących się własnym interesem decyzyjnym.
W takim układzie zakłócenie powstałe w jednym miejscu może pozostać poza horyzontem informacyjnym innych podmiotów, a jednostki znajdujące się na linii jego oddziaływania nie dysponują żadnymi systemowymi zabezpieczeniami przed jego skutkami.
W konsekwencji zakłócenia w gospodarce rynkowej mają tendencję do propagacji kaskadowej, a w skrajnych przypadkach mogą przybierać postać nieproporcjonalnych efektów systemowych, znanych w teorii systemów jako efekt motyla. Z punktu widzenia prawa Ashby’ego oznacza to, że rynek nie tylko nie izoluje zakłóceń, lecz sprzyja ich rozprzestrzenianiu, zwiększając efektywną różnorodność zakłóceń ponad zdolności regulacyjne systemu.
Czy mnogość aktorów na rynku oznacza większą różnorodność?
Często podnoszonym argumentem na rzecz gospodarki rynkowej jest twierdzenie, że stanowi ona wyjątkowo różnorodny regulator, ponieważ składa się z milionów niezależnych aktorów: przedsiębiorstw i konsumentów. Argument ten opiera się jednak na błędnym utożsamieniu liczby elementów systemu z efektywną różnorodnością regulatora w sensie prawa Ashby’ego.
Po pierwsze, należy zauważyć, że ta sama fizyczna baza aktorów istnieje również w gospodarce planowej. Zakłady produkcyjne, przedsiębiorstwa, pracownicy i konsumenci nie znikają wraz z wprowadzeniem planowania centralnego. Przeciwnie – zostają one wprost włączone do systemu regulacyjnego jako jednostki planu, wyposażone w określone role, zadania oraz kanały raportowania. Sama liczba aktorów nie stanowi więc żadnego wyróżnika rynku wobec planu.
Po drugie, w planowaniu centralnym funkcjonuje rozbudowana, wielopoziomowa hierarchia instytucji regulacyjnych: od poziomu zakładowego i lokalnego, przez regionalny, aż po centralny. Każdy szczebel przetwarza informację i podejmuje decyzje w zakresie odpowiadającym jego kompetencjom. Oznacza to, że liczba aktorów uczestniczących w procesie regulacji nie jest w planie mniejsza niż na rynku, lecz inaczej zorganizowana. Różnica nie polega na ilości elementów systemu, lecz na strukturze relacji regulacyjnych między nimi.
Po trzecie, rynek jako regulator nie jest zbiorem aktorów, lecz zbiorem relacji koordynacyjnych pomiędzy nimi. To właśnie te relacje – a nie sama liczba uczestników – decydują o efektywnej różnorodności regulatora. W gospodarce rynkowej relacje te są skrajnie uproszczone i opierają się głównie na jednowymiarowym sygnale ceny oraz pochodnych bodźcach popytowo-podażowych. W gospodarce planowej relacje regulacyjne są natomiast znacznie bogatsze: obejmują bezpośrednie parametry ilościowe i jakościowe, harmonogramy, normy technologiczne, powiązania materiałowe i energetyczne oraz hierarchiczne sprzężenia zwrotne.
Po czwarte, mnogość aktorów rynkowych nie przekłada się na wzrost różnorodności regulatora, ponieważ ich decyzje nie są niezależne w sensie regulacyjnym. Są one silnie skorelowane poprzez wspólne sygnały cenowe, oczekiwania i bodźce informacyjne, co prowadzi do konwergencji zachowań, efektów stadnych i masowych reakcji. Z punktu widzenia cybernetycznego oznacza to redukcję, a nie zwiększenie różnorodności, mimo pozornej liczebności decydentów.
Po piąte, brak hierarchii i synchronizacji sprawia, że różnorodność decyzji rynkowych nie jest dystrybuowana funkcjonalnie pomiędzy poziomy sterowania. Zamiast pochłaniać zakłócenia, rynek generuje wysoką entropię decyzyjną i zwiększa liczbę potencjalnych zakłóceń, nie dysponując mechanizmem ich koordynacji względem trajektorii referencyjnej systemu.
Centralne planowanie działa odwrotnie: nie maksymalizuje liczby autonomicznych decyzji, lecz maksymalizuje efektywną różnorodność regulatora poprzez wielowymiarowy opis systemu, hierarchizację decyzji oraz synchronizację działań na wszystkich szczeblach. W świetle prawa Ashby’ego o zdolności regulacyjnej nie decyduje liczba aktorów, lecz bogactwo i struktura relacji sterujących, jakie regulator jest w stanie wytworzyć.
Wykonalność centralnego planowania
Często pojawiający się zarzut wobec centralnego planowania głosi, że budowa globalnego modelu systemu, ograniczanie przestrzeni decyzyjnej, globalna koordynacja, odgórne zbierania wiedzy lokalnej oraz przetwarzanie wielowymiarowej informacji przekracza realne możliwości jakiegokolwiek regulatora. Zarzut ten opiera się jednak na błędnym założeniu, że skuteczna regulacja systemu złożonego wymaga pełnego, fotograficznego odwzorowania wszystkich jego detali. W rzeczywistości cybernetyka od początku zakłada, że regulator operuje na modelu uproszczonym, zawierającym wyłącznie informacje istotne regulacyjnie, a nie na kompletnej kopii systemu.
Po drugie, przekonanie to bazuje na fałszywej intuicji rozdźwięku między pozornie „prostym” procesem, jakim jest sterowanie, a gigantyczną złożonością życia społecznego. To jednak nieprawdziwe uproszczenie, wynikające z obserwacji życia codziennego, gdzie ciągle spotykamy się z ogromem złożoności społeczeństwa, a rzadko kiedy ze złożonymi mechanizmami regulacyjnymi, które wykonywane są w ośrodkach specjalistycznych, a więc poza źródłem codziennej intuicji.
Historia dostarcza licznych dowodów, że złożone procesy gospodarcze i logistyczne były skutecznie koordynowane bez użycia nowoczesnych narzędzi obliczeniowych, wyłącznie przy pomocy przetwarzania analogowego, hierarchii organizacyjnej i procedur raportowania. Przykładami są wielkoskalowe operacje gospodarczo-logistyczne związane z globalnymi konfliktami: wojną siedmioletnią, wojnami napoleońskimi oraz I i II wojną światową, w których koordynowano produkcję, transport, zaopatrzenie i mobilizację milionów ludzi oraz ogromnych zasobów materialnych. Fakt ich realizacji dowodzi, że przetwarzanie informacji koniecznej do regulacji systemów o ogromnej złożoności było możliwe nawet przy bardzo ograniczonych środkach technicznych.
Dodatkowym empirycznym potwierdzeniem wykonalności planowania jest praktyka państw socjalistycznych, w szczególności Związku Radzieckiego w okresie industrializacji, odbudowy powojennej i cudu gospodarczego lat 50. Pomimo ograniczeń technicznych i niedojrzałości instytucjonalnej we wczesnych fazach, system planowy był w stanie koordynować procesy produkcyjne o skali i złożoności nieosiągalnej dla gospodarek rynkowych tamtego okresu. Osiągnięcia w zakresie industrializacji, elektryfikacji, rozwoju przemysłu ciężkiego, energetyki jądrowej, czy programu kosmicznego stanowią dowód, że centralna regulacja gospodarki była nie tylko możliwa, lecz także skuteczna.
Tak wysokich stóp wzrostu dochodu narodowego, produkcji przemysłowej, wydajności pracy, TFP oraz skali własnych, pionierskich rozwiązań technologicznych co ZSRR w latach 1928-1961 (w szczególności w dojrzalszej, późniejszej fazie tego okresu) nie osiągnął nigdy żaden kraj kapitalistyczny w tak dużym zakresie geograficznym w tak niesprzyjających warunkach. Dowodzą temu nie radziecka propaganda, lecz cenione w światowym środowisku akademickim analizy takich autorów jak Grigorij Chanin, Władimir Popow czy Robert William Davies, a także raporty CIA.
Późniejszy zaś spadek dynamiki w latach 60-80. wynikał - jak już wspomniano - z przemilczanego w mainstreamowym przekazie demontażu gospodarki planowej postępującego od czasów Chruszczowa, na długo, długo przed początkiem pieriestrojki.
Co istotne, wraz ze wzrostem złożoności systemu rośnie również potencjalna moc obliczeniowa regulatora. Współczesne cyfrowe narzędzia analizy danych, systemy Big Data oraz algorytmy sztucznej inteligencji umożliwiają przetwarzanie informacji o skali i szczegółowości nieporównywalnej z możliwościami przeszłych epok.
Empirycznym dowodem tej tezy jest praktyka wielkich korporacji, które już dziś koordynują globalne łańcuchy produkcji, logistyki i dystrybucji w oparciu o zasilany nowoczesnymi technologiami scentralizowany plan, a nie o mechanizm rynkowy w sensie klasycznym.
Oznacza to, że argument o niewykonalności planowania traci rację bytu wraz z rozwojem narzędzi regulacyjnych. Jeżeli wielkie systemy prywatne o skali państw są w stanie skutecznie modelować i sterować złożonymi procesami gospodarczymi przy użyciu nowoczesnych technologii informacyjnych, to tym bardziej możliwe jest zastosowanie tych samych zasad na poziomie ogólnosystemowym. Z punktu widzenia cybernetyki problemem nie jest więc brak możliwości technicznych, lecz architektura regulacyjna oraz sposób dystrybucji decyzji i informacji.
Podsumowanie
Przeprowadzona analiza sporu między gospodarką rynkową a centralnym planowaniem w świetle prawa wymaganej różnorodności Ashby’ego prowadzi do jednoznacznych wniosków. Gospodarka jako system złożony wymaga regulatora zdolnego do pochłaniania różnorodności zakłóceń poprzez wielowymiarowy opis stanu, funkcjonalną agregację, hierarchizację decyzji, redukcję entropii decyzyjnej oraz izolację zakłóceń. Kryteria te nie mają charakteru ideologicznego, lecz wynikają bezpośrednio z formalnych własności systemów złożonych.
Rynek nie spełnia tych warunków. Jako mechanizm koordynacji oparty na jednowymiarowym sygnale ceny, heterarchii decyzji i braku globalnego modelu, redukuje informację w sposób destrukcyjny, generuje wysoką entropię decyzyjną oraz sprzyja propagacji zakłóceń poprzez dodatnie sprzężenia zwrotne. Mnogość aktorów rynkowych nie zwiększa efektywnej różnorodności regulatora, lecz prowadzi do konwergencji reakcji i nadprodukcji nieskoordynowanych decyzji, które rynek nie jest w stanie pochłonąć.
Centralne planowanie działa odwrotnie. Nie eliminuje ono aktorów systemu ani wiedzy lokalnej, lecz włącza je w zhierarchizowaną strukturę regulacyjną, umożliwiającą efektywną, selektywną agregację informacji, synchronizację decyzji oraz lokalne tłumienie zakłóceń. Dzięki istnieniu globalnego modelu systemu plan centralny może ograniczać przestrzeń decyzyjną do wariantów zgodnych z trajektorią referencyjną, redukując entropię decyzyjną i zapobiegając kaskadowej propagacji błędów.
Argumenty o rzekomej niewykonalności planowania tracą rację bytu zarówno w świetle doświadczeń historycznych, jak i współczesnych praktyk dużych korporacji. Skoro złożone procesy gospodarcze były skutecznie koordynowane przy użyciu narzędzi analogowych, a dziś prywatne podmioty wykorzystują Big Data i sztuczną inteligencję do centralnej koordynacji globalnych systemów produkcji i dystrybucji, to problemem nie są ograniczenia techniczne, lecz architektura regulacyjna.
W świetle prawa Ashby’ego spór między rynkiem a planem przestaje być sporem ideologicznym. Staje się pytaniem o to, który mechanizm regulacyjny posiada wystarczającą różnorodność, strukturę i zdolność synchronizacji, aby sterować systemem o złożoności nowoczesnej gospodarki. Analiza cybernetyczna prowadzi do wniosku, że warunki te spełnia centralne planowanie, a nie mechanizm rynkowy.
O AUTORZE
Włodzimierz Postępowski
Redaktor ds. Analizy Danych
Zawodowo specjalizuje się w przetwarzaniu języka naturalnego jako freelancer. Łączy teoretyczne zainteresowania fizyką i jej naczelnymi problemami współczesności ze stosowaną inżynierią. Badacz historii ZSRR i entuzjasta cybernetycznego planowania centralnego w erze Big Data i sztucznej inteligencji. Wielokrotny uczestnik międzynarodowych eventów technicznych, w tym hackathonów w Polsce i Turcji, gdzie łączy swoje umiejętności z refleksją nad algorytmicznym zarządzaniem zasobami.