Nauki cyborgiczne: Mirowski redefiniuje ekonomię
Współczesna gospodarka nie jest neutralnym mechanizmem, lecz historycznie ukształtowaną maszyną obliczeniową. Philip Mirowski wprowadza pojęcie nauk cyborgicznych jako metaparadygmatu, w którym granica między organizmem a maszyną, rynkiem a kodem, staje się płynna. Zamiast XIX-wiecznych metafor energii i równowagi, nauki te stawiają w centrum informację, sterowanie i prawdopodobieństwo. Zrozumienie tej transformacji pozwala dostrzec, że dzisiejszy rynek to nie tylko miejsce wymiany, ale przede wszystkim teatr automatów, w którym klasyczna definicja racjonalności musi zostać zastąpiona przez teorię obliczalności.
Demon Maxwella i informacyjny fundament rynków
Centralną figurą nowej ontologii jest demon Maxwella – byt zdolny wydobywać porządek z chaosu poprzez przetwarzanie informacji. W XX wieku, dzięki pracom Norberta Wienera i Claude’a Shannona, demon stał się figuracją operatora danych. Cybernetyka Wienera utożsamiła walkę z entropią z walką o znaczenie i kontrolę, podczas gdy Shannon zdefiniował informację jako statystyczną miarę wyboru, oddzielając ją od sensu. To podejście redefiniuje rynek jako system zarządzania niepewnością.
Kluczowe ograniczenie wprowadza jednak maszyna Turinga. Alan Turing udowodnił, że istnieją problemy nierozstrzygalne i liczby niewyliczalne. W świetle nauk cyborgicznych neoklasyczny model racjonalnego aktora wpada w logiczną sprzeczność: zakłada on, że ludzie potrafią rozwiązywać problemy optymalizacyjne, które dla fizycznie istniejących maszyn są obliczeniowo niemożliwe w skończonym czasie. To podważa fundamenty teorii gier i neoklasycznej teorii wyboru.
Rynek jako procesor: Od Komisji Cowlesa do Zoidów
Ewolucja myśli ekonomicznej w ramach Komisji Cowlesa pokazuje przejście od ekonometrii strukturalnej (Mark I) do traktowania rynku jako systemu przetwarzania informacji (Mark II). Pod wpływem von Neumanna i Koopmansa, agent ekonomiczny zaczął być postrzegany jako procesor użyteczności. Przełomem okazały się eksperymenty z zoidami – agentami o zerowej inteligencji. Dowiodły one, że efektywność rynkowa nie zależy od heroicznej racjonalności jednostek, lecz od architektury instytucji.
Różne typy rynków odpowiadają różnym klasom automatów o odmiennej mocy obliczeniowej. To język ofert i reguły algorytmiczne, a nie psychologia uczestników, determinują zdolność systemu do osiągania równowagi. W tej optyce projektant rynku staje się inżynierem maszyn obliczeniowych, a odpowiedzialność za wyniki ekonomiczne przesuwa się z decyzji jednostek na strukturalny kod instytucjonalny.
Modele cyborgizacji i radykalizm sztucznej inteligencji
Współczesna makroekonomia maskuje swoją cyborgiczną naturę: oficjalnie mówi o równowadze, lecz w praktyce operuje algorytmami i filtrami danych. Sztuczna inteligencja radykalizuje tę tendencję, przenosząc logikę dowodzenia i kontroli (C3I) do serca biznesu. Globalnie obserwujemy trzy style oswajania "demona Maxwella": model północnoamerykański (nieograniczona akumulacja i cyfrowe monopole), model zatokowy (hybryda technologii z prawem szariatu) oraz model europejski (próba konstytucjonalizacji i regulacji ochrony danych).
Delegowanie decyzji autonomicznym algorytmom niesie ryzyko systemowej nieprzejrzystości. Gdy rynki stają się interakcją metaautomatów, klasyczne pojęcie odpowiedzialności zanika. AI nie rozwiązuje problemu racjonalności – przenosi go jedynie na wyższy poziom abstrakcji, gdzie błędy heurystyk mogą prowadzić do katastrof o niespotykanej skali, wzmacniając jednocześnie koncentrację władzy obliczeniowej.
Konstytucjonalizacja komputacji i scenariusze przyszłości
Aby uniknąć totalizacji danych, konieczna jest konstytucjonalizacja komputacji. Postuluje ona prawo do wglądu w logikę automatów, prawo do kwestionowania maszynowych decyzji oraz wyznaczenie sfer wolnych od automatyzacji. Prawo staje się ostatnią redutą ochrony ludzkiej podmiotowości przed redukcją do punktu danych. Przyszłość zarysowuje trzy scenariusze: asymetryczną hegemonię korporacji technologicznych, fragmentaryczną regulację regionalną lub rekonstrukcję proceduralną, w której każda decyzja algorytmiczna musi zostać publicznie uzasadniona w ludzkim języku.
Czy zdołamy okiełznać demona Maxwella, by służył ludzkim celom, czy też sami staniemy się trybikami w jego cyfrowej machinie? Przyszłość zależy od tego, czy potrafimy stworzyć konstytucję dla algorytmów, zanim one napiszą ją dla nas.