Postinformacje
Czytaj książkę z rozdziału: Postinformacje
Wspomniany spór o konstytucję cyfrowego świata dotyczył kulturowego i technologicznego rozumienia oraz sposobów wykorzystywania informacji. W cybernetycznym dyskursie został utrwalony jako poszukiwanie różnicy pomiędzy twardym i miękkim rozumieniem cyfrowej informacji [24]. Koncept twardej informacji wywodzi się z klasycznych prac Norberta Wienera i Claude’a Shannona, zaś ideę miękkiej wypracowali równolegle Gregory Bateson i Ross Ashby. Pierwszy ze sposobów pojmowania informacji polega na uznaniu jej za autonomiczny obiekt medialnego świata. Ma on naturalnie indywidualny, wynikający z oddzielania sfery instrukcji dla techniki od samej techniki, status, nawet pomimo wciąż nierozerwanych związków z tradycyjnymi obiektami – przedmiotami i tekstami medialnymi. Dla przykładu: za takie twarde informacje można uznać zbiór słów w tej książce, które po digitalizacji można traktować w oderwaniu od ich nośnika, czyli samego interfejsu papierowej książki. Miękka interpretacja informacji skupia się natomiast na roli otoczenia i kontekstu, w jakich ta informacja funkcjonuje. Chodzi tu szczególnie o ludzi, którzy się nią posługują – a zatem także i jej semiotyczny ładunek, który sytuuje techniczną formę przekazu (maszyny i infrastruktura technologiczna, które komunikację zaszumiają i zniekształcają) w symbolicznym środowisku kultury, pośród znaków, języków, form wizualnych i audialnych. Tak zdefiniowany kontekst na centralne miejsce w systemach informacyjnych wysuwa człowieka jako ogniwo spajające informacyjne elementy w całość, zaś fenomen informacji podporządkowuje wymogom komunikacji kulturowej.
Twardy koncept informacji to przejaw technokratycznej, redukcjonistycznej wiary w matematyczne modelowanie świata i jego doskonałość. Postrzeganie informacji jako autonomicznego obiektu medialnego świata otwiera drogę do konstruowania matematycznych struktur, takich jak sztuczna inteligencja, rzeczywistość wirtualna, ale przede wszystkim uruchamia projekt matematycznie zorganizowanego software, który staje się metagramatyką cyfrowego świata. Miękkie myślenie o informacji detronizuje taką jej pozycję, stawiając ponad nią inne elementy medialnego uniwersum, jak podmiot nadający i odbierający, ekosystem technologiczny czy kontekst kulturowy. Ponieważ jednak fazę rozwojową projektu cyfrowego, w której okolicznościach rozstrzygał się ten spór, zdominowały czynniki technokratyczne i towarzyszący im „twardy” dyskurs, to przyjęta w nim wersja rozumienia pokładów informacyjnych ostatecznie została ustanowiona jako jedna z zasad założycielskich projektu nowych mediów i epoki informacyjnej. Dopiero obecnie, po kilkudziesięciu latach ewolucji cyfrowości, kiedy dotychczasowy „twardy” paradygmat rozwoju przestał zaspokajać rosnące potrzeby użytkowników, coraz wyraźniej widać tu dążenie do dowartościowania czynników miękkich, przeformułowania wytyczonej wcześniej hierarchii. Świadczą o tym takie strategiczne nurty cyfrowego rozwoju, jak „wyszukiwanie sematyczne” i inne mechanizmy semantyczne, jak rozpoznawanie twarzy, produktów, dźwięków czy „data visualisation”, którym przyjrzę się bliżej w kolejnych częściach książki.
Jaki wpływ miał ten założycielski spór na kulturowe oblicze cyfrowego świata? Przywołana już wcześniej filozofka mediów Katherine Hayles dostrzega podwójną konsekwencję różnicy w rozumieniu sensu informacji dla projektu cyfrowego. Z jednej strony na jej skutek informacja traci swoje zakorzenienie w materii, swoją natywną cyfrową formę, „ciało”. Z drugiej strony emancypuje się także z kontekstu, w którym ją to „ciało” zanurzało, wychodząc w ten sposób naprzeciw oczekiwaniom przeciętnych mieszkańców kultury nieposiadających wystarczających kwalifikacji, aby funkcjonować w cybernetycznym wymiarze projektu cyfrowego, a jednocześnie na co dzień flirtujących z pop-cybernetycznymi jego wcieleniami [25]. Hayles wymienia trzy etapy postępującej dematerializacji informacji. Etap pierwszy to przywołany spór o twardą i miękką informację, który rozpoczął się po drugiej wojnie światowej i trwał do początku lat 60. XX wieku. Etap drugi trwał od lat 60. do 80. i okazał się procesem powolnego rozpoznawania kulturowego kontekstu, o którym mówili wcześniej teoretycy miękkiej informacji. W fazie trzeciej, która wciąż trwa, mamy natomiast do czynienia z wirtualizowaniem się informacji, czyli systematycznym uzgadnianiem uwarunkowań cybernetycznych z wymogami komunikacyjnymi kultury i życia społecznego [26]. Wraz z „mięknącą” informacją projekt cyfrowy przesuwa się z wojskowych i uniwersyteckich laboratoriów w kierunku kultury codzienności, jej mało wyrafinowanych technicznie mieszkańców niepotrafiących w codziennej praktyce wyrażać siebie samych ani konstruować świata w cyfrowy sposób.
Podobnie jak jednolite w epoce analogowej media zmieniają swój ontyczny charakter w cyfrowych okolicznościach, tak i informacja pod ich wpływem staje się wolna od tradycyjnych medialnych ograniczeń i ewoluuje w ten sposób do postaci postinformacji. W przyjętej przeze mnie terminologii ewolucja ta oznacza utratę tradycyjnych, cybernetycznych przymiotów informacyjności i redukcję/erozję do postaci danych. Ten postinformacyjny kierunek odcina jeden z kluczowych korzeni łączących projekt mediów cyfrowych z tradycją mediów wcześniejszych. Odcięte korzenie materialności informacji zastępują w cyfrowym świecie hybrydyczne ścieżki ku interfejsom, czyli użytkowym powłokom cyfrowych maszyn, oraz ku software, czyli abstrakcyjnym matematycznie, rządzącym ich wewnętrznym funkcjonowaniem, kodem i gramatyką [27].
W różnicę pomiędzy obiektem a procesem kultury medialnej wpisana jest także, na zasadzie sprzężenia zwrotnego, zmiana obejmująca hardware. Dotyczą tej materialnej warstwy medialnego świata przekształcenia, które zwiastują odwrót od dotychczas nią sterującej newtonowskiej mechaniki (elektryczności) i wejście w nowy porządek elektroniczny i postmechaniczny. Charakterystyczne dla nowoczesności i rewolucji przemysłowej maszyny i ich „analogowa” mechanika, które działały głównie wedle zasad naturalnych, takich jak reguły grawitacji, prawa zjawisk elektrycznych, natura materii, ustępują pod naporem alternatywnej „kultury” rozwiązań funkcjonalnych, opierającej się w coraz większym stopniu na regułach nanotechnik, mikroelektroniki, molekularnej chemii i fizyki kwantowej, związanych ze zjawiskami takimi, jak fale magnetyczne, nano- i hiper-przewodniki czy biotechnologie [28]. Nie znaczy to, że posthardware funkcjonuje wbrew prawom natury czy wywraca do góry nogami ich klasyczne, choćby newtonowskie czy euklidesowe, kodeksy i sankcje. Jego funkcjonalna natura traktuje jednak zarówno je, jak i klasyczny model ich opisu jako stały punkt odniesienia, jako wpisany w obecny system operacyjny na fundamentalnym poziomie. Z takim dziedzictwem swobodnie przesuwa się ku obszarom dla tradycyjnej wiedzy i technicznych form jej eksploracji i manipulacji niedostępnym, wywołując podejrzenia o zwrot ku manowcom kultury, nauki i życia społecznego.
W bogatym w różne „gatunki” narzędzi i maszyn ekosystemie cyfrowym obecne były i wciąż są przykłady komputerów analogowych, mechanicznych maszyn liczących, elektrycznych maszyn medialnych i obliczeniowych. Przyglądając się tej mnogości form i rozwiązań z perspektywy historycznej, można powiedzieć, że maszyny mechaniczne dopełnione/zastąpione zostały najpierw przez maszyny elektryczne, które następnie zastąpiły maszyny elektroniczne. Wszystkie te trzy historyczne typy wytworów nowoczesnej techniki obecne są wewnątrz cyfrowości i w przypisanym sobie zakresie wciąż realizują założenia projektu cyfrowego. Są w nim funkcjonalnie niezbędne. Komputery w przeważającej większości dzisiejszych form składają się z hardware’owej infrastruktury zasilanej elektrycznością, która stanowi operacyjną ramę dla różnego typu rozwiązań software’owych i sieciowych. Cybernetyka podobnie: zwieńczeniem jej wyobrażeń i dyskursów są przecież figury takie jak cyborg, który projektowany był zazwyczaj jako maszyna mechaniczna poszerzona z czasem o software’ową „inteligencję” [29]. Uważnie przyglądając się wchodzącym dziś na konsumencki rynek gotowym rozwiązaniom cyfrowym i zapowiedziom ich możliwych, przyszłych form, trzeba uznać, że dotychczasowy mechaniczny i elektryczny nurt osiągnął już kres możliwego rozwoju. Najnowsze maszyny medialne są narzędziami, w których nawet wyrafinowane mikromechaniczne elementy są zastępowane ich postmechanicznymi odpowiednikami. Dyski twarde, magazyny cyfrowego świata, zyskały nową formę w postaci magnetycznych płytek, zastępujących dotychczas dominujące napędy składające się z magnetycznych dysków, które wirując były odczytywane za pośrednictwem ruchomej igły (remediacja idei i formy gramofonu). Klawiaturę mechaniczną zastępuje klawiatura wyświetlana jako taktylny obraz (wrócę do tematu obrazów taktylnych w trzeciej części książki). Ostatnie wersje laptopów dostępnych na rynku nie zawierają w sobie już żadnych mechanicznych części, które do tej pory były tradycyjnie obecne wewnątrz komputerowych maszyn: obok wspomnianyh dysków nowego typu zamiast napędu optycznego mechanicznie obracającego dyskami CD, DVD, BR jest czytnik kart pamięci; zamiast gniazd sieciowych LAN zastosowano porty bezprzewodowe WiFi czy Bluetooth. Większość dostępnych w nowoczesnych systemach interfejsów wyjścia i wejścia jest tu na stałe wkomponowana w elektroniczną architekturę obliczeniową.
Postmedia to technologie, dla których charakterystyczne są rozwiązania postmechaniczne i postelektryczne. Poznanie sposobu ich pracy, jak to już powiedziałem, wymyka się naturalnym właściwościom percepcji posługującego się nimi człowieka, tradycyjnym kodom kulturowym definiującym relacje kultura-technika i uznanym za kanoniczne regułom i prawom opisującym fizykę, chemię i matematyczność świata. Postmedialne maszyny stały się mitycznymi i magicznymi narzędziami manipulacji zjawiskami natury. Nie odwołują się już wprost, w bezpośredni i przejrzysty sposób, do powszechnie dostępnych zasobów wiedzy kulturowej – jak to miało miejsce w przypadku maszyn mechanicznych, które w naturalny sposób rozwijały wcześniejsze twory techniki czy starały się naśladować budowę i funkcjonowanie organizmów żywych. Odnoszą się za to do wyrafinowanych zasobów wiedzy specjalistycznej, wykorzystują zawiłe zjawiska i wciąż jeszcze nie w pełni rozpoznane i opisane stany odkrywane przez zaawansowaną technologię. Do pracy z nimi potrzebne są, w odpowiedzi na taki stan rzeczy, rozwiązania techniczne, które te wyrafinowane maszyny ubiorą w kulturowo przyjazne, symboliczne szaty. Są nimi interfejsy użytkowe powstające na styku software i hardware, których idea i forma nie tylko nadają postmediom kulturowo przyjazne kształty, ale i skutecznie przejmują dotychczasową rolę monolitycznych mediów [30].