Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].
Czytaj książkę oznaczoną tagiem: elektryczność
W różnicę pomiędzy obiektem a procesem kultury medialnej wpisana jest także, na zasadzie sprzężenia zwrotnego, zmiana obejmująca hardware. Dotyczą tej materialnej warstwy medialnego świata przekształcenia, które zwiastują odwrót od dotychczas nią sterującej newtonowskiej mechaniki (elektryczności) i wejście w nowy porządek elektroniczny i postmechaniczny. Charakterystyczne dla nowoczesności i rewolucji przemysłowej maszyny i ich „analogowa” mechanika, które działały głównie wedle zasad naturalnych, takich jak reguły grawitacji, prawa zjawisk elektrycznych, natura materii, ustępują pod naporem alternatywnej „kultury” rozwiązań funkcjonalnych, opierającej się w coraz większym stopniu na regułach nanotechnik, mikroelektroniki, molekularnej chemii i fizyki kwantowej, związanych ze zjawiskami takimi, jak fale magnetyczne, nano- i hiper-przewodniki czy biotechnologie [28]. Nie znaczy to, że posthardware funkcjonuje wbrew prawom natury czy wywraca do góry nogami ich klasyczne, choćby newtonowskie czy euklidesowe, kodeksy i sankcje. Jego funkcjonalna natura traktuje jednak zarówno je, jak i klasyczny model ich opisu jako stały punkt odniesienia, jako wpisany w obecny system operacyjny na fundamentalnym poziomie. Z takim dziedzictwem swobodnie przesuwa się ku obszarom dla tradycyjnej wiedzy i technicznych form jej eksploracji i manipulacji niedostępnym, wywołując podejrzenia o zwrot ku manowcom kultury, nauki i życia społecznego.
W bogatym w różne „gatunki” narzędzi i maszyn ekosystemie cyfrowym obecne były i wciąż są przykłady komputerów analogowych, mechanicznych maszyn liczących, elektrycznych maszyn medialnych i obliczeniowych. Przyglądając się tej mnogości form i rozwiązań z perspektywy historycznej, można powiedzieć, że maszyny mechaniczne dopełnione/zastąpione zostały najpierw przez maszyny elektryczne, które następnie zastąpiły maszyny elektroniczne. Wszystkie te trzy historyczne typy wytworów nowoczesnej techniki obecne są wewnątrz cyfrowości i w przypisanym sobie zakresie wciąż realizują założenia projektu cyfrowego. Są w nim funkcjonalnie niezbędne. Komputery w przeważającej większości dzisiejszych form składają się z hardware’owej infrastruktury zasilanej elektrycznością, która stanowi operacyjną ramę dla różnego typu rozwiązań software’owych i sieciowych. Cybernetyka podobnie: zwieńczeniem jej wyobrażeń i dyskursów są przecież figury takie jak cyborg, który projektowany był zazwyczaj jako maszyna mechaniczna poszerzona z czasem o software’ową „inteligencję” [29]. Uważnie przyglądając się wchodzącym dziś na konsumencki rynek gotowym rozwiązaniom cyfrowym i zapowiedziom ich możliwych, przyszłych form, trzeba uznać, że dotychczasowy mechaniczny i elektryczny nurt osiągnął już kres możliwego rozwoju. Najnowsze maszyny medialne są narzędziami, w których nawet wyrafinowane mikromechaniczne elementy są zastępowane ich postmechanicznymi odpowiednikami. Dyski twarde, magazyny cyfrowego świata, zyskały nową formę w postaci magnetycznych płytek, zastępujących dotychczas dominujące napędy składające się z magnetycznych dysków, które wirując były odczytywane za pośrednictwem ruchomej igły (remediacja idei i formy gramofonu). Klawiaturę mechaniczną zastępuje klawiatura wyświetlana jako taktylny obraz (wrócę do tematu obrazów taktylnych w trzeciej części książki). Ostatnie wersje laptopów dostępnych na rynku nie zawierają w sobie już żadnych mechanicznych części, które do tej pory były tradycyjnie obecne wewnątrz komputerowych maszyn: obok wspomnianyh dysków nowego typu zamiast napędu optycznego mechanicznie obracającego dyskami CD, DVD, BR jest czytnik kart pamięci; zamiast gniazd sieciowych LAN zastosowano porty bezprzewodowe WiFi czy Bluetooth. Większość dostępnych w nowoczesnych systemach interfejsów wyjścia i wejścia jest tu na stałe wkomponowana w elektroniczną architekturę obliczeniową.
Postmedia to technologie, dla których charakterystyczne są rozwiązania postmechaniczne i postelektryczne. Poznanie sposobu ich pracy, jak to już powiedziałem, wymyka się naturalnym właściwościom percepcji posługującego się nimi człowieka, tradycyjnym kodom kulturowym definiującym relacje kultura-technika i uznanym za kanoniczne regułom i prawom opisującym fizykę, chemię i matematyczność świata. Postmedialne maszyny stały się mitycznymi i magicznymi narzędziami manipulacji zjawiskami natury. Nie odwołują się już wprost, w bezpośredni i przejrzysty sposób, do powszechnie dostępnych zasobów wiedzy kulturowej – jak to miało miejsce w przypadku maszyn mechanicznych, które w naturalny sposób rozwijały wcześniejsze twory techniki czy starały się naśladować budowę i funkcjonowanie organizmów żywych. Odnoszą się za to do wyrafinowanych zasobów wiedzy specjalistycznej, wykorzystują zawiłe zjawiska i wciąż jeszcze nie w pełni rozpoznane i opisane stany odkrywane przez zaawansowaną technologię. Do pracy z nimi potrzebne są, w odpowiedzi na taki stan rzeczy, rozwiązania techniczne, które te wyrafinowane maszyny ubiorą w kulturowo przyjazne, symboliczne szaty. Są nimi interfejsy użytkowe powstające na styku software i hardware, których idea i forma nie tylko nadają postmediom kulturowo przyjazne kształty, ale i skutecznie przejmują dotychczasową rolę monolitycznych mediów [30].
Przechodząc od medialnych obiektów do medialnych procesów doszedłem do kategorii software, czyli napędzanej dzięki elektrycznej i cyfrowej cyrkulacji zdematerializowanej informacji – danych. To kategoria, która stanowi o ontologicznej unikalności fenomenu nowych mediów i cyberkultury, zaś współcześni medioznawcy stawiają ją w centrum cyfrowej kultury, zaś samemu pojęciu przypisują miano kluczowego dla teorii kultury współczesnych mediów. Nie będę w tym miejscu z oczywistych względów nawet próbował zagłębiać się w definiowanie i analizy software, bo jest to problematyka, która domaga się samodzielnych opracowań i, jak wspomniałem we wstępie, w moim tekście funkcjonuje jako najważniejszy, choć mało wyraźny bohater drugiego planu. Przy różnych okazjach będę jednak do poszczególnych elementów software’owego uniwersum się odwoływać.
Software to także najbardziej hybrydowy i fantomowy ze współczesnych medialnych stanów i form. Jego praktyka zorientowana jest z założenia na procesualność – uruchomione oprogramowanie najczęściej pracuje w tle niezależnie od bieżących, cząstkowych działań użytkownika na poziomie jego interfejsu użytkowego. Jego status rozciąga się pomiędzy materialnością działań dokonywanych za sprawą kontrolowania elektryczności wewnątrz infrastruktury obliczeniowej maszyny cyfrowej a efemerycznością wirtualności, czyli abstrakcyjnych zapisów w różnych (równie abstrakcyjnych) formalnych, programistycznych językach i kodach. Software jest zatem jednocześnie matematyczną abstrakcją i elektryczną materialnością, wirtualnym procesem i materializującym się interfejsem. Sytuuje się pomiędzy indywidualnym doświadczeniem mediów a ich wymiarem społecznym w różnych przybieranych przez nie formach, takich jak systemy operacyjne i personalizowane aplikacje, aplikacje transmitujące i aplikacje interaktywne [36].
To wszystko czyni z software przedmiot niejasny i domagający się nieustannej uwagi poznawczej. Trudno się dziwić, że wielu współczesnych medioznawców gotowych jest wskazywać jego centralną pozycję w cyfrowym świecie. Nie brakuje jednak i głosów skrajnie przeciwnych wobec tego typu deklaracji. Friedrich Kittler, niemiecki medioznawca, stwierdza kategorycznie: there is no software! Wszystko, argumentuje, co przyjęło się oznaczać tym mianem, da się sprowadzić do postaci najprostszych, powtarzalnych czynności wykonywanych przez maszyny cyfrowe: kontroli zmian napięcia w elementach struktury hardware. Rozbudowane manipulacje kodu, poetyka software to w gruncie rzeczy jedynie regulacje dotyczące milionów dziejących się jednocześnie w cyfrowym urządzeniu stanów napięcia elektrycznego, oferujących jedynie on i off. Kittler rozumie software analogicznie do dziewiętnastowiecznych, w duchu będących konsekwencją kartezjańskiego dualizmu, wyobrażeń na temat pracy mózgu – miała ona polegać na skomplikowanej mechanice wymian napięć elektrycznych pomiędzy poszczególnymi ośrodkami. W identyczny sposób na fundamentalnym poziomie technologicznym działa także software: zera i jedynki kodu zmuszają hardware – procesory, czipy, macierze, do reagowania na obecność napięcia elektrycznego lub jego chwilowe braki. Poziom ten jednak w praktyce codziennego użycia komputerów jest dla użytkowników niedostępny ze względu na jego polityczne i strategiczne znaczenie dla bezpieczeństwa samej maszyny i ochrony jej struktury przed przeprogramowaniem (w ten sposób chroni ją na przykład oprogramowanie BIOS; bezpośredni asembler i emulator, który zamienia instrukcje software na czynności mechaniczne hardware). Softwarem można by nazwać jedynie miliardy nakładek rozpisanych w gramatyce cyfrowego kodu, które mają wartość użytkową, co znaczy, że są to programy, aplikacje, elementy interfejsu, itd. Uobecniają one jednak „software’ową wieżę Babel”, bowiem spora ilość języków programowania, formuł łączenia się ich ze sobą i możliwych form współpracy z asemblerami oraz wszelkie pozostałe uwarunkowania systemowe powodują, że pierwotny język informowania elektryczności o jej przebiegu zostaje nimi zupełnie przesłonięty. Staje się przez to czymś na podobieństwo archaicznych języków, których używać są w stanie już tylko pasjonaci i specjaliści, które jednak na stałe wpisane są w struktury nowych – wniosły do nich reguły gramatyczne, semantyczne, tak jak łacina do współczesnych języków cywilizacji zachodniej. Dopiero dostęp do fundamentalnego, ukrytego poziomu pozwala na prawdziwą władzę nad technologią maszyny obliczeniowej, która zaczyna się w momencie, kiedy możliwa jest kontrola nad fizyczną pracą hardware, bezpośrednia kontrola płynącej w jego elementach elektryczności [37].
Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].
Medialna wyobraźnia jest dla komunikacyjnego i technologicznego uniwersum odpowiednikiem tego, co w nauce określa się mianem teorii. Teorie są modelami zdarzeń, interpretacjami rzeczywistości i jej projekcjami poszukującymi uniwersalnych prawd i kształtów. Dla nowoczesnej nauki i tworzonej przez nią wiedzy teorie okazują się fundamentem – nieraz wyprzedzają rzeczywistość, którą nauka tradycyjnie zwykła analizować za pomocą eksperymentów, obserwacji i doświadczeń. W nowoczesności, wraz z rozwojem technologii opartych na elektryczności (w tym także i mediów, bowiem historia współczesnych mediów i historia elektryczności są nierozłączne – zagadnieniu temu poświęcę część kolejnego rozdziału), tradycyjna kolej rzeczy została odwrócona. Stało się tak po raz pierwszy za sprawą szkockiego fizyka i matematyka Jamesa Clerka Maxwella, który w XIX wieku przewidział/matematycznie udowodnił istnienie fal elektromagnetycznych. Potrzeba było kilkunastu lat, aby istnienie tego, znanego jedynie w teorii, zjawiska eksperymentalnie potwierdzić. Udało się to dopiero Heinrichowi Hertzowi [57]. W naukach ścisłych od tego czasu teoretyczne rozpoznania świata i praktyczne działania tłumaczące jego tajemnice stały się równoprawnymi, uzupełniającymi się, ale i wzajemnie ze sobą konkurującymi metodami. Podobny los spotkał słynne równania Einsteina, które, prawdziwe w teorii już za czasów jego życia, okazały się nieweryfikowalne w praktyce jeszcze przez długi czas. Dopiero Kurt Gödel zweryfikował ich prawdziwość w odniesieniu do praktyki. W domenie cyfrowej empiryczna praktyka odpowiadałaby ontycznej logice hardware, zaś teoria – realizowana w postaci logiki działań na cyfrowych symbolach, czyli matematyki – warstwie software. Będę wracał jeszcze do tego specyficznego podziału na teorię i praktykę zarówno w nauce, jak i w obszarze technologii medialnych, ich splot i różnica pomiędzy nimi to jeden z najważniejszych czynników definiujących kulturowe kody technologii cyfrowych i regulujących rolę i kształt medialnej wyobraźni.
Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.
Moje rozważania na temat kodu, elektryczności, matematyczności i software poprowadzę w trzech kierunkach. Najpierw, w dwóch częściach, zajmę się samym kodem badając jego hybrydyczna naturę, w której spajają się zjawiska naturalne (fizyczne) zwane ogólnie elektrycznością, oraz prawa logiczne (matematyczne), za sprawą których kultura ujarzmiła i podporządkowała sobie elektryczność. W trzeciej części tego rozdziału przyjrzę się obliczom kodu, który regulując technologiczną materię pozwala nam w kulturze ją formować i komunikować się z nią i za jej pośrednictwem – będzie to wejście na terytorium software.
Przejdźmy teraz od tych ogólnych rozważań w zakresie rozumienia matematyczności, liczb i matematyki do teorii cybernetycznych, czyli ich najbardziej współczesnych, a jednocześnie konstytuujących bezpośrednie założenia projektu cyfrowego, postaci. Warren Weaver w fundamentalnej dla rozwoju cybernetyki pracy, popularyzującej matematyczną teorię informacji Claude’a Shannona, zatytułowanej Recent Contributions to the Mathematical Theory of Communication, zestawiał ją z fundamentalną dla semiotycznej, linguacentrycznej wizji kultury pracą Course in General Linguistics Ferdinanda de Saussure’a, będącą, dla odmiany, powszechnie uznanym klasycznym wprowadzeniem do językoznawstwa strukturalnego i semiotyki kultury. Zestawienie to ujawniło daleko idące różnice w rozumieniu komunikacji pomiędzy oboma podejściami. Semiotyczne jej definiowanie uwzględniało wiele czynników, które z cybernetycznego punktu widzenia nie miały żadnego znaczenia. Dla de Saussure’a, a także dla całej tradycji badań językoznawczych, a potem, po zwrocie językowym, dla humanistyki i nauk społecznych w ogóle kod (język) osadzony jest i działa przede wszystkim w określonym kontekście, oddziałują na niego znaczenia kulturowe i społeczne, składają się nań langue i parole. Tak definiowany kod istnieje jedynie przez odniesienie do innych kodów i znaków, a realizowane za jego pomocą zdarzenia komunikacyjne zawsze pozostają w kulturowym sprzężeniu z wcześniejszymi, równoległymi i przyszłymi podobnymi jego emanacjami. Ważne są tu takie niuanse, jak nastawienie odbiorcy i nadawcy, wieloznaczność znaczeń przypisanych znakom czy fizyczny kontekst zdarzenia komunikacyjnego. Dla cybernetyków liczy się natomiast możliwie bezstratne przesłanie matematycznie zakodowanej informacji z nadajnika do odbiornika, tak aby w tej transmisji przeszkadzało jak najmniej strat (szumów, błędów) i aby miała ona jak najbardziej efektywny technologicznie (elektrycznie) wymiar. W teorii komunikacji Shannona wszelkie aspekty semantyczne związane z przepływem informacji są bez znaczenia – nie mają żadnego wpływu na proces komunikacji. Jak dosadnie stwierdza: semantyczne sensy komunikacji są bez znaczenia dla jej technologicznych form [107]. Informacja ma dla niego jedynie znaczenie wymierne matematycznie: określona ilość bajtów stratnie, lub bezstratnie (straty są mierzone w liczbach), jest komunikowana przez określony kanał komunikacyjny. W tym sensie cybernetyki nie interesuje i interesować nie może, co i w jakim celu jest komunikowane, jak również w jakich okolicznościach komunikat powstał i jak został zinterpretowany, ani też co się dzieje w jego kulturowym otoczeniu. Interesuje ją natomiast możliwie najbardziej dokładne (bezstratne i niezaszumione) przekazywanie sygnału, czyli impulsów elektrycznych, pomiędzy nadajnikiem i odbiornikiem [108].
Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.
Kilka lat później innemu matematykowi i cybernetykowi, Johnowi von Neumannowi, udało się urzeczywistnić wizję Turinga w postaci konkretnych rozwiązań technologicznych. Von Neumann obmyślił architekturę obliczeniowego jądra systemu cyfrowego, które przetwarzało jednocześnie dane proceduralne (algorytmy) i dane do analizy. Rozwiązania zaproponowane przez inżyniera nazywa się dzisiaj architekturą von Neumanna. Także i współcześnie stanowią one rdzeń funkcjonalny każdego ze znanych procesorów, procesów i układów elektronicznych przetwarzających elektrycznie cyfrowe dane. W matematycznym sensie von Neumann po prostu wcielił w życie koncept Turinga, udowadniając, że za pomocą matematyki można nie tylko odczytać konstrukcję rzeczywistości, ale i próbować ją cyfrowo/elektrycznie konstruować.
W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].
Mobilność technologii medialnych, o której pisałem wcześniej, oznacza nie tylko decentralizację hierarchicznego systemu komunikacji masowej. Umożliwia także decentralizację i rozproszenie systemu przesyłania i magazynowania energii elektrycznej, a to oznacza dalece większe konsekwencje dla współczesności również poza obszarem komunikacji. Bez stałego dostępu do źródła zasilania w energię elektryczną żadna cyfrowa technologia medialna nie funkcjonuje – staje się martwym hardware. Podobnie z maszynami i systemami cywilizacyjnymi w ogóle. Bez elektryczności cywilizacja zachodnia nie istnieje.
Nasz zachodni sąsiad, Niemcy, już od jakiegoś czasu przygotowuje się na Energiewende (an energy turn, czyli zwrot energetyczny), który ma polegać na poszukiwaniu i eksploatacji niekonwencjonalnych, odnawialnych i ekologicznych źródeł energii, oraz na gruntownej zmianie sposobu pracy infrastruktury energetycznej, tj. na decentralizacji całego systemu jej przesyłu, wykorzystania i magazynowania. Zwrot energetyczny miałby w konsekwencji charakter zbliżony do zwrotu społecznościowego (liberalnego) dokonującego się w medialnym świecie. Zmiana ta miałaby spełniać rolę przejścia od hierarchii nadawczej systemu mediów masowych do ekosystemu mediów społecznościowych. Czyż elektrowni nie odpowiada elita produkująca treść kultury, czy nadajniki to nie to samo, co słupy i sieci przesyłowe? I czy sieci społecznościowe, aktywizm społeczny i kulturowy dokonujący się za pośrednictwem technologii sieciowych i cyfrowych to niewcielone w życie założenia przyświecające twórcom Energiewende? W rezultacie Energiewende to społeczności użytkowników-producentów energii miałyby decydować o wykorzystaniu jej źródeł, zaś same źródła zmieniłyby swoją formę z pojedynczych dostawców-gigantów (tradycyjne elektrownie) w rozproszoną sieć mniejszych, uruchamianych w zależności od potrzeb i konfiguracji, generatorów [124]. Energiewende to nie tylko przestawienie gospodarki i systemu politycznego na energię ze źródeł odnawialnych, to przede wszystkim decentralizacja wytwarzania energii, społeczne zarządzanie jej zużyciem, dystrybucją i powstawaniem. To wywłaszczenie energii z rąk państwa, systemu ekonomicznego, itd., i społeczne uwłaszczenie się w tym zakresie, które doprowadzi do dekonstrukcji polityki energetycznej i jej rozbrojenia–dekonstrukcji do formy sieciowej, społecznościowej alternatywy.
Elektryczność (energia) ma dla projektu cyfrowego, jak to już wielokrotnie podkreślałem, zasadnicze znaczenie. Bez Energiewende niemożliwa jest dalsza emancypacja medialnych konsumentów i ich przeistaczanie się w medialnych wytwórców, remikserów i hakerów. Projekt technologicznego rozproszenia i uspołecznienia mediów, czyli wyjścia poza hierarchiczny i polityczny system kultury masowej, możliwy jest jedynie w ograniczonym zakresie bez analogicznych zmian w systemie energetycznym oraz, w konsekwencji, w innych podobnych systemach politycznych, ekonomicznych i technologicznych. Tam również oznaczać będzie radykalne przesunięcia i demontaż istniejącego układu sił i struktur. Tak jak uderzające jest podobieństwo technologicznej i kulturowej infrastruktury mediów masowych i infrastruktury energetycznej, tak równie zbliżone są do nich kształty systemów edukacji publicznej, pomimo wielu daleko idących zmian (system organizacji produkcji i dystrybucji on-demand Toyoty) organizacji produkcji i dystrybucji dóbr, władzy i administracji, religii. W tym duchu niezależność energetyczna związana z medialną mobilnością i statusem uzależnionych od tradycyjnych systemów energetycznych sieci wydaje się tematem zasadniczej wagi dla współczesnej, kultury poddanej mediatyzacji i digitalizacji. Kształt medialnej mobilności/mobilnej medialności zależny jest tym samym od sposobów pozyskiwania, zużycia, magazynowania energii potrzebnej do zasilania maszyn medialnych. Elektryczność i jej kulturowe usytuowanie to obszar, który w medialnym krajobrazie wyłania się dzisiaj na pierwszy plan – jednocześnie winien zyskać sobie właściwe miejsce, historycznie praktycznie nieobecny w studiach kulturowych oraz poświęconych mediom i komunikacji.
W takiej pozycji dodatkowo utwierdza matematyczność jej związek ze zjawiskiem elektryczności. To za sprawą matematycznego zakodowania elektryczności, czyli cyfrowego regulowania jej stanów: 1 = prąd, 0 = brak prądu, udało się tę naturalną właściwość świata w wyrafinowany sposób podporządkować potrzebom rozwijającej się technicznie cywilizacji w postaci projektu digitalnego i sieciowego. Matematyczność dzięki elektryczności rozpoznajemy współcześnie, w związku z tym jako cechę świata (w tym sensie podobna jest elektryczności a w zakresie maszyn cyfrowych niemal z nią tożsama), a nie jego kulturową interpretację (Heller). Elektryczności zaś przypisujemy właściwości i role kulturowych kodów (stąd, to uwaga na marginesie, koncept rzeczywistości wirtualnej jako zjawiska symbolicznego, kulturowego – to różnica budująca wiele treści dyskursu jej poświęconych). Relacje matematycznego kodu i zjawiska naturalnego elektryczności tworzą matrycę, w której zakotwiczony został projekt cyfrowy. Przenikając przez poziom wizualnych, intuicyjnych interfejsów przeznaczonych dla użytkownika – takich jak GUI w systemach operacyjnych, przy dużym zbliżeniu zobaczymy w cyfrowych mediach zmiany napięcia elektrycznego, którymi w procesorach sterują tranzystory posłuszne matematycznym komendom 0 i 1.
Takich relacji pomiędzy matematycznością i elektrycznością doszukał się i wykorzystał w sensie komunikacyjnym chyba jako pierwszy Samuel Morse, amerykański artysta i prekursor telegrafii. Morse, przypomnę, opracował system komunikacji korzystający z właściwości światła, dźwięku lub elektryczności, których kontrolowanym obecnościom i nieobecności nadał symboliczne znaczenia. Tak zwany alfabet Morse’a polega na wykorzystaniu natury tych zjawisk fizycznych na zasadzie powiązania z nimi znaków odnoszących się do poszczególnych liter alfabetu łacińskiego – innego, wcześniej istniejącego kodu komunikacyjnego. Metodyczne zapalanie światła, przerywanie dźwięku czy obiegu elektrycznego w zgodny z zaszyfrowanymi w alfabecie znakami czyni ze zjawisk naturalnych komunikatory kulturowe, bowiem stwarza wrażenie kulturowej dominacji nad siłami przyrody, ich ujarzmienia i wykorzystania. Morse’owskim tropem podążyli matematycy, którzy poszukiwali symbolicznych formuł pozwalających połączyć kodowanie elektryczności z koncepcjami maszyn obliczeniowych i w ten sposób narodziła się idea cyfrowego kodu, który stanom naturalnych żywiołów (elektryczności) przypisał wartości matematyczne. Ogólnie rzecz ujmując można powiedzieć, że idea elektrycznej (obecnie elektronicznej) cyfrowości to nic innego, jak multiplikowane i zapętlone na miliony różnych sposobów w postaci skomplikowanej formalnie i zminiaturyzowanej materialnie architektury hardware (procesory z milionami elektrycznych półprzewodników-tranzystorów o wielkości jedynie mikronów każdy) proste matematyczne operacje (wyrażone jedynie za pomocą 1 i 0) na elektryczności, jej przewodzenie lub jego brak. W taki sposób zapisane są choćby dane na płytach CD, DVD czy BD.
Algorytmiczne instrukcje tworzone na różnych poziomach cyfrowego kodu kontrolują działanie milionów krzemowych bramek, które w odpowiedzi na komendy 0 lub 1 zamykają się, czyli nie przewodzą w danej chwili energii elektrycznej, lub też na chwilę się udrażniają komponując pożądaną strukturę obwodu elektrycznego. Odbywające się w ułamkach sekund – za sprawą fizycznych cech zjawiska elektryczności, jego naturalnej prędkości bliskiej prędkości światła – elektryczne transmisje lub ich braki układają się wewnątrz hardware we wzorce, których sumą stają się wyniki zadanych softwarem hardware’owi zapytań i wydanych w ten sam sposób instrukcji wykonawczych.
Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardware i tweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.
Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].
Pomimo centralnej lokacji wewnątrz projektu cyfrowego elektryczność nie stała się dotąd przedmiotem pogłębionych studiów kulturowych, dyskurs jej poświęcony skonstruowały i podtrzymują nauki ścisłe i coraz częściej społeczności domorosłych i profesjonalnych inżynierów pracujących z maszynami cyfrowymi i elektroniką [135]. Pora najwyższa, aby elektryczności i energii w ogóle dedykować szeroko zakrojone studia humanistyczne i kulturowospołeczne. W połowie XIX wieku, a więc w okresie, kiedy dopiero odkrywano użytkowy potencjał elektryczności, Michael Angelo Garvey w futurystycznej książce zatytułowanej The Silent Revolution. Or, the Future Effects of Steam and Electricity upon the Condition of Mankind wyrokował: elektryczność stanie się najważniejszym kanałem, po którym będziemy transmitować i komunikować naszą inteligencję. Elektryczny telegraf dysponuje w tym zakresie wspaniałymi właściwościami: pomija czas i miejsce[136]. I choć tę intuicję potwierdziła współczesna kultura, to krytyczna wiedza o elektryczności wciąż sięga niewiele głębiej niż do wyobraźni Garveya czy Morse’a. Chyba tylko McLuhan pisząc o globalnej wiosce, w której elektroniczne media zastępują kulturę wizualną i gutenbergowską kulturą wtórnej oralności tworząc kolektywną inteligencję, docenił wagę elektryczności w medialnym pejzażu współczesnego świata. Po nim elektryczność zamknięta w szczelnych obiegach krzemowych płytek i tranzystorów stała się tak naturalna, że nazbyt oczywista. McLuhan pisał:
Mimowolne rozpoznawanie kontroli nad zjawiskami naturalnymi jako kodów kultury stawia przed analitykami cyfrowej komunikacji i pośredniczących w niej maszyn problem, który określiłbym mianem potrzeby „humanistycznej teorii elektryczności”. Poddanie tego zjawiska kulturowej analizie, konstruowanie jego teorii, jawi się jako jedno z najważniejszych – obok teorii hardware, kulturowej teorii matematyki, badań nad HCI (Human-Computer Interfaces) czy software studies – zadań badawczych dla współczesnej komunikologii i medioznawstwa. Potrzebę taką umacnia dodatkowo istnienie rozbudowanej teoriopoznawczej tradycji cybernetycznej, która rości sobie prawa do wchłonięcia/zastąpienia teorii kulturoznawczych.
Aby zrozumieć regułę funkcjonowania protokołu, przywołam klasyczny, turingowski, model struktury maszyny kalkulującej, w której dostarczone sygnały (input) podlegają zadeklarowanej obróbce, są kalkulowane w określony sposób, by następnie w tej przeliczonej formie stać się stanem na wyjściu z systemu komputerowego (output). W takiej strukturze dane przechodzą przez przeliczenia pod kontrolą protokołów. Niemożliwe jest działanie systemu z ich pominięciem, a zatem mitologiczna wolność w obszarze cyfrowym jest właśnie w tym momencie wystawiona na oddziaływanie polityk i systemów kontroli ze strony tradycyjnych graczy systemów społecznych: aparatu władzy politycznej, podmiotów gry ekonomicznej i gospodarczej, wojska. Protokoły są prawem systemów informacyjnych wtłoczonym w genetykę cyfrowego świata właśnie przez tych tradycyjnych dysponentów władzy politycznej, prawa i regulatorów sfery komunikacji społecznej. Za pośrednictwem protokołów ci gracze nadzorują i regulują kształt cyfrowego uniwersum, sankcjonują i inspirują transfery i zasobność baz danych, a także wytyczają strukturalne zasady i oblicza użytkowych interfejsów. Internet sam w sobie, na poziomie architektury informacyjnej, a nie semantycznym czy interaktywnym, jest takim właśnie politycznym (technopolowym) kodeksem użytkowym. Zbiorem reguł, praw i zasad, których przestrzeganie nadaje mu określoną formę, której wszystkie znajdujące się powyżej języki programowania, implikacje w postaci stron www, serwery z danymi, wyszukiwarki czy interfejsy software’owe, są projekcjami, emisjami i interpretacjami.
W tej części książki zajmę się zmieniającym się w duchu opisanego przez Bachmana bazodanowego zwrotu ekosystemem cyfrowego świata i jego kulturowego otoczenia. Będę się wywołanym wraz z obecnością baz danych zmianom i zależnościom przyglądać szeroko, osadzając je w kontekście ogólnych zmian społeczno-kulturowych, diagnozujących je dyskursów i mitologii, jak i starać się zrozumieć kulturową energię, którą ta technologia emanuje zmieniając naszą codzienność i nasze o niej wyobrażenia. Sądzę, że opisany przez Bachmana zwrot wewnątrz cyfrowego uniwersum jest tożsamy z najważniejszymi kulturowymi przemianami dokonującymi się w kulturze współczesnej. Bazy danych wpisują się w klimat decentralizacji, stawania się kultury mniej opresyjną, homogeniczną, a za to oddaną we władanie przeciętnym użytkownikom/twórcom, otwartą formalnie i semiotycznie na ich potrzeby i zależną od podejmowanych przez nich działań. Bazodanowe środowisko sprzyja rozumieniu świata i kultury jako zbiorów elementów podatnych na przeróżne scenariusze zarządzania i porządkowania. Wchodzącemu weń/z nim w kontakt oferuje pozycję rzemieślnika i artysty, który projektuje układy architektoniczne, zarządza relacjami pomiędzy poszczególnymi elementami, reguluje przepływy znaczeń i ładunków elektrycznych pomiędzy nimi. To reguły bazy danych umożliwiły kulturę uczestnictwa, kulturę użytkownika czy Web 2.0.
W przypadku medium masowego, jakim jest muzyka popularna, mamy do czynienia z wieloma elementami, które można by uznać za protobazodanowe. Kluczowym z nich jest bez wątpienia rozwój technologii wielośladowej rejestracji i remiksu nagrań oraz zmiany w kulturze muzycznej, które wywołał. Jak wiadomo pierwsze nagrania muzyczne powstawały w oparciu o homogeniczny zestaw rejestrujący składający się ze „słyszącego” otoczenie interfejsu-mikrofonu oraz kompletu urządzeń przetwarzających i rejestrujących, którymi początkowo były walce powleczone tworzywem poddającym się rejestrującej igle, żłobiącej w nich porowatą ścieżkę, po której podróżowała następnie igła przekładająca powstałe w ten sposób rowki na drgania i dalej na modulowane elektrycznie sygnały, które, po odpowiedniej obróbce, np. wzmocnieniu, wprawiały w ruch membranę głośnika (interfejsu wyjścia). W zasadzie tej formule podporządkowane były zarówno płyty gramofonowe, jak i współczesne nośniki cyfrowe CD, DVD, BR, których ścieżki składają się z wypalonych/wytłoczonych dołków układających się w spiralną linię. Pojawienie się zapisu na taśmach magnetycznych przyczyniło się do powstania technologii wielośladowej, czyli takiej, w której można zarejestrować, a następnie poddać strukturalnej obróbce zapis z wielu źródeł: mikrofonów, instrumentów, efektów jednocześnie. Dostępne dzisiaj cyfrowe techniki nagraniowe oferują możliwość rejestracji i miksu w praktyce nieskończonej ilości ścieżek. Oferują także możliwość pracy z tymi ścieżkami w niemal nieograniczony sposób – każdą z nich można indywidualnie przetwarzać, a całą powstającą z ich wymieszania kompozycję można jeszcze, dodatkowo, poddawać bardziej całokształtnej obróbce.
– analiza kulturowych (symbolicznych) pokładów cyfrowego świata musi być nierozerwalnie powiązana z analizą jego technologicznych uwarunkowań – badanie kultury postmedialnego świata oznacza konieczność paralelnych studiów jego digitalnego języka, który konstytuuje nakładająca się na zjawisko elektryczności poetyka matematyki i matematyczności;
– elektryczność i matematyczność projektu cyfrowego uznaję za najmniej rozpoznane w dyskursach i praktykach kulturowych elementy digitalnego uniwersum – osobno i w relacjach między sobą stanowią one problemy badawcze domagające się pilnego podjęcia i wielowymiarowej analizy;
– miejsce centralnej dla tradycyjnego dyskursu kategorii medium i mediacji zajmie płynny układ sił pomiędzy kodem (software), bazą danych i interfejsem (hardware). Analizy zdarzeń i form komunikacyjnych w cyfrowym świecie domagają się bowiem nowego modelu analizy i zrekonstruowanego słownika ten model opisującego.