Kondycja postmedialna materializuje się na skutek synergii funkcjonujących i rozwijających się paralelnie obszarów kulturowej i komunikacyjnej sceny współczesności. Postmedialność narasta jednocześnie: w sferze techniki, gdzie wspiera się na takich procesach, jak konwergencja, wirtualizacja, obecność software, interfejsów i protokołów; w polu społecznym, gdzie ma miejsce socjalizowanie technologii medialnych wyrywanych systemowi kultury masowej i wynikające z tego procesu sieciowanie, emancypacja użytkowników oraz powstawanie społeczeństwa informacyjnego i sieciowego; oraz w polu antropologicznym, gdzie przekształceniom podlega zbiorowa wyobraźnia komunikacyjna wraz z zakorzenionymi w niej kompetencjami medialnymi i objawiają się nowe postawy i logiki komunikacyjne.
Czytaj książkę oznaczoną tagiem: cyfrowe
Postmedialne uniwersum nie różni się w tym zakresie od wcześniejszych kulturowych kondycji technologii komunikacyjnych – od ery pisma, epoki druku Gutenberga czy elektrycznej fazy kultury masowej z jej analogowymi mass mediami. Mechanizm ten znany jest już dobrze medioznawcom i badaczom relacji kultury i techniki. Zauważyli oni, że gdy nowinki technologiczne przenikają do życia społecznego i kultury, stają się powszechnym i popularnym narzędziem w rękach ludzi i systemów kulturowych, dopiero wówczas zyskują status powszechnych mediów i mediacji, ogólnie dostępnych i znanych języków i reguł komunikacyjnych i tylko wtedy są w stanie stawać się narzędziami zmiany istniejącego świata[5]. Przenikają i rekonstytuują wówczas dopiero najważniejsze relacje władzy i systemy ideologiczne, zakorzeniają się w porządkach semantycznych i aksjologicznych, poddają się sile ich oddziaływania, redefiniowaniu, instrumentalizowaniu i dostrajaniu wobec różnych oczekiwań, wrażliwości i konfiguracji systemowych – oddziaływając we wszystkich tych lokalizacjach, zgodnie z newtonowską zasadą, z adekwatną siłą i według analogicznych reguł o przeciwnym zwrocie. W tak skonstruowanym procesie stają się mediami danej kultury, a kultura staje się funkcją tych mediów, programują według własnej gramatyki nasze rozumienie świata i pośredniczą w jego budowaniu, reagując na wcześniej rozpisany dla nich kulturowy kodeks.
W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.
W domenie cyfrowej historyczne gramatyki mediów obowiązują jednakowe zasady. Wszystkie cyfrowe dane obowiązuje tu równość wobec kodu, fizycznych zasad elektryczności i hardware oraz tłumaczących je kulturze interfejsów. Poddają się one programowaniu, adaptują swoje zasoby do wymogów strukturalnych baz danych i sieciowych protokołów komunikacyjnych, wzajemnej synchronizacji i wymieszania, itd. – stają się po prostu bazami danych, ciągami cyfrowego kodu zer i jedynek, którymi można za pomocą dowolnych algorytmów zarządzać zgodnie z regułami cybernetycznej wiedzy i możliwościami obowiązujących interfejsów użytkowych. W wersji cyfrowej można z mediami zrobić wszystko to, co możliwe jest do pomyślenia i kalkulacji według ogólnie obowiązującego w cyfrowym świecie modelu (sformułowanego przez tradycję matematyki oświeceniowej i wyrażonego dosłownie przez kreatora architektury obliczeniowej współczesnych maszyn cyfrowych cybernetyka (Johna von Neumanna): interfejs wejścia-cyfrowe kalkulacje-interfejs wyjścia. W ten sposób zarówno obraz, jak i utwór muzyczny, fragment tekstu powieści czy film stają się ciągiem zer i jedynek zapisanych w cyfrowych bazach danych, otwartych na różne software’owe i interfejsowe wywołania i działania różnych algorytmów.
Znaczenie radykalnej konwergencji medialnych form w cyfrowym świecie potęguje kulturowa reguła mediacji i medialnej komunikacji. W świecie przesyconym technologicznymi rozwiązaniami służącymi komunikacji medium nie istnieje w liczbie pojedynczej, jako autonomiczna kategoria poza systemowym kontekstem. Możliwe kulturowo, percypowalne i funkcjonalne jest tylko w systemie składającym się także z innych przekaźników, spełniających inaczej podobne zadania wewnątrz komunikacyjnego ekosystemu i występujących w określonych relacjach wobec siebie nawzajem. Jedynie z poziomu wejrzenia w wewnętrzny układ tego ekosystemu rozpoznać można pojedyncze, różne od siebie nawzajem, ale dopełniające się w kulturowej praktyce elementy – poszczególne medialne formy, języki, systemy znaczeń. Z tego powodu radykalna cyfrowa konwergencja okazuje się stanem, który przekracza i unieważnia granicę rozpoznawalności fenomenów medium i mediów jako takich. Poza tą, strzegącą zrębów tożsamości analogowego uniwersum komunikacyjnego, granicą istnieje analogowo rozumiany niebyt dotychczasowego układu sił i jego form czy też inaczej hybrydowa postmedialność na styku tego, co analogowe, i tego, co cyfrowe; sytuacja, która dotyczy nie tylko zaniku różnic między istniejącymi kulturami mediów i nimi samymi, ale i rozprasza świadomość i wyobraźnię medium jako takiego (faza postmedium). Totalna konektywność i wymienność form, którą wprowadza do kultury cyfrowość, skutecznie wymazuje kulturowy sens medium, techniczne kształty i dotychczas istniejącą strukturę komunikacyjnego ekosystemu kultury. Odrzucając dotychczasowe reguły przypisane w kulturze poszczególnym przekaźnikom i całemu systemowi zwrot postmedialny objawia się, przynajmniej w sensie technologicznym, jako przestrzeń nieustannego loopu transferowanych z olbrzymią prędkością danych, które, jak to już powiedziałem, przybierać mogą dowolne interfejsy, dowolne wywołania algorytmów [7].
Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.
Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.
Postmedialna praktyka technologiczna, czyli wychodzenie ze świata tradycyjnych form medialnych i jednoczesna erozja ich ontycznego statusu, jest ściśle powiązana ze stymulującymi ją i regulującymi rozpoznaniami i diagnozami natury teoretycznej, ideami wcielanymi w życie w cyberkulturowej praktyce. Hipoteza postmedialna pojawiła się w odniesieniu do transformacji technologicznych zarówno w dyskursie sztuki mediów, jak i w debacie poświęconej rozwojowi projektu cyfrowego, prowadzonej na gruncie nauk humanistycznych i społecznych. Ewolucją komunikacyjnych konceptów opartych na specyfice medium zajęli się obok cybernetyków także teoretycy komunikacji i mediów. Ich analizy przysłużyły przenikaniu i wymianie wiedzy pomiędzy humanistyką a cybernetyką od połowy XX wieku, a więc w okresie narodzin technologii cyfrowych i technologicznego boomu na nie. Stały się także swoistymi drogowskazami wskazującymi kierunek rozwoju projektu cyfrowego. Wśród nich szczególne znaczenie mają teoria metamedium Alana Kaya, przywołana wiele lat później przez Lva Manovicha, a także koncepcja maszyny uniwersalnej Alana Turinga. Na gruncie dyskursu sztuki i jej teorii myślenie to wykorzystują w swoich pracach poświęconych kondycji sztuki uwikłanej w media Peter Weibel i Domenico Quaranta. Sięgnę teraz do ich ustaleń, aby z perspektywy dyskursywnej przyjrzeć się omawianym ewolucjom technologicznym.
Alan Turing i Alan Kay, ojcowie-założyciele projektu cyfrowego, w swoich wypowiedziach konceptualizowali rozwój cyfrowego świata, odwołując się do idei uniwersalnej maszyny obliczeniowej. Dysponuje ona zdolnością do kalkulowania wszystkiego, co zostaje jej na wejściu (input) przedstawione w postaci odpowiednio zakodowanych zasobów, które po przetworzeniu (computing) oddawałaby na wyjściu (output). Turing i wielu jego następców było przekonanych, że świat da się sprowadzić do postaci matematycznej reprezentacji (myślenie kartezjańskie) – wówczas wszystkie jego stany, wymiary, dynamiki można będzie przetwarzać matematycznie (komputerowo) za pomocą takiej uniwersalnej maszyny. Zanikłaby wtedy różnica pomiędzy tym, co realne, a tym, co symulowane/zakodowane, zaś samo urządzenie przez zdolność do naśladowania form rzeczywistości, wchłaniania maszyn poprzedzających, stawałoby się jednocześnie płynną grą pomiędzy nimi, konstruowaną na bieżąco ich sumą/synergią. Koncept maszyny uniwersalnej stał się mitem założycielskim komputeryzacji, odwołującym się do idei renesansowych i oświeceniowych (powrócę do tego wątku w części poświęconej cyfrowemu kodowi i matematyczności świata), i w zasadzie nie doczekał się do czasów współczesnych zdolnych mu zagrozić na tej pozycji alternatywnych konceptów [9]. Alan Kay tę ogólną cechę maszyny Turinga adaptował dodatkowo na potrzeby dyskursu poświęconego komunikacyjnej roli technologii cyfrowych, która okazała się jedną z najprężniej rozwijających się dziedzin projektu cyfrowego – nowym mediom. W opublikowanym w roku 1977 eseju Personal Dynamic Media Amerykanin sugerował, że komputer można nazwać metamedium, to jest taką formą medium, która zawiera w sobie wszystkie poprzednie media [10].
W oparciu o dokonania Kaya swoją współczesną topografię nowych mediów, stanowiącą już referencyjną wykładnię dla obecnego dyskursu w ramach studiów medioznawczych i kulturoznawczych, opracował amerykański teoretyk rosyjskiego pochodzenia Lev Manovich. W swojej najbardziej znanej pracy zatytułowanej Język nowych mediów jeszcze pośrednio wskazał na sens kategorii metamedium, postrzegając go jako kulturowy efekt jednej z najważniejszych reguł organizujących ekosystem mediów cyfrowych, czyli używania wszystkich starszych mediów jako swojej pierwotnej treści, gramatyki cyfrowego języka [11]. Inaczej mówiąc: komputer rozumie jako metamedium, które wchłonęło wszystkie wcześniej istniejące formy technologiczne i posługuje się nimi w obecnej fazie kulturowej bytności, czerpiąc z ich form zasady organizacji świata informacji i reguły komunikacji. Specjalistyczne techniki pracy, służące im narzędzia, języki artystycznej wypowiedzi i estetyki niegdyś przypisane do rozłącznych, hermetycznych dziedzin i praktyk komunikacyjnych, w przestrzeni cyfrowej otwierają się na nieograniczony i nieustanny import/export pomiędzy różnymi istniejącymi na tej platformie możliwościami. Stare metody i środki znajdują nowe, wspólne pole eksploatacji w kodzie software: są weń wpisywane jako strukturalne kształty i reguły działania, jego pragmatyki i interfejsy użytkowe. Metamedium jest tym samym otwarte na wszystkie potencjalne medialne kształty i gry, które zostają pomyślane i uruchomione w cyfrowym środowisku [12].
Prowadzona przez Weibla i Quaranta krytyka systemu sztuki wskazuje na przywiązanie do tradycyjnej jedności treści i form, które jest także obecne w myśleniu o mediach i komunikacji. Teorie mediów i szerzej kulturoznawcza wiedza o mediach mają skłonność do postrzegania kulturowego dominium komunikacji przez pryzmat kategorii obiektu i stojącej za nim techniki. Interpretacje wywodzące się z tej perspektywy widzą ten obiekt na dwa sposoby. Po pierwsze, uznają za niego przedmioty, czyli medialne technologie oraz medialne wytwory/teksty. Po drugie, obiektem tym czynią komunikujący podmiot, uwikłanego w medialne sprzężenia człowieka, aktora działań komunikacyjnych. Ani przedmioty samodzielnie, ani podobnie rozumiane podmioty, ani synergiczne kombinacje tych kierunków składające się na tradycyjny model środowiska i procesów komunikacyjnych nie przystają jednak do natury i zasięgu ewolucji medialnego świata dokonującej się w cyfrowych okolicznościach. Tak zaprojektowany model, powtórzę, można było z powodzeniem wykorzystywać (w różnych wewnętrznych jego strukturalizacjach i ujęciach dyscyplinarnych – od analizy semiotyki medialnego przekazu po deterministyczne postrzegania technologii jako przekazu) jedynie wobec domeny mediów analogowych. Wobec natury cyfrowego i sieciowego świata, w którym hardware zyskał przeciwwagę w postaci software, ekosystem analogowych transmisji i reprezentacji został wystawiony na dziejową próbę, stając w obliczu sieciowości. W nowych okolicznościach, w których linearna percepcja mierzy się z interakcyjnością, materialne formy z wirtualnymi reprezentacjami, skończone kształty z nieustannym przetwarzaniem i remiksowaniem, istniejące schematy poznawcze przestają wystarczać do opisu komunikacyjnego świata.
Wraz z cyfrową zmianą pojawiały się także towarzyszące jej rekonstrukcje pojęć i teorii, dopełniające diagnozy o sytuacji postmedialnej. Matthew Kirschenbaum, amerykański humanista starający się interdyscyplinarnie przenikać istotę cyfrowości, wskazuje na potrójną naturę cyfrowych sytuacji medialnych. Mają one (1) wymiar fizyczny; są znakami i maszynami je transportującymi. Są jednocześnie (2) formatami logicznymi, co znaczy, że są to dane, które te maszyny rozpoznają, interpretują i przetwarzają. Są także (3) konceptami, czyli posiadają naturę bytów semiotycznych, aksjologicznych: są tekstami kultury [16]. W podobnym duchu wypowiada się inny amerykański badacz cyberświata Mark Hansen. Amerykanin jest przekonany, że teorie mediów cyfrowych potrzebują nowego punktu odniesienia, który będzie w większym niż dotychczas stopniu korespondować ze zmianami zachodzącymi w medialnym świecie. Hansen wskazuje na rosnące znaczenie procesów medialnych, które ani nie objawiają się postrzegającemu cyberprzestrzeń za sprawą jej interfejsów sensorium, ani nie dają się zamknąć w formie pojedynczych obiektów/reguł technologicznych. Tą nową kategorią jest procesualność mediów, która rozciąga je pomiędzy różnymi spiętymi w sieci przedmiotami technologicznymi w tle objawiających się użytkownikom wysuniętych na pierwszy plan działań i w ten sposób rozmywa ich uchwytną, skończoną formalnie postać. Stają się one coraz mniej wyraźne – ukryte przed przyzwyczajoną do zwykłych, analogowych i materialnych form, percepcją [17]. W identyczny sposób charakter postmedialnego środowiska interpretuje filozofka mediów Katherine N. Hayles, kiedy wskazuje na przykład na dynamiczny i złożony charakter ontyczny cyfrowej tekstualności:
Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].
Opisany powyżej przez teoretyków na różne sposoby hybrydyczny i procesualny, cyfrowy stan rzeczy to przede wszystkim wciąż niewybrzmiałe echa i rezonanse jednego z założycielskich sporów, który wytyczył charakter projektu cyfrowego. Chodzi o debatę wokół ontycznego charakteru informacji, której korzeni szukać trzeba jednak dużo głębiej niż tylko w cywilizacyjnej debacie dotyczącej komputeryzacji. Objawił się on najpierw w postaci dwóch przeciwbieżnych dążeń w nowożytnym dyskursie poświęconym wiedzy w najbardziej ogólnym jej znaczeniu: ku wiedzy abstrakcyjnej (matematycznej) oraz wiedzy namacalnej, mającej bezpośrednie potwierdzenie w percypowanej rzeczywistości. Z jednej strony matematyka i jej pochodne miałyby być myśleniem abstrakcyjnym, formalnie doskonałymi teoriami opisującymi złożoność natury świata. Z drugiej zaś poznawanie i myślenie skonstruowane w ten sposób domagało się potwierdzenia i weryfikacji wobec niedoskonałości wiedzy abstrakcyjnej zderzającej się z wieloma niewytłumaczalnymi, a przecież realnie doświadczanymi kondycjami świata. Ten problem stał się jednym z najważniejszych dla nowoczesnych nauk i sztuk – objawił się w nich jako dystynkcja pomiędzy teorią a empirią, sztuką reprezentacji i sztuką przedmiotów, szczególnego zaś znaczenia nabrał wraz pojawieniem się maszyn kalkulujących i cyfrowej reprezentacji rzeczywistości przez nie tkanej [21]. Problem ten na właściwym dla metateorii wiedzy i nauki poziomie skomentował, by przywołać tu jeden z najważniejszych współczesnych autorytetów, filozof i metodolog Paul Feyerabend w swojej głośnej krytyce hegemonicznej roli naukowego myślenia abstrakcyjnego:
Jaką kondycję proponują nowe, cyfrowe media? W codziennym krajobrazie miejsce stałych i percypowalnych w tradycyjny, obiektowy sposób maszyn i tekstów medialnych zajmują ich cyfrowe ślady, tj. medialne procesy, obliczenia nieustannie dokonujące się pod powierzchnią interfejsów, sieciowe transfery danych we wszystkich możliwych kierunkach, negocjacje protokołów (ping, IP, Cookies). Ich obecność konstytuuje takie nowe formy technologicznego krajobrazu, jak odbywające się przy bardzo ograniczonej wiedzy i kontroli ze strony użytkownika działania komunikacyjne pomiędzy urządzeniami (Internet rzeczy) czy serwisami i usługami software’owymi i sieciowymi. Analogowe przyzwyczajenia często stawiają nas wobec nich w mało komfortowej sytuacji, kiedy nieświadomi tego, co procesują, komunikują i interfejsują wykorzystywane przez nas urządzenia jesteśmy narażeni na niespodzianki i konieczność nieustannej uwagi na wielu poziomach percepcji. Boleśnie w sensie finansowym przekonało się na przykład o tej nieustannej i fantomicznej konektywności cyfrowych urządzeń połączonych z sieciami polskie społeczeństwo zauroczone nowymi liniami technologicznymi smartfonów, kiedy okazało się, że nieustannie komunikują się one z bazami danych operatorów, dostawców usług, producentów, sieciami społecznościowymi i wieloma innymi miejscami w sieciach. Użytkownicy tych urządzeń przez długi czas nie zdawali sobie sprawy z przebiegu tych ukrytych transmisji i transferów, za co operatorzy zacierając ręce wystawili im słone rachunki [23].
Wspomniany spór o konstytucję cyfrowego świata dotyczył kulturowego i technologicznego rozumienia oraz sposobów wykorzystywania informacji. W cybernetycznym dyskursie został utrwalony jako poszukiwanie różnicy pomiędzy twardym i miękkim rozumieniem cyfrowej informacji [24]. Koncept twardej informacji wywodzi się z klasycznych prac Norberta Wienera i Claude’a Shannona, zaś ideę miękkiej wypracowali równolegle Gregory Bateson i Ross Ashby. Pierwszy ze sposobów pojmowania informacji polega na uznaniu jej za autonomiczny obiekt medialnego świata. Ma on naturalnie indywidualny, wynikający z oddzielania sfery instrukcji dla techniki od samej techniki, status, nawet pomimo wciąż nierozerwanych związków z tradycyjnymi obiektami – przedmiotami i tekstami medialnymi. Dla przykładu: za takie twarde informacje można uznać zbiór słów w tej książce, które po digitalizacji można traktować w oderwaniu od ich nośnika, czyli samego interfejsu papierowej książki. Miękka interpretacja informacji skupia się natomiast na roli otoczenia i kontekstu, w jakich ta informacja funkcjonuje. Chodzi tu szczególnie o ludzi, którzy się nią posługują – a zatem także i jej semiotyczny ładunek, który sytuuje techniczną formę przekazu (maszyny i infrastruktura technologiczna, które komunikację zaszumiają i zniekształcają) w symbolicznym środowisku kultury, pośród znaków, języków, form wizualnych i audialnych. Tak zdefiniowany kontekst na centralne miejsce w systemach informacyjnych wysuwa człowieka jako ogniwo spajające informacyjne elementy w całość, zaś fenomen informacji podporządkowuje wymogom komunikacji kulturowej.
Twardy koncept informacji to przejaw technokratycznej, redukcjonistycznej wiary w matematyczne modelowanie świata i jego doskonałość. Postrzeganie informacji jako autonomicznego obiektu medialnego świata otwiera drogę do konstruowania matematycznych struktur, takich jak sztuczna inteligencja, rzeczywistość wirtualna, ale przede wszystkim uruchamia projekt matematycznie zorganizowanego software, który staje się metagramatyką cyfrowego świata. Miękkie myślenie o informacji detronizuje taką jej pozycję, stawiając ponad nią inne elementy medialnego uniwersum, jak podmiot nadający i odbierający, ekosystem technologiczny czy kontekst kulturowy. Ponieważ jednak fazę rozwojową projektu cyfrowego, w której okolicznościach rozstrzygał się ten spór, zdominowały czynniki technokratyczne i towarzyszący im „twardy” dyskurs, to przyjęta w nim wersja rozumienia pokładów informacyjnych ostatecznie została ustanowiona jako jedna z zasad założycielskich projektu nowych mediów i epoki informacyjnej. Dopiero obecnie, po kilkudziesięciu latach ewolucji cyfrowości, kiedy dotychczasowy „twardy” paradygmat rozwoju przestał zaspokajać rosnące potrzeby użytkowników, coraz wyraźniej widać tu dążenie do dowartościowania czynników miękkich, przeformułowania wytyczonej wcześniej hierarchii. Świadczą o tym takie strategiczne nurty cyfrowego rozwoju, jak „wyszukiwanie sematyczne” i inne mechanizmy semantyczne, jak rozpoznawanie twarzy, produktów, dźwięków czy „data visualisation”, którym przyjrzę się bliżej w kolejnych częściach książki.
Jaki wpływ miał ten założycielski spór na kulturowe oblicze cyfrowego świata? Przywołana już wcześniej filozofka mediów Katherine Hayles dostrzega podwójną konsekwencję różnicy w rozumieniu sensu informacji dla projektu cyfrowego. Z jednej strony na jej skutek informacja traci swoje zakorzenienie w materii, swoją natywną cyfrową formę, „ciało”. Z drugiej strony emancypuje się także z kontekstu, w którym ją to „ciało” zanurzało, wychodząc w ten sposób naprzeciw oczekiwaniom przeciętnych mieszkańców kultury nieposiadających wystarczających kwalifikacji, aby funkcjonować w cybernetycznym wymiarze projektu cyfrowego, a jednocześnie na co dzień flirtujących z pop-cybernetycznymi jego wcieleniami [25]. Hayles wymienia trzy etapy postępującej dematerializacji informacji. Etap pierwszy to przywołany spór o twardą i miękką informację, który rozpoczął się po drugiej wojnie światowej i trwał do początku lat 60. XX wieku. Etap drugi trwał od lat 60. do 80. i okazał się procesem powolnego rozpoznawania kulturowego kontekstu, o którym mówili wcześniej teoretycy miękkiej informacji. W fazie trzeciej, która wciąż trwa, mamy natomiast do czynienia z wirtualizowaniem się informacji, czyli systematycznym uzgadnianiem uwarunkowań cybernetycznych z wymogami komunikacyjnymi kultury i życia społecznego [26]. Wraz z „mięknącą” informacją projekt cyfrowy przesuwa się z wojskowych i uniwersyteckich laboratoriów w kierunku kultury codzienności, jej mało wyrafinowanych technicznie mieszkańców niepotrafiących w codziennej praktyce wyrażać siebie samych ani konstruować świata w cyfrowy sposób.
Podobnie jak jednolite w epoce analogowej media zmieniają swój ontyczny charakter w cyfrowych okolicznościach, tak i informacja pod ich wpływem staje się wolna od tradycyjnych medialnych ograniczeń i ewoluuje w ten sposób do postaci postinformacji. W przyjętej przeze mnie terminologii ewolucja ta oznacza utratę tradycyjnych, cybernetycznych przymiotów informacyjności i redukcję/erozję do postaci danych. Ten postinformacyjny kierunek odcina jeden z kluczowych korzeni łączących projekt mediów cyfrowych z tradycją mediów wcześniejszych. Odcięte korzenie materialności informacji zastępują w cyfrowym świecie hybrydyczne ścieżki ku interfejsom, czyli użytkowym powłokom cyfrowych maszyn, oraz ku software, czyli abstrakcyjnym matematycznie, rządzącym ich wewnętrznym funkcjonowaniem, kodem i gramatyką [27].
W różnicę pomiędzy obiektem a procesem kultury medialnej wpisana jest także, na zasadzie sprzężenia zwrotnego, zmiana obejmująca hardware. Dotyczą tej materialnej warstwy medialnego świata przekształcenia, które zwiastują odwrót od dotychczas nią sterującej newtonowskiej mechaniki (elektryczności) i wejście w nowy porządek elektroniczny i postmechaniczny. Charakterystyczne dla nowoczesności i rewolucji przemysłowej maszyny i ich „analogowa” mechanika, które działały głównie wedle zasad naturalnych, takich jak reguły grawitacji, prawa zjawisk elektrycznych, natura materii, ustępują pod naporem alternatywnej „kultury” rozwiązań funkcjonalnych, opierającej się w coraz większym stopniu na regułach nanotechnik, mikroelektroniki, molekularnej chemii i fizyki kwantowej, związanych ze zjawiskami takimi, jak fale magnetyczne, nano- i hiper-przewodniki czy biotechnologie [28]. Nie znaczy to, że posthardware funkcjonuje wbrew prawom natury czy wywraca do góry nogami ich klasyczne, choćby newtonowskie czy euklidesowe, kodeksy i sankcje. Jego funkcjonalna natura traktuje jednak zarówno je, jak i klasyczny model ich opisu jako stały punkt odniesienia, jako wpisany w obecny system operacyjny na fundamentalnym poziomie. Z takim dziedzictwem swobodnie przesuwa się ku obszarom dla tradycyjnej wiedzy i technicznych form jej eksploracji i manipulacji niedostępnym, wywołując podejrzenia o zwrot ku manowcom kultury, nauki i życia społecznego.
W bogatym w różne „gatunki” narzędzi i maszyn ekosystemie cyfrowym obecne były i wciąż są przykłady komputerów analogowych, mechanicznych maszyn liczących, elektrycznych maszyn medialnych i obliczeniowych. Przyglądając się tej mnogości form i rozwiązań z perspektywy historycznej, można powiedzieć, że maszyny mechaniczne dopełnione/zastąpione zostały najpierw przez maszyny elektryczne, które następnie zastąpiły maszyny elektroniczne. Wszystkie te trzy historyczne typy wytworów nowoczesnej techniki obecne są wewnątrz cyfrowości i w przypisanym sobie zakresie wciąż realizują założenia projektu cyfrowego. Są w nim funkcjonalnie niezbędne. Komputery w przeważającej większości dzisiejszych form składają się z hardware’owej infrastruktury zasilanej elektrycznością, która stanowi operacyjną ramę dla różnego typu rozwiązań software’owych i sieciowych. Cybernetyka podobnie: zwieńczeniem jej wyobrażeń i dyskursów są przecież figury takie jak cyborg, który projektowany był zazwyczaj jako maszyna mechaniczna poszerzona z czasem o software’ową „inteligencję” [29]. Uważnie przyglądając się wchodzącym dziś na konsumencki rynek gotowym rozwiązaniom cyfrowym i zapowiedziom ich możliwych, przyszłych form, trzeba uznać, że dotychczasowy mechaniczny i elektryczny nurt osiągnął już kres możliwego rozwoju. Najnowsze maszyny medialne są narzędziami, w których nawet wyrafinowane mikromechaniczne elementy są zastępowane ich postmechanicznymi odpowiednikami. Dyski twarde, magazyny cyfrowego świata, zyskały nową formę w postaci magnetycznych płytek, zastępujących dotychczas dominujące napędy składające się z magnetycznych dysków, które wirując były odczytywane za pośrednictwem ruchomej igły (remediacja idei i formy gramofonu). Klawiaturę mechaniczną zastępuje klawiatura wyświetlana jako taktylny obraz (wrócę do tematu obrazów taktylnych w trzeciej części książki). Ostatnie wersje laptopów dostępnych na rynku nie zawierają w sobie już żadnych mechanicznych części, które do tej pory były tradycyjnie obecne wewnątrz komputerowych maszyn: obok wspomnianyh dysków nowego typu zamiast napędu optycznego mechanicznie obracającego dyskami CD, DVD, BR jest czytnik kart pamięci; zamiast gniazd sieciowych LAN zastosowano porty bezprzewodowe WiFi czy Bluetooth. Większość dostępnych w nowoczesnych systemach interfejsów wyjścia i wejścia jest tu na stałe wkomponowana w elektroniczną architekturę obliczeniową.
Postmedia to technologie, dla których charakterystyczne są rozwiązania postmechaniczne i postelektryczne. Poznanie sposobu ich pracy, jak to już powiedziałem, wymyka się naturalnym właściwościom percepcji posługującego się nimi człowieka, tradycyjnym kodom kulturowym definiującym relacje kultura-technika i uznanym za kanoniczne regułom i prawom opisującym fizykę, chemię i matematyczność świata. Postmedialne maszyny stały się mitycznymi i magicznymi narzędziami manipulacji zjawiskami natury. Nie odwołują się już wprost, w bezpośredni i przejrzysty sposób, do powszechnie dostępnych zasobów wiedzy kulturowej – jak to miało miejsce w przypadku maszyn mechanicznych, które w naturalny sposób rozwijały wcześniejsze twory techniki czy starały się naśladować budowę i funkcjonowanie organizmów żywych. Odnoszą się za to do wyrafinowanych zasobów wiedzy specjalistycznej, wykorzystują zawiłe zjawiska i wciąż jeszcze nie w pełni rozpoznane i opisane stany odkrywane przez zaawansowaną technologię. Do pracy z nimi potrzebne są, w odpowiedzi na taki stan rzeczy, rozwiązania techniczne, które te wyrafinowane maszyny ubiorą w kulturowo przyjazne, symboliczne szaty. Są nimi interfejsy użytkowe powstające na styku software i hardware, których idea i forma nie tylko nadają postmediom kulturowo przyjazne kształty, ale i skutecznie przejmują dotychczasową rolę monolitycznych mediów [30].
Przechodząc od medialnych obiektów do medialnych procesów doszedłem do kategorii software, czyli napędzanej dzięki elektrycznej i cyfrowej cyrkulacji zdematerializowanej informacji – danych. To kategoria, która stanowi o ontologicznej unikalności fenomenu nowych mediów i cyberkultury, zaś współcześni medioznawcy stawiają ją w centrum cyfrowej kultury, zaś samemu pojęciu przypisują miano kluczowego dla teorii kultury współczesnych mediów. Nie będę w tym miejscu z oczywistych względów nawet próbował zagłębiać się w definiowanie i analizy software, bo jest to problematyka, która domaga się samodzielnych opracowań i, jak wspomniałem we wstępie, w moim tekście funkcjonuje jako najważniejszy, choć mało wyraźny bohater drugiego planu. Przy różnych okazjach będę jednak do poszczególnych elementów software’owego uniwersum się odwoływać.
Software spekulacyjny to natomiast oprogramowanie eksperymentalne, za pomocą którego możliwa jest eksploracja możliwości programowania w ogóle. W tej dziedzinie programiści ewaluują kodowe glitche, wirusy, malware, spyware, patche, błędy, ale także poszukują nowych rozwiązań społecznych i kulturowych sytuujących software w przestrzeni publicznej. Kategorią bliskoznaczną wobec spekulacyjności software jest strategia cyfrowego oporu i działania antysystemowego, która charakteryzuje środowiska i etos hakerski.
Poprzez swoją formalną otwartość i nominalnie egalitarny dostęp do zasobów kodu software może się rozwijać jako ważna dla kultury sytuacja postmedialna właśnie wtedy, kiedy wszystkie trzy wskazane przez Fullera jego domeny rozwijają się równolegle. Postmedialny charakter software bierze się z krytycznego oglądu i potencjału rekonstrukcji, który ta medialna warstwa oferuje wobec wszystkich poprzednich gramatyk i kodów medialnych oraz ekosystemu medialnego jako takiego. Bierze się także z dokonującej się pod naporem sił społecznych, reorganizacji tego ekosystemu i obecności w nim nowych, społecznych, graczy mających rzeczywisty wpływ na hierarchiczny dotąd, medialny krajobraz. Postmedialność software to także efekt możliwego w obszarze kodu nieustannego sprzężenia zwrotnego pomiędzy obecnymi formami oprogramowania a ich przyszłymi wersjami. Software jest formą otwartą, a zatem znajdującą się w nieustannie sprzężonym i zapętlonym procesie kodowania i jego hardware’owych implementacji.
Manovich i Fuller postrzegają software jak praktykę kulturową, w której mieszają się wszystkie dotychczasowe doświadczenia kulturowe i cywilizacyjne – zarówno związane z istniejącymi mediami i zapośredniczoną przez nie komunikacją, jak i wynikające z dorobku nauki, sztuki, urbanistyki, wojskowości, itd. Praktyka technologiczna i komunikacyjna software to konglomerat, w którym łączą się i stapiają ze sobą do granic rozpoznawalności sztuka, nauka i technika. Jaki jest efekt tego wymieszania? To znacznie więcej niż software rozumiany technologicznie jako zbiór instrukcji operacyjnych komputera. Kulturowe rozumienie software rozciąga się bowiem również na materializację i synergię kulturowych (w tym i medialnych) dyskursów, form i modalności, zderzenie przeróżnych procesów i dyskursów, technokulturowy asamblaż – jak powiedzieliby Deleuze i Guattari [34].
Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].
Około roku 2005 zdiagnozowano przełom w cyfrowej kulturze. Przedsięwzięcie ekonomiczne i kulturowe znane powszechnie jako „Internet” miało złapać drugi oddech, otrząsnąć się ze skutków katastrofalnego w sensie ekonomicznym okresu tzw. bańki dotcomów i wkroczyć do krainy Web 2.0. Momentem przesilenia okazały się krachy giełdowe przeinwestowanych i nienaturalnie zarządzanych fuzji, eksperymentów czy operacji giełdowych i strach przed „pluskwą milenijną” około roku 2000 (pośród nich szczególne znaczenie miała nieudana fuzja AOL i Time Warner – największego dostawcy usług internetowych w Stanach i jednego z największych przedsiębiorstw branży rozrywkowej z roku 2001). Po tym symbolicznym oczyszczeniu i restarcie kluczową rolę w nowych okolicznościach odegrać miały zastępy userów i tworzone przez nich wirtualne społeczności (o których przeszło dekadę wcześniej pisał Howard Rheingold [41]) – obdarzeni w nowej filozofii cyfrowego świata należnym im miejscem kreatorów i najważniejszych decydentów. W nowej mitologii cyfrowego świata chętnie przyznawano im zdolność do podjęcia roli wcześniej sprawowanej przez korporacje, rządy i organy kontroli i sugerowano, że kształt cyfrowości jest od tego momentu wyłącznie w ich rękach. Te i podobnie brzmiące nowe „reguły gry” zostały okrzyknięte mianem konstytucji odnowionej, społecznościowej wersji Internetu. Tezę o cyfrowym restarcie wspierały najważniejsze „tradycyjne” media. Rok 2005 BBC ogłosiło rokiem cyfrowego obywatela (The Year of Digital Citizen), a niedługo potem amerykański Time nadał prestiżowy tytuł człowieka roku (Time Person of the Year) każdemu poczuwającemu się do tego miana kreatorowi zawartości Internetu, który miał okazję zobaczyć swoje odbicie w lustrze zamieszczonym na okładce magazynu [42]. W taki sposób przedsiębiorstwa i koncerny medialne, zakorzenione w systemie poprzedniej analogowej, epoki ogłosiły rekonstrukcję projektu cyfrowego pod szyldem społecznej emancypacji wobec sił technopolu i zawłaszczonych przezeń cyfrowych narzędzi[43].
W najbardziej ogólny sposób ostatnie oblicze odwiecznej walki o panowanie nad technologiami komunikacyjnymi można by, w kontekście tego, co już powiedziałem, określić jako przejście od mediów masowych do mediów społecznościowych. W XX-wiecznej historii tego sporu można dostrzec następujący mechanizm: media analogowe umożliwiające komunikację na skalę zbiorową stały się najważniejszym z instrumentów władzy politycznej (propaganda, hegemonia kulturowa) i relacji makroekonomicznych (przemysł kulturowy, globalizacja, mediatyzacja). W reakcji na takie społeczne usytuowanie technologii komunikacyjnych i w cieniu ich natężającej się kulturowej krytyki powstały media cyfrowe. Ich społeczną rolę zaprogramowano tak, aby stały się remediami na bolączki epoki mediów masowych. Miały stać się napędem nowego porządku kultury, w której komunikacja odbywa się już nie tylko bezzwrotnie na linii system-masy, ale także wewnątrz niegdysiejszych mas oraz pomiędzy nimi a systemem. Nowe media obliczone były, a przynajmniej opowiadane w ramach narracji nowej gospodarki, nowych ruchów społecznych, jako projekt sprzężenia zwrotnego między obywatelami a systemem państwa i rynku. Nie będę tu wchodzić w motywacje kryjące się za tymi narracjami ani w ich prawdziwość względem praktyki obecności w życiu społecznym. Interesuje mnie natomiast właśnie praktyka społeczna cyfrowego przełomu. Ona zaś sugeruje, że projekt mediów społecznościowych, który zyskał sobie ikoniczny szyld Web 2.0, nie jest tak jednoznaczny jak nakładające nań makijaż marketingowy i polityczne mitologie [46]. Obywatelskie uwłaszczenie się w domenie technologicznej jest pozorne, podobnie jak złudny jest ich społecznie konstytutywny charakter.
Podważenie potęgi jednowymiarowości systemu komunikacji masowej, którego dokonali uzbrojeni w technologie cyfrowe i sieci pierwsi emigranci przybyli ze starej kultury do nowego cyberświata (pokolenie pierwszych hakerów wyrosłych na amerykańskiej kontrkulturze), zostało w dużej mierze zaprzepaszczone. Okazali się oni elitą, która myśląc krytycznie potrafiła wyznaczyć tropy do naśladowania przez ślepe i urabiane dotąd medialnym potokiem masy. Te jednak, zauroczone wyjściem poza dotychczasowy kanon, w nowych okolicznościach zachowały się po barbarzyńsku. Wybrały drogę pierwotnych, zwierzęcych instynktów, które zmaterializowały się w estetyce informacyjnego chaosu, antropologicznych problemów z osobowością zdezorientowaną w lokalizacji między światem offline i online oraz cyberwojny wszystkich z wszystkimi – zarówno domowej, tj. pomiędzy systemem instytucji państwa, sfery gospodarczej i obywatelami po drugiej stronie, jak i w skali globalnej w postaci cyfrowego wyścigu zbrojeń.
Matteo Pasquinelli książkę Animal Spirits. A Bestiary of the Commons poświęca właśnie analizie stopnia barbarzyństwa dzisiejszej cyberprzestrzeni, zajmuje się postępującym w niej upadkiem obyczajów i chaotyczną destrukcją wszystkiego, co relacyjne i co społeczne[47]. Pasquinelli opowiada się za wizją skutków społecznościowej rewolucji zainicjowanej przez kulturowe i społeczne ruchy w cyberprzestrzeni przeciwną wobec najbardziej popularnej mitologii cyfrowej rewolucji. Tam, gdzie cyberoptymiści widzą nowy ład kultury i urzeczywistnienie najbardziej wzniosłych marzeń i stojących za nimi wartości społecznych, stawia diagnozę przeciwną. Zamiast demokratyzacji życia społecznego, elektronicznej sfery publicznej, emancypacji obywatelskiej, widzi sieciowe zdziczenie obyczajów, dokonujący się krok wstecz w rozwoju społecznym i mimowolne wyjście na manowce kultury. Elektronicznymi zachowaniami zbiorowości rządzić mają instynkty pierwotne (tytułowe animals spirits będące nawiązaniem do kartezjańskiego oryginału, czyli tchnień żywotnych). Przekładają się one na szereg działań nieracjonalnych, nieprzewidywalnych i trudnych do jakiejkolwiek kontroli, kiedy już się objawiają. W części wynikają one z natury ludzkiej egzystencji, jednak ich przyczyną jest także „klaustrofobia kodu”, czyli zapisane w gramatyce nowych mediów mechanizmy władzy, reguły ekonomiczne, ideologie, z którymi nie potrafią racjonalnie walczyć, ani ich omijać, zanurzeni w cyfrową rzeczywistość userzy reagujący nieposkromioną agresją i dzikością. Do tego dochodzą także i inne znane antropologom mechanizmy zachowań zbiorowych, związane z celebracją anonimowości czy zachowaniami „stadnymi”. W rezultacie, wyrokuje Pasquinelli, nie istnieją wyłącznie racjonalne, jednoznacznie integrujące i moralnie nieskazitelne praktyki w cyfrowym świecie – wręcz przeciwnie stopień zawartości animals spirits w przestrzeni cyfrowej narasta. Co więcej, objawiając się i kumulując się online zostaje tam utrwalony i zmultiplikowany, by następnie, na zasadzie pętli sprzężenia zwrotnego, powracać z większą siłą do świata offline, zmieniając go.
W konsekwencji idealizowana przez wielu apologetów i marketingowców współpraca i wspólne życie w sieciach i na platformach cyfrowych, zawiązujące się w nich relacje społeczne i reaktywująca się sfera publiczna, szerzej: wszystko, co mieści w zbiorze desygnatów kategorii networking, przypomina raczej stan notworking.
Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.
David Bollier, kolejny z krytycznych analityków praktyk sieciowych, twierdzi, że nawet proste i prymitywne zachowania w sieci mają jednak głębszy, w swej istocie pozytywnie kulturotwórczy sens. Bollier argumentuje, że powstaje na skutek tych zachowań „nowy gatunek” człowieka społecznego, który w przyszłości, kiedy osiągnie przypisaną mu dojrzałość i właściwie rozpozna swoją grupową siłę, zupełnie zreorganizuje sferę polityczną i publiczną. Dzisiejsze viral spiral, czyli chaotyczne i niestabilne społeczne moce uwalniane online, okrzepną, przekształcą się w nowego typu struktury i staną się podstawą budowania zupełnie nowego ustroju społecznego i systemu kulturowego, którego zasady wyznaczą dzisiejsze słowa-klucze opisujące wirtualne społeczności, takie jak wolny dostęp do zasobów kultury i technologii, nieograniczona cyrkulacja danych, uwolniona kreatywność . Rozedrgana i targana przygodnością faktura życia zbiorowego w sieci z czasem uspokoi się i okrzepnie. [48]
Sytuacja podwójnego „opodatkowania” i podwójnej nieuczciwości przejawia się także w inny sposób. Po pierwsze dlatego, że omamione opowieścią o wyzwoleniu i rewolucji masy użytkowników najczęściej ślepo brną w ten medialny scenariusz, udostępniając bezrefleksyjnie wiele danych na temat swojego życia, takich jak zdjęcia, dane personalne, preferencje estetyczne, ślady aktywności rynkowej (zakupy), zainteresowania. Po drugie dlatego, że nikomu nie zależy na „rozbrojeniu” tego mechanizmu. W sprawie zabezpieczenia interesów obywateli nie występują państwa ani ich wyspecjalizowane organy, w ograniczonym zakresie robią to artyści funkcjonujący w oficjalnym obiegu sztuki. Te i podobne zakorzenione w analogowym systemie siły mają z medialnym rynkiem wspólny interes. Ze względu na podobieństwo strukturalne (model masowego rynku mediów jest paralelny wobec klasycznego modelu władzy państwowej) są nawzajem swoimi zakładnikami. Wszystkim im sprzyja fakt kontroli wiedzy o obywatelach i użytkownikach technologii, każdy z nich swoją elitarną pozycję i możliwość sprawowania w ten sposób władzy zawdzięcza zawłaszczaniu i wykorzystywaniu społecznej energii i zasobów, które w dobrej wierze i/lub nieświadomie zostają uwolnione w przestrzeni cyfrowej. Destrukcja modelu systemu komunikacji masowej oznaczać będzie, w bardziej lub mniej rozciągniętej w czasie perspektywie, radykalne podważenie zaufania do systemu władzy państwowej i wszelkich systemów społecznych skonstruowanych w oparciu o podział na elitę i masę, wyzwoli chęć rewolucji już nie tylko komunikacyjnej, ale i analogicznej we wszystkich możliwych sferach[49].
Wpływowy holenderski krytyk Internetu Geert Lovink jest przekonany, że obecne stadium tzw. mediów społecznych pod szyldem 2.0 to sprawnie wyreżyserowane przez medialne korporacje działania, których zadaniem jest pozyskanie jak największej liczby danych o użytkownikach Internetu i nowych technologii. Media 2.0 są infrastrukturą nasłuchującą i tworzącą bazy danych, które potrzebne są do podtrzymywania modeli biznesowych w cyfrowym świecie – odwołam się raz jeszcze do tego wątku moich analiz. Dyskursywnej i społecznej zarazem niemocy mediów 2.0 dowodzi zdaniem Lovinka „tragedia komentarzy”, czyli ich zupełny brak w przeważającej ilości sieciowych miejsc dialogicznych. Zamiast nich doskonale funkcjonują działania i dyskursy pozorne, znaki faktycznych działań, dla których ikonami są przycisk „lubię to” na Facebook.com czy ćwierknięcia na Twitter.com [51]. Powstające w ten sposób dane, kapitał społeczny, okazują się jedynie kapitałem ekonomicznym, który służy interesom wchodzącym w jego posiadanie dostawcom infrastruktury. Praw do niego już z chwilą współtworzenia pozbawiani są zaś jego twórcy, którzy dla przykładu nie mają możliwości usunicia z Facebook.com trwale swojego profilu. Wraz z tymi prawami tracą oni także możliwości posługiwania się nim w inny, niż przewidziany przez dostawców, sposób. Niedawno głośna była seria wirtualnych samobójstw dokonywanych przez użytkowników na swoich społecznościowych profilach w proteście przeciwko polityce tych firm wobec danych użytkowników. Portale skutecznie zablokowały te subwersywne działania [52]. Wrócę do tematu pozyskiwania w ten sposób danych w części poświęconej postmedialnej roli baz danych.
Jeśli jednak media 2.0 nie spełniają kryteriów, które można by postawić wobec projektu mediów społecznych, to czy cyfrowe technologie połączone w sieciach mają szansę wyrwać się z uścisku technopolu i stać się faktycznie przestrzenią społeczną nowego typu, którą cechować będą przymioty wolności, otwartości, kreatywności, itd.? Sądzę, że obecny etap komercyjnie i politycznie inspirowanych i dyskretnie koordynowanych ruchów pseudospołecznościowych cechują dwa stany, które są charakterystyczne dla postmedialnego zwrotu. Po pierwsze, kontrola technopolu nie jest już tak skuteczna, jak w przypadku mediów masowych – w szczelnym dotąd systemie zdarzają się poważne wycieki i uszkodzenia, których nie da się już starymi metodami eliminować. To wspomniane wikileaks, działania hakerów, dziennikarstwo obywatelskie, piractwo. Po drugie, to interaktywność nowych technologii i egalitarny charakter cyfrowego kodu, do którego manipulacji i implementacji w formie software i protokołów mają zasadniczo dostęp wszyscy zainteresowani dysponujący odpowiednimi kompetencjami. Dostęp do kodu i możliwość użycia go wedle własnej wiedzy, wyobraźni i możliwości uruchomiły rzeczywistą emancypację technologiczną na niespotykaną wcześniej skalę. Skorzystanie z jej możliwości nie jest jednak ani automatyczne, ani proste. Wymaga wiedzy, której nie da się nabyć przez dekodowanie zawartości tych mediów. Potrzebne jest tu dekodowanie samych technologii i sterującego ich działaniem kodu, a to kompetencje, których wyrobienie wymaga przewartościowania w obszarach wiedzy, edukacji, wyobraźni kulturowej, prawa. Jeśli projekt cyfrowy można rozpatrywać w kategoriach uspołecznienia technologicznego środowiska komunikacji zbiorowej, to polem dla takiej refleksji jest właśnie ta emancypacyjna siła cyfrowych reguł, które do nikogo nie należą, nikogo nie preferują, nie mają formalnych ograniczeń. Można je opisać oczywiście jedynie na najbardziej fundamentalnym poziomie gramatyki technologicznego języka cyfrowości, gdzie istnieją cyfry i ich logika, czyli matematyka, oraz elektryczność jako przedmiot materializujący działania matematycznej abstrakcji. Wszystko, co istnieje w tym projekcie powyżej owego bazowego poziomu, jest już polityczne, wchodzi w reakcję z istniejącym systemem – staje się kwestią ekonomii zasobów kultury, społecznego systemu ról komunikacyjnych, regulacji prawnych, itd. Tylko towarzyszące rozwojowi technologicznemu nowego typu kompetencje medialne mogą tu zagwarantować faktycznie uspołecznioną kulturę mediów.
Spór o technikę zakorzenił się w wyobraźni społecznej i kulturowym dyskursie tak głęboko, że jego założeń nie są w stanie naruszyć ani radykalne zmiany technologiczne, które odmieniły oblicze technologii medialnych (cyfrowość, sieci i nowe media), ani rynkowe i polityczne narracje opiewające medialną „wiosnę ludów”. Rzeczywistość społeczna będzie się w tym zakresie zmieniała wolniej od okoliczności politycznych i technologicznych, stosowne zmiany zostaną społecznie wychwycone z czasem i dopiero wtedy status technologii komunikacyjnych ma szansę na zmianę. Analogiczny los spotka zapewne wyobrażenie o obywatelu zanurzonym w medialny świat. Postrzega on i rozumie siebie jako medialnego partyzanta, który znajduje się po przeciwnej niż technologia stronie barykady i stara się medialne maszyny, języki i ekosystem przechytrzyć, wykorzystać i/lub ośmieszyć. Z tego stanu rzeczy wywodzą się wszystkie najpopularniejsze medialne scenariusze rozpoznawane przez antropologów, takie jak przywołane „dzikie instynkty” piractwa, hakingu, anonimowych działań stadnych. Te wszystkie elementy współtworzą taktyczny opór wobec medialnego systemu i jego strategii, jakby to można określić odwołując się do terminologii Michela de Certeau.
W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.
Ned Rositter, socjolog zajmujący się sieciowymi społecznościami, przekonuje, że w dyskusjach na temat kultury sieci często pojawia nadmierny zachwyt nad zdolnością do samoorganizacji, świadomością i autokrytycyzmem biorących udział w wirtualnych przedsięwzięciach. Jego przedmiotem jest przede wszystkim szybkość i sprawność, z jaką internauci nawiązują ze sobą kontakty, jak efektywnie i w większości wypadków mało kolizyjnie potrafią ze sobą twórczo i efektywnie współpracować. Sprawnie tworzą struktury, które, w przeciwieństwie do tradycyjnych form organizacji pracy i społecznych, mają wymiar wertykalny, są przede wszystkim oparte na podtrzymywaniu wielkiej liczby wzajemnych relacji i związków, nie zaś na pionowym zarządzaniu przepływem zasobów i władzy i wspierającą je hierarchiczną dyscypliną. Zaintrygowanych fenomenem tej sieciowej współpracy najczęściej nurtuje pytanie o to, jak sprawić, aby równie sprawne, oparte na sieciowej ekologii mechanizmy działania zaczęły pojawiać się w praktyce funkcjonowania świata offline, czyli w codziennym działaniu takich instytucji, jak przedsiębiorstwo, państwo, uniwersytet, instytucje religijne, działalność społeczna. Mówiąc inaczej: hierarchiczny świat jest zauroczony zdolnością do kreatywności i elastyczności sieciowych form współpracy realizowanych za pośrednictwem mediów cyfrowych. Stare, odchodzące powoli do lamusa, formy instytucjonalne, które starają się obserwować sieciowe zmiany i wyciągać z nich wnioski dla swojej tożsamości, można nazwać „usieciowionymi organizacjami”. Według Rosittera zastępować je będą coraz skuteczniej „zorganizowane sieci”, które będą powstawać przez przenoszenie sieciowych mechanizmów do życia offline, ich adaptację wewnątrz struktur już istniejących instytucji i tworów życia zbiorowego. „Zorganizowane sieci” oferują restytucję uśpionych w strukturach hierarchicznych form i reguł współpracy ponad wytyczonymi podziałami organizacyjnymi, świeżość i kreatywność w rozwiązywaniu skomplikowanych problemów, nieograniczoną potencję rozwoju oraz przyciąganie i zdolność do absorpcji i przetwarzania nieograniczonych zasobów. Te niewątpliwe przymioty równoważą jednak niedoskonałość strukturalną i organizacyjną sieci. Z praktyki internetowego działania wynika, że nie chaotyczne, przygodne formy kontaktu i działania sieciowego są najbardziej skuteczne, lecz te, w których nad dezorganizację przedkładana jest z czasem skutecznie zabezpieczająca efektywność forma organizacyjna [53].
Trzecim z elementów wyznaczających charakter postmedialnej zmiany jest człowiek i jego biologiczne i psychofizyczne cechy. W cyfrowych okolicznościach staje on naprzeciwko dwóch postmedialnych sytuacji. Pierwszą jest przeniesienie doświadczenia medialnego ze sfery percepcji do sfery interakcji. Drugą zaś przekroczenie szeregu granic o charakterze biologicznym, które dotąd wytyczały terytorium komunikacji i kultury. Sytuacja postmedialna oznacza dla niego wejście na powrót w renesansową integralność doświadczenia medialnego (kulturowego) oraz konfrontację z niedostrzeganymi wcześniej biologicznymi reżimami komunikacji.
Postmedia można w kontekście antropologicznym określić synonimicznie: media wyobrażone. Za sprawą interaktywnych software i interfejsów możliwe jest ich bezpośrednie i niemal nieograniczone formalnie (granicą są tu jedynie parametry hardware), dokonujące się w czasie rzeczywistym, sprzężenie z procesami myślowymi. Domena cyfrowa funkcjonuje na zasadzie nieustannie zapętlonego sprzężenia wyobraźni, języka i medialnej materii: interfejsów, kodu i baz danych. Wyimaginowane idee, fantazje, marzenia, utopie transformują się tu natychmiast w modele symboliczne, czyli wyrażenia językowe (kody kultury) i w dalszej kolejności interferują z materią cyfrowego systemu. Taka relacja pomiędzy wyobraźnią, językiem i materią dotyczy nie tylko programistów, projektantów czy inżynierów, którzy są w stanie dzięki swoim umiejętnościom rozmawiać z technologiami i formować je. Dotyczy także zwykłych jej użytkowników, którzy coraz sprawniej dysponują specjalistycznymi umiejętnościami i mają dostęp do coraz większej ilości zakodowanych w nich zasobów. Obowiązuje tu nieustanny loop transferów danych, obliczeń i sterujących nimi „zasobów” ludzkich. Miękka część cyfrowych mediów, czyli software i interfejsy, to ni mniej ni więcej jak tylko zakodowane i utrwalone cyfrowo wyobraźnia i wnikające/wynikające z niej, odbite i zamrożone w medialnych formach procesy myślowe.
Wejście w cyfrowy świat właśnie z tego powodu okazuje się tak bardzo angażujące – dowodzą tego np. doświadczenia z grami komputerowymi czy programowaniem, którym to czynnościom oddający się potrafią się zupełnie zapomnieć, tracąc kontakt z rzeczywistością offline. Tak wysoki i rozbudowany poziom zaangażowania był dla wcześniejszych form medialnych nieosiągalny. Żadna z nich nie mogła przecież zaoferować dwustronnej wymiany pomiędzy sobą a użytkownikiem, tak namacalnego i uchwytnego w czasie związku przyczynowo-skutkowego i potencjału interaktywności. Żadna z nich nie była w stanie zaangażować w takim zakresie swojego użytkownika w negocjacje własnego programu, definiowanie samego siebie – pozyskiwała jego wyobraźnię tylko w trybie „czytaj”, nie pozwalając mu „pisać” [56]. Wcześniejsze, analogowe kształty wyobraźni medialnej koncentrowały się na odczytaniu (dekodowaniu, dekonstrukcji) medialnego przekazu i jego formy. Wyobraźnia postmedialna pracuje natomiast w dwóch trybach jednocześnie. Potrafi jednocześnie percypować i kreować medialny świat; nie tylko przygląda mu się ale i wizualizuje go; słucha, ale i (d)opowiada go; dotykając czuje, ale i informuje, kształtuje.
Medialna wyobraźnia jest dla komunikacyjnego i technologicznego uniwersum odpowiednikiem tego, co w nauce określa się mianem teorii. Teorie są modelami zdarzeń, interpretacjami rzeczywistości i jej projekcjami poszukującymi uniwersalnych prawd i kształtów. Dla nowoczesnej nauki i tworzonej przez nią wiedzy teorie okazują się fundamentem – nieraz wyprzedzają rzeczywistość, którą nauka tradycyjnie zwykła analizować za pomocą eksperymentów, obserwacji i doświadczeń. W nowoczesności, wraz z rozwojem technologii opartych na elektryczności (w tym także i mediów, bowiem historia współczesnych mediów i historia elektryczności są nierozłączne – zagadnieniu temu poświęcę część kolejnego rozdziału), tradycyjna kolej rzeczy została odwrócona. Stało się tak po raz pierwszy za sprawą szkockiego fizyka i matematyka Jamesa Clerka Maxwella, który w XIX wieku przewidział/matematycznie udowodnił istnienie fal elektromagnetycznych. Potrzeba było kilkunastu lat, aby istnienie tego, znanego jedynie w teorii, zjawiska eksperymentalnie potwierdzić. Udało się to dopiero Heinrichowi Hertzowi [57]. W naukach ścisłych od tego czasu teoretyczne rozpoznania świata i praktyczne działania tłumaczące jego tajemnice stały się równoprawnymi, uzupełniającymi się, ale i wzajemnie ze sobą konkurującymi metodami. Podobny los spotkał słynne równania Einsteina, które, prawdziwe w teorii już za czasów jego życia, okazały się nieweryfikowalne w praktyce jeszcze przez długi czas. Dopiero Kurt Gödel zweryfikował ich prawdziwość w odniesieniu do praktyki. W domenie cyfrowej empiryczna praktyka odpowiadałaby ontycznej logice hardware, zaś teoria – realizowana w postaci logiki działań na cyfrowych symbolach, czyli matematyki – warstwie software. Będę wracał jeszcze do tego specyficznego podziału na teorię i praktykę zarówno w nauce, jak i w obszarze technologii medialnych, ich splot i różnica pomiędzy nimi to jeden z najważniejszych czynników definiujących kulturowe kody technologii cyfrowych i regulujących rolę i kształt medialnej wyobraźni.
Myśl o mediach wyobrażonych zainspirował dla teorii mediów niemiecki badacz Siegfried Zielinski w swojej archeologii mediów [58]. Zielinski sięgnął w niej w technologiczną i dyskursywną przeszłość mediów, odnajdując w niej niepodjęte lub podjęte w niewystarczającym zakresie formy, idee i kierunki rozwoju form technologicznych. Zainteresował się genetycznymi kodami stojącymi za poszczególnymi medialnymi formami, doszukując się płynności, wymienności i nieustannej transformacji w ich ewolucji. Śladami Zielinskiego podążają dzisiaj liczni badacze kultury mediów, ale też – mniej lub bardziej świadomie – ich budowniczowie. W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media zebrani autorzy, teoretycy mediów, poszukują medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się cywilizacji stworzyć. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są jedynie w części realne, a w części imaginacyjne. Formy imaginacyjne, choć nigdy niezmaterializowane, objawiały się „wirtualnym” życiem w zbiorowej wyobraźni i często miewały na nią konstruktywny wpływ[59]. Możliwa jest ich zdaniem alternatywna historia mediów, a zatem i ich krytyczna (transtechnologiczna i transmedialna) archeologia. Kategoria mediów wyobrażonych odnosi się już nie tylko do retrospektywnego spojrzenia na wielowymiarowe dziedzictwo medialnego świata: ma także zwrot ku przyszłości, wskazuje na media potencjalnie istniejące, formy „w budowie” i połączone z nimi dyskursy kulturowe i technologiczne, które dopiero nabierają siły i docelowego zasięgu.
Pierwsze słownikowe wyjaśnienia terminu wirtualny odwoływały się do czegoś, co jest wytworem wyobraźni i powstaje w mózgu. Dopiero potem semantyka tego terminu ewoluowała w kierunku światów istniejących dzięki maszynom cyfrowym, powoływanym za ich pomocą do życia. Wciąż jednak pojęcie to odnosi się przede wszystkim do sprzężenia pomiędzy tym, co wyobrażone na poziomie biologicznym i egzystencjalnym, a tym, co jest tego cyfrową reprezentacją i medialnym modelem [64]. Według Jeana Baudrillarda, jednego z najważniejszych znawców relacji pomiędzy rzeczywistością a jej medialnymi modelami/kopiami, wirtualne jest to, co jest bezpośrednią projekcją rzeczywistych doświadczeń do wewnątrz języka technologii medialnych. Wirtualność to cyfrowy projekt, którego wczesną charakterystykę (tj. w okresie kiedy miała ona status osobnego medium) można dziś (w fazie kiedy przeważająca większość cyfrowych systemów i protokołów poddana została wirtualizacji) uznać za kondycję właściwą mediom cyfrowym w ogóle. Wraz z ich wirtualizowaniem dystans pomiędzy medialnym doświadczeniem a medialną wyobraźnią został radykalnie zredukowany. Do poziomu, który, jak wspomniałem, w kontaktach z poprzednimi gramatykami mediacji był nieosiągalny.
Permanentne wpięcie w medialny ekosystem potencjału wyobraźni kulturowej i możliwość jednoczesnego czytania/pisania mediów/mediami to sytuacja, która z jednej strony powoduje nieustanne testowanie i weryfikowanie form mediów i ich bieżącą rekonstrukcję/programowanie prowadzące do ich remiksowania i zanikania. Z drugiej strony sprzyja zacieraniu się w kulturze konceptu mediów jako takich. W ten sposób niezależnie od kontekstu społecznego i technologicznych scenariuszy również w obszarze wyobraźni kulturowej media rozpływają się i znikają, wypełniając w ten sposób warunki kondycji postmedialnej. W miejscach wyraźnych materialnych medialnych kształtów i gramatyk ostają się tylko ich pojedyncze elementy składowe, które wchodzą w różne reakcje pomiędzy sobą.
W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media jego autorzy, teoretycy mediów, skupili się na poszukiwaniu medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się naszej cywilizacji wypracować. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są zawsze jedynie w części realne/ukończone, a w dużej części wyobrażone/imaginacyjne. Nie brak w pracy świadectw medialnych konfliktów, które, wielokroć przypadkowo, pozycjonowały w kulturze technologie mniej ciekawe i obiecujące kosztem tych doskonalszych (np. konflikt VHS kontra BETA)[65]. Ich zdaniem możliwa jest w konsekwencji alternatywna historia mediów, a zatem i ich krytyczna, transtechnologiczna i transmedialna archeologia. Zadaniem jej byłoby odsłanianie alternatywnych medialnych kultur zarówno tych opartych na istniejących formach technologicznych, jak i mediów niezmaterializowanych kulturowo, które zniknęły w mrokach przeszłości, zanim jeszcze na dobre wypłynęły na powierzchnię komunikacyjnej historii. Technologiczny świat mediów poddany rządom społecznej wyobraźni jawi się w analizach tego typu jako konstrukcja płynna, której kształty i losy dyktują nie tylko same technologie, odgórnie przypisane do nich polityki i estetyki, ale także społeczno-kulturowe odczytania i wynikające z nich reguły mocujące te media w systemie społecznym, ostatecznie formatujące ich oblicza i trajektorie.
Taka archeologia i paleontologia mediów odsłania medialne i komunikacyjne imaginaria towarzyszące pojawiającym się technologiom. Tym tropem wyraźnie podąża w swojej teorii/archeologii mediów Siegfried Zielinski. Niemiecki filozof poszukuje płynności i kontynuacji ich form i reguł, sięgając do historycznych zdarzeń, sił i procesów, w które technologie komunikacyjne bywały i wciąż pozostają uwikłane. W myśl tej historycznej perspektywy medialne technologie i ich społeczne otoczenie zawsze były i wciąż są funkcją zbiorowych imaginariów komunikacyjnych. Ich ostateczna kulturowa postać zależna jest od wrażliwości, kompetencji i potrzeb komunikacyjnych w danych okolicznościach kulturowospołecznych. Jednak im bardziej widoczne samo medium, im trudniejszy jego język, tym bardziej owa wyobraźnia bezbronna i powolna w działaniu i zderzeniu z nim. Choć to oczywiście teoria dalece bardziej złożona i przenikliwa, to w kontekście moich rozważań nad wyobraźnią medialną ograniczę się do stwierdzenia, że im bardziej medium angażuje swojego użytkownika, tym większa rola samej wyobraźni [67]. Można również uznać, że archeologia mediów jest w dużej mierze archeologią społecznej wyobraźni – a zatem i archeologią kultury/komunikacji.
W sytuacji postmedialnej, powtórzę, wszystkie potencjalne media są możliwe i dostępne za sprawą wywołania ich form w środowisku cyfrowym, tj. programistycznego odwzorowania czy zaprojektowania ich języka na bazie nieskończonych możliwości kombinatorycznych kodu zer i jedynek, oraz przypisania tak powstałym formom software’owym odpowiednich interfejsów wywoławczych, ubrania ich w zrozumiałe, swojskie szaty użytkowe. To kolejny element medialnego sprzężenia technologicznych form mediów z kulturową wyobraźnią. W ekosystemie cyfrowym wyobraźnia staje się jednym z niewielu metazasobów (zasobników) kulturowych gotowych do natychmiastowego wykorzystania i programowania zarówno w skali indywidualnej, jak i zbiorowej. To magazyn kulturowej pamięci. Kształt i szybkość/sens działania mediów cyfrowych pozostają w coraz większym stopniu funkcją sprzężenia z tą wyobraźnią.
Kształt nowego, cyfrowego alfabetyzmu wydaje się wyłaniać z kilku źródeł. Są nimi wspomniana już przeze mnie zdolność nie tylko do czytania mediów (epoka kultury masowej), ale i do ich pisania, mówienia nimi i współtworzenia – czyli podobieństwo gramatyki cyfrowego języka i jego fenomenologii do aktów mowy i konstrukcji językowych. Drugim najbardziej generalnym dogmatem cyfrowej wyobraźni medialnej i towarzyszących jej kompetencji komunikacyjnych jest świadomość natury cyfrowego kodu, która oznacza oswojenie z dematerializacją zawartości informacyjnej (symbolicznej) i form medialnych, uznanie ich hybrydycznego statusu ontycznego. Trzecim źródłem okazuje się wiara w liberalizującą i zapewniającą postęp siłę samej technologii. Cyfrowe kompetencje biorą się także z kulturowego przeświadczenia o zapisanej w postępie technologicznym obietnicy nieustannego rozwoju społecznego (której nie potrafi już zagwarantować polityka [71]).
Posthumanistyczna retoryka, choć skupiona coraz bardziej na elementach biologicznych i kierująca się w stronę propozycji transhumanistycznych, ma wciąż dużo wspólnego z dyskursem cybernetycznym i innymi związanymi z rozwijaniem i upowszechnianiem projektu cyfrowego. Wiele z posthumanistycznych wizji i hipotez zostało przejętych do powszechnej narracji związanej z rozwojem cyfrowości, co dodatkowo sprawia, że również z tej perspektywy stają się one przedmiotem ogólnokulturowej debaty. Pojawienie się wspomnianych tu pojęć i żywiołowa, budząca kontrowersje debata wokół nich prowadzi do pytań, na które odpowiedzi mogą zmienić nie tylko medioznawczy i humanistyczny stosunek do takich pojęć, jak nadawca, odbiorca, komunikat, kod, medium, ale prowadzić mogą również do redefiniowania uznanej wiedzy o podmiotach działań komunikacyjnych/kulturowych oraz radykalnie przekształcić kulturową przestrzeń mediacji/komunikacji [87]. 7 lipca 2012 roku grupa neurologów, neurofarmakologów, neurofizjologów i neuroanatomów związanych z Uniwersytetem w Cambridge podpisała deklarację potwierdzającą istnienie świadomości u zwierząt i postulującą w związku z tym zmianę podejścia nauki do świata organizmów żywych [88]. Choć to tylko jeden z epizodów, które wyznaczają koloryt tego dyskursu, to można na jego podstawie łatwo zorientować się co do ciężaru gatunkowego całej debaty. Podejście posthumanistyczne rezonuje wzrastaniem pojęć, które stają się także coraz bardziej istotnymi elementami konstytuującymi dyskurs cyberkulturowy i opisującymi dynamikę współczesnego świata w ogóle.
Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.
Rozważania dotyczące cyfrowego kodu i jego kulturowej sytuacji należy rozpocząć od przywołania historii liczb, matematyki i uznania ich za uniwersalny kod świata. Już starożytni filozofowie, artyści i teologowie rozumieli rzeczywistość jako konstrukcję matematyczną, w której kształty I formy materii regulują wpisane w nie prawidła logiczne, wynikające z zależności liczb i algorytmów odkrywanych później przez matematykę/kulturę. Ta matematyczna wyobraźnia przetrwała i rozwijała się do czasów współczesnych i, za sprawą rozwoju matematyki i pojawienia się technologii, które matematyczność obsługują/wykorzystują, dziś jest jednym z najważniejszych elementów konstytuujących generalny kształt wyobraźni kulturowej i technologicznej. Bez matematycznej wizji świata nie powstałaby nowoczesność: jej racjonalne nauki i ich nadbudowa, technika. Niemożliwy byłby, w konsekwencji, rozwój projektu cyfrowego, a w szczególności zawiadującego nim kodu binarnego i wyrastających zeń języków i systemów programistycznych, software i interfejsów – technicznego i kulturowego spoiwa współczesności.
W starożytności Pitagoras, a za nim Platon jako pierwsi dostrzegli, że cyfry konstytuują każdy istniejący fenomenem i każdą strukturę, odpowiadają za harmonię i symetrię świata. Święty Augustyn w swojej teologicznej teorii świata widział go jako konstrukcję matematyczną, zaś Boga jako wielkiego dysponenta liczb. Pisał:
Przypatrz się niebu i ziemi, i morzu, i temu wszystkiemu, co w ich granicach jaśnieje w górze, pełza na dole, lata lub pływa. To wszystko ma kształty, ponieważ ma liczbowe wymiary. Odbierz je, a nic nie pozostanie z tych rzeczy. […] I ludzie artyści, którzy tworzą przedmioty materialne o wszelkich kształtach, posługują się w pracy liczbami. I tak długo podczas pracy wykonują ruchy ręką i narzędziem, dopóki zewnętrzny kształt dzieła, porównywalny z blaskiem liczb, który jaśnieje wewnątrz, nie osiągnie dostępnej dla siebie doskonałości i nie spodoba się za pośrednictwem zmysłów wewnętrznemu sędziemu, wpatrzonemu w zaziemskie proporcje. Poszukaj następnie siły, która porusza ręce artystów. Będzie nią liczba. [98]
Zrozumienie natury i odkrywanie reguł matematyki oznacza dla tego klasycznego dla kultury europejskiej filozofa zdobycie mądrości, która pozwala na odsłanianie śladów doskonałości boskiego planu. To tradycją filozoficzna, astrologiczna, muzyczna i architektoniczna, którą stworzyli tacy wielcy intelektualiści, jak poza już przywołanymi: Johannes Kepler z matematyczną teorią budowy kosmosu czy Kartezjusz, który cyfry i matematykę uczynił podstawą myślenia naukowego. W siedemnastym stuleciu te liczbowe i matematyczne intuicje dobitnie potwierdził filozof Gottfried Wilhelm Leibniz, formułując swoje słynne zdanie: Cum deus calculat et cogitationem exercet, fit mundur (Gdy Bóg liczy i przemyśliwa, świat powstaje) [99] . W swojej pokartezjańskiej filozofii ugruntował w ten sposób pozycję matematyki i przekonanie o matematycznej naturze świata, wytyczając nowoczesną drogę dla teorii cybernetycznych i towarzyszących im maszyn kalkulujących w postaci teorii mathesis universalis, czyli uniwersalnej metody poznawczej i nauki, za których pomocą da się poznawać (przeliczać) rzeczywistość według reguł matematycznych [100]. Wiarę w uniwersalną matematyczność świata, jak nazywa tę jego cechę współczesny kosmolog i filozof nauki Michał Heller, potwierdzają nie tylko filozoficzne teksty różnych epok, ale i wiele innych kulturowych śladów minionych czasów, takich jak proporcje architektoniczne zawarte w egipskich piramidach czy gotyckich katedrach. Także i współcześnie zadziwia i inspiruje doskonałość matematycznych proporcji wpisana w strukturę bryły Cathédrale Notre-Dame de Chartres czy renesansowych, stosowanych w druku, malarstwie i architekturze poszukiwaniach i interpretacjach złotego podziału (łac. divina proportio). Inaczej mówiąc, wprost lub pośrednio, totalnie lub we fragmentach kultura i świat postrzegane bywają od momentu wynalezienie liczb i matematyki jako ich aplikacja, wcielenie. Wspomniana matematyczność to, obok racjonalności cechy świata pozwalające na jego badanie przy pomocy metody matematyczno-empirycznej, której kultura zawdzięcza oświecenie, nowoczesność i konstytucję współczesnych nauk i techniki.
Teza o boskiej/kosmicznej/pierwotnej/transcendentnej roli liczb i matematyki towarzyszy, jak widzimy, rozwojowi kultury, wiedzy i nauki od dawna i zdążyła na dobre przeniknąć większość znanych nam sposobów myślenia i konstruowania dyskursów i praktyk kultury. Wyrażone w postaci tych różnych form przekonanie o genetycznej i uniwersalnej w zasięgu matematyczności świata – to najbardziej doniosłe dla przedmiotu moich zainteresowań w tej książce przeświadczenie – stało się gruntem, na którym możliwe było uprawianie projektu cyfrowego. Jego fundamentem jest przecież, po pierwsze, przekonanie co do tego, że świat da się zakodować po postaci matematycznego kodu oraz, po drugie, że wartości tego kodu można poddawać matematycznym przeliczeniom, aby w ten sposób odsłaniać i zmieniać rzeczywistość. Projekt cyfrowy przejął w linii prostej ideową i formalną spuściznę tradycji filozoficznej, teologicznej, następnie technologicznej i nowoczesnej, które matematyczność świata uznały za jego referencyjną racjonalność i logikę.
Skoro tak wielka jest rola matematyki i matematyczności, to warto się zastanowić nad ich ontycznym charakterem. Zbadam teraz znaczenie matematycznego kodu oraz jego znaczenie dla rozwoju projektu cyfrowego. Pomimo generalnej dominacji nauk empiryczno-matematycznych i ich niepodważalnej siły eksplanacyjnej, która przyczyniła się do rozbłysku projektu nowoczesnego i wywołała rewolucję przemysłową, natura matematyki i sens liczb wciąż jednak pozostają problemem dla kultury i niektórych dziedzin nauki. Ich interpretacje okazują się skrajnie różne wśród analizujących ten fenomen badaczy. Można mówić o co najmniej trzech stanowiskach w zakresie filozofii matematyki i cyfr. Pierwsze z nich, dominujące i charakterystyczne dla dyskursu nauk wywodzących się z nurtu oświeceniowego (dzisiejsze nauki i metody ścisłe – sciences), precyzyjnie wyraża w swojej kosmologicznej teorii Heller wywodząc z racjonalnej i matematycznej natury świata także obiektywny charakter matematyki jako metareguły nim rządzącej i kształtującej go, wpisanej weń i będącej nim [101]. Drugie stanowisko zawdzięczamy ukształtowanym w wyniku zwrotu lingwistycznego dyscyplinom zaliczanym do ogólnego zbioru studiów kulturowych (nauk humanistycznych – humanities) i polega ono, najogólniej rzecz ujmując, na konstruktywistycznym przekonaniu, że liczby i matematyka są jedynie jednym z wielu języków/kodów, za pomocą których opisujemy świat i rozumiemy go. Jak każdy kod, tak i ten jest, ze swej natury, podatny na dokonujące się w czasie i przestrzeni (kontekst geograficzno-kulturowy) rekonstrukcje semantyczne, strukturalne, przybiera różne oblicza kulturowe pomimo wielu genetycznych podobieństw – jest społeczną konstrukcją, nawet jeśli uznać go za najbardziej abstrakcyjny z języków, za zasadniczy język wiedzy i nauki [102]. Z semiotycznym rozumieniem liczb i matematyki jako kodu kulturowego wiążą się także – to trzecie stanowisko – teorie kognitywistyczne, powstające na styku m.in. psychologii, neurobiologii, antropologii i lingwistyki, które definiują matematyczność jako twór ludzkiego mózgu, czyli strukturalną właściwość procesów myślenia i naturalną skłonność do porządkowania percypowanego świata właściwą gatunkowi, a być może także innym żyjącym gatunkom [103].
Przywołane idee i wydarzenia związane są z historią konstruowania i pozycjonowania matematyki jako dziedziny/dyskursu kultury. Z biegiem lat została ona uznana, jak to przedstawiłem, za uniwersalny kod, w którym został zapisany wszechświat i którego dekodowanie prowadzi do rozpoznania i zrozumienia jego istoty i podporządkowania jej cywilizacji. Taki stan rzeczy stał się najpierw jednym z aksjomatów przyjętych w ramach projektu oświeceniowego oraz w ramach napędzanej osiągnięciami empiryczno-matematycznej nauki rewolucji przemysłowej, a jednocześnie, jak wspomniałem, okazał się polem wywoławczym dla projektu cyfrowego. Na dobre od czasów Kartezjusza, Newtona (Matematyczne zasady filozofii przyrody [104]) i Leibniza kulturze towarzyszą idee i pomysły związane z wykorzystaniem matematycznej własności świata i przekształceniem jej, tu w sukurs przychodzi nabierająca tempa równolegle z projektem cyfrowym rewolucja przemysłowa, w narzędzie służące już nie tylko do czytania struktury wszechświata, ale i do jej konstruowania/pisania.
Taka rola cyfrowego kodu stała się właśnie fundamentalną podstawą maszyn liczących, których powołaniem miało być oparte na uniwersalnych zasadach matematycznych równie uniwersalne przeliczanie zawartości poszczególnych struktur – danych. Najpierw analogowe, a potem cyfrowe: wszystkie operowały na cyfrowym kodzie, mechanicznie kalkulując zadawane w tym „języku” zapytania. Konkurencyjne teorie matematyczności sugerują jednak, iż nie dla wszystkich taki status matematyczności jest akceptowalny. Szczególnie studia kulturowe i wiele dyscyplin bliższych współczesnej humanistyce (nie mylić z humanistyką w rozumieniu historycznym, dla której matematyka i liczby były fragmentami elementarnej filozofii) postrzegają matematykę zgoła inaczej. Niezależnie jednak od sporów o ontyczny, aksjologiczny i w zasadzie jakikolwiek inny wymiar matematyczności projekt cyfrowy możliwy był, jak to już mówiłem, dzięki systematycznemu wcielaniu w życie przekonania o tożsamości struktury świata i reguł odkrywanych przez matematykę. Uznającym wyższość tej teorii nie przeszkodziły nawet tak fundamentalne ustalenia co do charakteru matematyczności, jak to, które zawdzięczamy austriackiemu matematykowi Kurtowi Gödelowi. Austriak ten ostatecznie udowodnił w latach 30. ubiegłego wieku w postaci swojego równie znanego, co kontrowersyjnego, twierdzenia o niezupełności (incompleteness theorem), iż matematyka jest systemem otwartym, którego nie da się sformalizować/ograniczyć żadnymi aksjomatami ani regułami, ani zamknąć pod postacią danego systemu twierdzeń. Z tej reguły wynika dla cyberkultury jedno z najbardziej znaczących ograniczeń: nie można myśleć o doskonałej maszynie obliczeniowej, która byłaby w stanie skalkulować/przeliczyć model świata, całą rzeczywistość [105]. Niemożliwa jest również w związku z tym uniwersalna matematyczna wykładnia wszystkiego, swoisty digitalny „wzór na wszechświat”, ani odpowiadająca jej uniwersalna maszyna zdolna do realizacji uniwersalnego, totalnego zadania matematycznego. Istnieje za to wiele możliwych matematyk i wiele matematycznych prawd częściowych, podobnie jak i pracujących w oparciu o nie maszyn obliczeniowych. Podobnie z cyfrowymi kulturami – możliwe są różne ich odmiany, interpretacje, nieoczekiwane w nich zwroty i paradygmatyczne zmiany. Projekt cyberkulturowy pozostaje zatem otwarty, nigdy nie zakodowany ostatecznie, niesformułowany do końca [106].
Przejdźmy teraz od tych ogólnych rozważań w zakresie rozumienia matematyczności, liczb i matematyki do teorii cybernetycznych, czyli ich najbardziej współczesnych, a jednocześnie konstytuujących bezpośrednie założenia projektu cyfrowego, postaci. Warren Weaver w fundamentalnej dla rozwoju cybernetyki pracy, popularyzującej matematyczną teorię informacji Claude’a Shannona, zatytułowanej Recent Contributions to the Mathematical Theory of Communication, zestawiał ją z fundamentalną dla semiotycznej, linguacentrycznej wizji kultury pracą Course in General Linguistics Ferdinanda de Saussure’a, będącą, dla odmiany, powszechnie uznanym klasycznym wprowadzeniem do językoznawstwa strukturalnego i semiotyki kultury. Zestawienie to ujawniło daleko idące różnice w rozumieniu komunikacji pomiędzy oboma podejściami. Semiotyczne jej definiowanie uwzględniało wiele czynników, które z cybernetycznego punktu widzenia nie miały żadnego znaczenia. Dla de Saussure’a, a także dla całej tradycji badań językoznawczych, a potem, po zwrocie językowym, dla humanistyki i nauk społecznych w ogóle kod (język) osadzony jest i działa przede wszystkim w określonym kontekście, oddziałują na niego znaczenia kulturowe i społeczne, składają się nań langue i parole. Tak definiowany kod istnieje jedynie przez odniesienie do innych kodów i znaków, a realizowane za jego pomocą zdarzenia komunikacyjne zawsze pozostają w kulturowym sprzężeniu z wcześniejszymi, równoległymi i przyszłymi podobnymi jego emanacjami. Ważne są tu takie niuanse, jak nastawienie odbiorcy i nadawcy, wieloznaczność znaczeń przypisanych znakom czy fizyczny kontekst zdarzenia komunikacyjnego. Dla cybernetyków liczy się natomiast możliwie bezstratne przesłanie matematycznie zakodowanej informacji z nadajnika do odbiornika, tak aby w tej transmisji przeszkadzało jak najmniej strat (szumów, błędów) i aby miała ona jak najbardziej efektywny technologicznie (elektrycznie) wymiar. W teorii komunikacji Shannona wszelkie aspekty semantyczne związane z przepływem informacji są bez znaczenia – nie mają żadnego wpływu na proces komunikacji. Jak dosadnie stwierdza: semantyczne sensy komunikacji są bez znaczenia dla jej technologicznych form [107]. Informacja ma dla niego jedynie znaczenie wymierne matematycznie: określona ilość bajtów stratnie, lub bezstratnie (straty są mierzone w liczbach), jest komunikowana przez określony kanał komunikacyjny. W tym sensie cybernetyki nie interesuje i interesować nie może, co i w jakim celu jest komunikowane, jak również w jakich okolicznościach komunikat powstał i jak został zinterpretowany, ani też co się dzieje w jego kulturowym otoczeniu. Interesuje ją natomiast możliwie najbardziej dokładne (bezstratne i niezaszumione) przekazywanie sygnału, czyli impulsów elektrycznych, pomiędzy nadajnikiem i odbiornikiem [108].
Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.
Kilka lat później innemu matematykowi i cybernetykowi, Johnowi von Neumannowi, udało się urzeczywistnić wizję Turinga w postaci konkretnych rozwiązań technologicznych. Von Neumann obmyślił architekturę obliczeniowego jądra systemu cyfrowego, które przetwarzało jednocześnie dane proceduralne (algorytmy) i dane do analizy. Rozwiązania zaproponowane przez inżyniera nazywa się dzisiaj architekturą von Neumanna. Także i współcześnie stanowią one rdzeń funkcjonalny każdego ze znanych procesorów, procesów i układów elektronicznych przetwarzających elektrycznie cyfrowe dane. W matematycznym sensie von Neumann po prostu wcielił w życie koncept Turinga, udowadniając, że za pomocą matematyki można nie tylko odczytać konstrukcję rzeczywistości, ale i próbować ją cyfrowo/elektrycznie konstruować.
Matematyczna wyobraźnia i jej cybernetyczna translacja do wewnątrz maszyn i automatów tworzą wspólnie zręby projektu cyfrowego w jego obecnej postaci. Zdolność do zarządzania pracą maszyn za pośrednictwem szyfrowanych cyfrowo poleceń to fundament leżący u podstaw całej cywilizacji informacyjnej późnego kapitalizmu.
Przywołałem jedynie kilka spośród wybranych epizodów z wielowiekowej historii form, idei i wyobrażeń odwołujących się do matematyczności świata, uniwersalności matematyki jako metody jego poznania i tworzenia zdeterminowanych przez nie sytuacji kulturowych. Nie sposób w tym miejscu odwołać się do wszystkich ważnych dla tej historycznej prawidłowości punktów w czasie, idei, dyskursów i materializujących je w formie rozwiązań technicznych ludzi. Moim zamierzeniem było jedynie ogólne nakreślenie kształtującej się w duchu matematyczności wyobraźni i form technologicznych, które zmaterializowały się ostatecznie w dyskursie cybernetycznym i formach technologicznych zrealizowanych i planowanych w ramach projektu cyfrowego.
Z powyższych odniesień wynika, iż cyfry i matematyka stały się uniwersalnym kodem (niezależnie od sposobów jego definiowania), w który wyposażona została cyfrowość – posługują się nim jej technologowie, którzy informują maszyny co do sposobów działania (np.: BIOS, protokoły internetowe); programiści, którzy w oparciu o te instrukcje wykonawcze tworzą mniej lub bardziej zaawansowane aplikacje, systemy operacyjne, języki kodowania; projektanci interfejsów, którzy czynią te ciągi cyfrowego kodu zrozumiałymi dla użytkowników cyfrowych maszyn. W roku 2003 najważniejszy na świecie festiwal mediów cyfrowych i ich sztuki ARS Electronica zatytułowany został CODE – The Language of our Time. Kurator festiwalu w jego tytule zawarł wtedy pytanie natury zasadniczej: o to, czy w okolicznościach cyfrowej rewolucji jej digitalny kod można uznać za współczesną postać lingua franca? W jego przekonaniu, które wyraził w postaci potrójnego równania: Code=Law, Code=Art, Code=Life, cyfrowy kod i zasady jego wykorzystania stały się czymś jeszcze bardziej doniosłym i powszechnym. Kod i kodowanie osiągnęły nie tylko status uniwersalnego języka komunikacji medialnej, który programuje medialne formy i wytycza zasady gramatyki komunikacji w cyfrowej współczesności. Także i współczesna sztuka staje się funkcją cyfrowego kodu, a myślenie w jego duchu i działanie zbliżone do kodowania cyfrowego obserwować możemy w biologii w zakresie kodu genetycznego [111]. Stocker pisze:
Software ustanawia standardy i normy, które determinują zasady komunikacji w sieciowej rzeczywistości. Regulują one wszelkie sprawy związane z gromadzeniem i rozpowszechnianiem się informacji.
Sformułowana przez Stockera teza to jedna z wielu podobnych konstatacji i deklaracji, które w ostatnich kilkunastu latach podnoszone są w obszarze sztuki, inżynierii, edukacji – kultury w ogóle. Tymi tropami myślenia do obiegu kultury popularnej przeniknęły intuicje, które pojawiać się zaczęły wraz z niezwykłym impetem rozwoju projektu cyfrowego w owym czasie. Festiwal jako pierwszy spośród dyskursów w obrębie sztuki, teorii mediów i analiz socjologicznych wyniósł cyfrowy kod i software na szczyt medialnej piramidy form i postrzegł je jako najważniejsze historycznie medialne narzędzie. Diagnozę tę dobitnie potwierdził pięć lat później Lev Manovich, deklarując, iż software, który na tym etapie rozważań można uznać za interfejsy kodu, przejmuje kontrolę nad kulturą mediów (Software Takes Command). Amerykanin poszedł jeszcze dalej, wysnuwając z zaobserwowanego stanu rzeczy radykalne wnioski dla statusu wiedzy o mediach: zasugerował konieczność przejścia od tradycyjnych metod i paradygmatów stosowanych w ich badaniach do nowej formuły software studies. Software nie tylko rządzi światem mediów; świat mediów poza software odchodzi do analogowego lamusa. Hardware jako centrum wydarzeń w historii komunikacji musi podzielić się władzą z domeną kodu i jego wewnętrznej gramatyki: składni, semantyki, ontologii i aksjologii.
Ducha debaty, która wciąż jeszcze nie zdobyła właściwego miejsca w dyskursie humanistyki, mogę bez ryzyka wykorzystać we własnej narracji dotyczącej sytuacji postmedialnej. To właśnie natura cyfrowego kodu i jego centralna pozycja w przestrzeni cyfrowych bytów i aktów medialnych powoduje, że postmedialność można innymi słowami określić jako stan, w którym wszystkie dotychczasowe formy i języki medialne poddają się cyfrowemu kodowaniu i jego wymogom. Tym samym (medioznawcy mają na to wiele określeń – cyfryzacja mediów, konwergencja, remediacje, mediamorfozy) stają się emanacjami, wersjami cyfrowej gramatyki, powielają jej reguły wcześniej dopasowując się do nich. Taki stan rzeczy oznaczać może rzeczywiste unieważnienie medialnego stanu rozplenienia medialnych języków, gramatyk i form, który jest technologicznym echem mitycznej sytuacji wieży Babel. Przekonanie co do tego jest oczywistością pośród twórców nowych mediów, dla których poszukiwanie uniwersalnej formuły kodu i programowania maszyn jest czymś w rodzaju poszukiwania świętego Graala, czyli zestandaryzowanego, zdolnego do wyrażenia wszelkich możliwych idei, wyobraźni i wrażliwości kulturowych na wszelkich dostępnych poziomach kodowania maszyn obliczeniowych. Idąc tropem tych rozważań automatycznie napotkamy pytanie o to, jak sytuacja postmedialnego ujednolicania języków i gramatyk medialnych wpłynie na kształt ich premedialnych pierwowzorów, czyli jakie są i jak się zmieniają relacje pomiędzy kodem cyfrowym a kodami lingwistycznymi? Jak ma się uniwersalny i wielowarstwowy kod komunikacyjny, tj. kod binarny i wszystkie zrealizowane w oparciu o niego warstwy software, do języków, i jego medialnych wcieleń, a pośród nich przede wszystkim pisma, którymi się na co dzień posługujemy? Skoro rozwój cyfrowości powtarza etapy ewolucji kultury, choćby te, które opowiada historia wieży Babel, to czy kod cyfrowy można uznać za budową nowej, technologicznej wieży Babel i czy taki projekt ma szansę powodzenia oraz czy karą za jego kontynuację będzie ponowne pomieszanie języków? [112]
Zbyt wcześnie jeszcze, aby odpowiedzieć na tak postawione pytania wiążąco. Widać jednak już dzisiaj artystyczne i technologiczne ścieżki, które do takich odpowiedzi prowadzą. Na pierwsze spośród postawionych pytań odpowiedzi udzielają uznani artyści mediów i ich teoretycy, Christa Sommerer i Laurent Mignonneau, pisząc:
Programowanie można porównać do pisania powieści: pomimo iż język, w którym powstaje jest skończonym systemem (na przkład niemiecki, francuski czy angielski), to kreatywność jego wykorzystania zależy od wyobraźni autora [113].
Z ich doświadczenia, które można uznać za miarodajne w praktykowaniu cyfrowego kodowania, wynika, iż posługiwanie się kodem bliskie jest mówieniu językiem naturalnym. To, oczywiście, założenie natury ogólnej, które należy obostrzyć dodatkowymi warunkami z zakresu teorii lingwistycznych, antropologicznych i kulturowych. Jednak już z tak ogólnej perspektywy widać, że w grę wchodzą tu podobne do tych warunkujących posługiwanie się językiem czynniki sprawcze i regulacyjne, jak emocje, wyobraźnia kulturowa, wrażliwość sensomotoryczna i estetyczna, kontekst kulturowy. Ich obecność sugeruje, iż sprawne programowanie za pomocą cybernetycznego kodu nosić może znamiona holistycznej ekspresji bliskiej innym, już antropologicznie i kulturowo oswojonym formom ekspresji i komunikacji, jak muzyka, język, dotyk (do tego wątku w szczegółach wrócę w ostatnim rozdziale) [114].
Jednocześnie, jak wspomniałem, wśród programistów panuje powszechne dążenie do powołania do życia „kodowej wieży Babel”. W swojej pracy mierzą się oni z różnymi systemami, językami, protokołami, hardware, interfejsami, odbiorcami, które zostały opracowane pod kątem różnych funkcjonalności oprogramowania, różnych jego użytkowników, środowisk wyższego rzędu, w których funkcjonują, i w rezultacie niemożliwe okazuje się programowanie totalne, uniwersalne, które za sprawą posługiwania się jednym programistycznym językiem w ramach jednego z informatycznych systemów daje możliwość tworzenia rzeczy powszechnych, uniwersalnych. Wystarczy spojrzeć na przypadkiem wylosowany spis dostępnych języków programowania, wskazujący na kilkaset dostępnych standardów i języków, a przecież wszystkie one odwołują się do tej samej infrastruktury hardware i ostatecznie przekładają się na prymitywne z tego punktu widzenia wartości kodu binarnego. Do podobnych wniosków prowadzi także analiza dowolnego zestawienia dostępnych w cyfrowym świecie formatów plików, które są końcowym efektem pracy z konkretnym software. Amerykański programista i artysta Casey Reas komentuje ten stan rzeczy w następujący sposób:
Tak jak wiele jest ludzkich języków, tak i wiele jest języków programowania. Tak jak w różnych językach ludzkich określone koncepty przybierają unikalne formy, tak i różne języki programowania umożliwiają programistom tworzenie różnych struktur wypowiedzi.Niektóre wypowiedzi nie dają się przekładać z jednego języka na drugi i analogicznie niektóre fragmenty zaprogramowanego kodu nie dają się uruchomić na niektórych maszynach [115].
Dzieje się tak na skutek wielu różnych czynników, takich m.in.: jak rywalizacja ekonomiczna twórców maszyn cyfrowych i software, etnocomputing czy różnego rodzaju inne czynniki społeczne, polityczne i technologiczne.
W obliczu rozplenienia języków, dialektów i gwar w software’owej praktyce kodu cyfrowego, której wciąż daleko do uniwersalności i totalności cyfrowego lingua franca, można postawić także pytanie ile syntagma tego kodu układa się w formę tekstu, o ile bliska jest pierwszemu medium/medializacji komunikacji, za jaką należy uznać pismo. To pytanie o ile ciągi cyfrowego kodu można pisać i czytać jak tekst kultury, o ile emanują typograficznie, w obszarze designu (estetycznie) i poetycko? Czy ciągi kodu są tekstem w dosłownym tego pojęcia znaczeniu, czy są jedynie gruntem/alfabetem, na którym piszą się cyfrowe „teksty” kultury, takie jak software’owe interfejsy, interakcje, narracje i bazy danych? Wyrazicielem pozytywnej odpowiedzi na te pytania jest, dla przykładu, Loss Pequeno Glazier, który w artykule pod sugestywnym tytułem Code as Language dowodzi, że kod cyfrowy jest technologiczną formą ekspresji, za którą stoją czynniki podobne do stanowiących o formie języka i pisma. Kod jest w tym podobny do pisma i języka, że powstaje na skutek działania wzorców i wyobrażeń komunikacyjnych, które wykorzystujemy w konstruowaniu wypowiedzi i komunikowaniu się. Kod i kodowanie, podobnie jak alfabet i jego pisanie, wykorzystują płaską przestrzeń ekranu (odpowiednik analogowego nośnika – tabliczek kamiennych, pergaminu, papieru), na której w czasie pisania utrwalane są znaczenia nadawane kombinacjom znaków. Usytuowana w takich warunkach antropologiczna zasada cyfrowości wydaje się czymś bliskim tradycyjnym gestom i poetyce pisma [116].
John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].
W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].
W odczytaniu Kittlera kod ma nie tylko znaczenie „językowe”, związane z szyfrowaniem informacji. Chodzi mu przede wszystkim o zwrócenie uwagi na kulturowe kody/języki samych mediów, a zatem ich wpływ na sposób postrzegania rzeczywistości, konstruowanie komunikacji i zdarzeń medialnych przy udziale konkretnych medialnych maszyn. Wszystkie one narzucają kulturze własne gramatyki, przekształcają rzeczywistość według własnego „kodu” (programu). To właśnie na tym poziomie, na którym rozważania Kittlera wpisują się w deterministyczny styl myślenia uprawiany wcześniej przez McLuhana (medium is the message) czy Flussera (filozofia aparatu), kod staje się zjawiskiem wykraczającym poza matematyczną formułę szyfru. Ich regułą jest nie tylko bycie interfejsem pomiędzy wyobraźnią i kulturą a maszynami, ale i działanie przeciwne polegające na szyfrowaniu według określonych założeń także rzeczywistości poza zamkniętym układem twórca-kod-maszyna. W przypadku kodu cyfrowego chodzi o unifikację kodów wcześniej istniejących mediów w ramach uniwersalnego języka cyfrowości. Różnice pomiędzy tym, co wizualne, audialne czy posiadające postać pisaną, istnieją w domenie cyfrowej tylko dla nienadążających za rozwojem technologii potrzeb kulturowych ludzi, mają znaczenie operacyjne i wynikają z natury naszych zmysłów, sposobów rozumienia świata i tradycji kulturowych. W rzeczywistości technologia nie mówi językiem ludzkim, kieruje się swoją własną, wewnętrzną logiką, której przejawy coraz silniej oddziaływają na świat kultury i jego tradycyjne języki. Powstają w ten sposób sieci dyskursów (discourse network), które umożliwiają na danym etapie rozwoju kultury i życia społecznego budować systemy, instytucje, reguły prawne, by w pożądany sposób kodować, przechowywać i wykorzystywać określone zasoby (Kittler 1990: 369). Jeśli uznać, że cyfrowy kod ma zdolność do wchłonięcia wszystkiego, co jest kulturą, transmisji wszystkich danych w ramach uniwersalnego języka/kodu komunikacyjnego, to w konsekwencji uznać należy także, że kultura zatoczyła koło. Antyczne systemy komunikacyjne, czyli systemy znaków, reguły pisma oraz transmitujące je/poddane im instrumenty (interfejsy), takie jak lira, usystematyzowały wedle zasad matematycznych i alfabetycznych wiedzę o muzyce, a sposoby jej wykonywania i percepcji z czasem stały się funkcjami tej systematyzacji. Dziś podobnie uniwersalną i totalna rolę odgrywa matematyczny kod i jego emanacje, czyli wszelkie projekty software. Kittler przeciwny jest jednak optymistycznej antropocentryczności mediów w wydaniu McLuhana, uważa ją za iluzję. Technologie nie są zwykłym przedłużeniem, protezą człowieka, ale prowadzą jego systematyczne wymazywanie i rozmywanie. Wszystko, co pozostaje po człowieku myślącym w kategoriach cyfrowych i posługującym się cyfrowymi maszynami, to abstrakcyjne kody i materialne zasoby medialnej pamięci zakodowanej w postaci danych i formy ich wykorzystywania – interfejsy i software [119].
Różnice w pojmowaniu natury cyfrowego kodu lapidarnie podsumować można w sposób następujący: kod cyfrowy można postrzegać jako specyficzny język, który przekłada się na w bezpośredni sposób na działania. Żadna inna forma językowych opisów, gramatyk, pojęć czy semantyk nie jest w stanie poruszyć świata materii [120].
Bywają jednak sytuacje, kiedy kod może okazać się tekstem, a tekst kodem – zarówno kiedy brać pod uwagę tekstualne znaczenie tekstu, a także kiedy postrzegać go szerzej, jako różne w kulturze wypowiedzi i ich różne formy. Takie przenikanie kodów cyfrowych i analogowych, medialnych i digitalnych, objawia się, co prawda, w większości jako próbkowanie, impresje artystyczne wynikające z potrzeby uzgadniania obu podobnych do siebie formatów komunikacyjnych, lub celowym działaniem programistów, którzy ponad skierowanymi do maszyn ciągami poleceń wyposażają swój software w warstwę skierowaną do użytkownika. Jednak w przypadku domeny cyfrowej działania przekraczające naturę kodu, zmieniające jego kontekst i redekonstruujące zaszyfrowane w nim znaczenia, stały się także jedną z najważniejszych strategii działania w ogóle – zarówno twórczego/projektowego, jak i w powszechnej skali użytkowej. Przedostawanie się technologii cyfrowych ze światów militarnego, naukowego i merkantylnego do obszaru powszechnego użytkowania możliwe było w dużej mierze dzięki subwersywnym działaniom środowisk, które z czasem zaczęto nazywać hakerskimi. Sytuująca się na pograniczu świata sztuki i inżynierii cyfrowej domena hakingu właśnie z artystycznej wrażliwości i krytycznego działania uczyniła rdzeń swego etosu. Hakerski sposób patrzenia na cyfrowy świat stał się jednym z najbardziej popularnych nurtów myślenia o wczesnych stadiach kultury cyfrowej – był on i wciąż pozostaje związany ze strategiami i taktykami, które biorą się z krytycznych sposobów używania cyfrowego kodu, programowania i budowania cyfrowych zdarzeń komunikacyjnych. Hakowanie kodu, czyli obnażanie niedoskonałości technologicznych (bug, glitch), ale i wyszukiwanie w nim celowo umieszczonych ciągów, które spełniają zadania ideologiczne, mitologiczne, związane z panoptyczną obserwacją używających go – to postawy, które mają w rezultacie czyścić kod, poszukiwać jego najdoskonalszej (najprostszej, wolnej od manipulacji, bezpiecznej) formy.
Przenikanie, obnażanie i hakowanie cyfrowego kodu mediów jest także jedną z najważniejszych strategii artystycznych podejmowanych w domenie sztuki mediów cyfrowych. Cyfrowy kod i software postrzegane są przez kulturę cyfrowości z jednej strony jako domena nieustannego konstruowania i projektowania designerskiego, interfejsów, języków komunikacji, a z drugiej – tu pojawiają się subwersywne wrażliwości pracujących z tymi mediami artystów – jako obszar nieustannej pracy krytycznej, dekonstruowania zaszytych w kodzie znaczeń, polityk, estetyk, mitologii.
Niezależnie od takiego odsłaniania tekstualności kodu i cyfrowości pisma oba porządki jedynie z pozoru są wymienne i kompatybilne. Cyfrową gramatyką, syntagmą, jej potencjalną/przygodną estetyką, czy estetyzacją, rządzą reguły wyznaczone przez zjawisko elektryczności i odczytujących jej zasady fizyków oraz inżynierów zajmujących się ich technologiczną translacją wobec wymogów materiałowych, systemowych i innych związanych z hardware. W obliczu kondycji postmedialnej można uznać, że najlepszym dostępnym dziś paratekstualnym interfejsem łączącym gramatyki technologii z gramatykami kultury lingwistycznej i tekstualnej pozostaje wciąż matematyka, a w szczególności logika, geometria i algebra.
Marzenia o samosterującym się cyfrowym świecie stoją jednak wobec ograniczeń technologicznych projektu cyfrowego w obecnej postaci – nie mówiąc o sporach natury etycznej ich dotyczących. Fundamentalna z zasad rządzących cyfrowością: podział na software i hardware, w naturze nie występuje. Hardware jest zazwyczaj formułą zamkniętą, stanowi sztywną ramę strukturalną, na którą nakładać można płynny i elastyczny software. Kod genetyczny, choć zmienny w czasie, jest w naturalny sposób wpleciony w „hardware’owy” kształt bytów żyjących. W oderwaniu od naturalnych nośników, czyli od swojego naturalnego kontekstu, DNA przestaje być kodem – traci zdolność kreacji życia, przestaje komunikować. Dopiero rozmycie twardych granic pomiędzy software i hardware dawałoby możliwość nawiązywania pomiędzy nimi „organicznych” relacji. W takim kontekście kod stawałby się zarazem hardwarem, znajdowałby naturalne „ucieleśnienie” i nie tracił jednocześnie swojej miękkiej natury. Powstać mogłaby z takiego zatarcia/zbliżenia maszyna autodekonstruująca się i nieustannie „myśląca” o sobie samej, autogenerująca się w czasie rzeczywistym.
Mobilność technologii medialnych, o której pisałem wcześniej, oznacza nie tylko decentralizację hierarchicznego systemu komunikacji masowej. Umożliwia także decentralizację i rozproszenie systemu przesyłania i magazynowania energii elektrycznej, a to oznacza dalece większe konsekwencje dla współczesności również poza obszarem komunikacji. Bez stałego dostępu do źródła zasilania w energię elektryczną żadna cyfrowa technologia medialna nie funkcjonuje – staje się martwym hardware. Podobnie z maszynami i systemami cywilizacyjnymi w ogóle. Bez elektryczności cywilizacja zachodnia nie istnieje.
Nasz zachodni sąsiad, Niemcy, już od jakiegoś czasu przygotowuje się na Energiewende (an energy turn, czyli zwrot energetyczny), który ma polegać na poszukiwaniu i eksploatacji niekonwencjonalnych, odnawialnych i ekologicznych źródeł energii, oraz na gruntownej zmianie sposobu pracy infrastruktury energetycznej, tj. na decentralizacji całego systemu jej przesyłu, wykorzystania i magazynowania. Zwrot energetyczny miałby w konsekwencji charakter zbliżony do zwrotu społecznościowego (liberalnego) dokonującego się w medialnym świecie. Zmiana ta miałaby spełniać rolę przejścia od hierarchii nadawczej systemu mediów masowych do ekosystemu mediów społecznościowych. Czyż elektrowni nie odpowiada elita produkująca treść kultury, czy nadajniki to nie to samo, co słupy i sieci przesyłowe? I czy sieci społecznościowe, aktywizm społeczny i kulturowy dokonujący się za pośrednictwem technologii sieciowych i cyfrowych to niewcielone w życie założenia przyświecające twórcom Energiewende? W rezultacie Energiewende to społeczności użytkowników-producentów energii miałyby decydować o wykorzystaniu jej źródeł, zaś same źródła zmieniłyby swoją formę z pojedynczych dostawców-gigantów (tradycyjne elektrownie) w rozproszoną sieć mniejszych, uruchamianych w zależności od potrzeb i konfiguracji, generatorów [124]. Energiewende to nie tylko przestawienie gospodarki i systemu politycznego na energię ze źródeł odnawialnych, to przede wszystkim decentralizacja wytwarzania energii, społeczne zarządzanie jej zużyciem, dystrybucją i powstawaniem. To wywłaszczenie energii z rąk państwa, systemu ekonomicznego, itd., i społeczne uwłaszczenie się w tym zakresie, które doprowadzi do dekonstrukcji polityki energetycznej i jej rozbrojenia–dekonstrukcji do formy sieciowej, społecznościowej alternatywy.
Cyfry i matematyczność to kulturowa część natury mediów cyfrowych. Dla perspektywy studiów kulturowych, które zdefiniowały tożsamość teorii mediów i w dużej mierze generalne oblicze humanistyki w kilku ostatnich dziesięcioleciach, stanowią one zakodowany szyfr będący jednym z wielu obecnych w kulturze kodów komunikacyjnych. Matematyka – przypomnę – jest gramatyką tego kodu, na który składa się zespół symboli-znaków o składni poddającej się kulturowym (logicznym) konstrukcjom i negocjacjom. Cyfry podlegają działaniu czynników etnicznych, społecznych, antropologicznych, politycznych, komunikacyjnych, tak jak litery i tworzone z nich słowa w kodzie językowym. Kod cyfrowy ma jednak szczególne, nadrzędne znaczenie dla kultury współczesnej. Pełni funkcję kodu kodów kultury, metakodu wiedzy oraz jej najważniejszego narzędzia: nauki – wspomniałem o tym przedstawiając usytuowanie matematyczności w historii nowoczesnych idei.
W takiej pozycji dodatkowo utwierdza matematyczność jej związek ze zjawiskiem elektryczności. To za sprawą matematycznego zakodowania elektryczności, czyli cyfrowego regulowania jej stanów: 1 = prąd, 0 = brak prądu, udało się tę naturalną właściwość świata w wyrafinowany sposób podporządkować potrzebom rozwijającej się technicznie cywilizacji w postaci projektu digitalnego i sieciowego. Matematyczność dzięki elektryczności rozpoznajemy współcześnie, w związku z tym jako cechę świata (w tym sensie podobna jest elektryczności a w zakresie maszyn cyfrowych niemal z nią tożsama), a nie jego kulturową interpretację (Heller). Elektryczności zaś przypisujemy właściwości i role kulturowych kodów (stąd, to uwaga na marginesie, koncept rzeczywistości wirtualnej jako zjawiska symbolicznego, kulturowego – to różnica budująca wiele treści dyskursu jej poświęconych). Relacje matematycznego kodu i zjawiska naturalnego elektryczności tworzą matrycę, w której zakotwiczony został projekt cyfrowy. Przenikając przez poziom wizualnych, intuicyjnych interfejsów przeznaczonych dla użytkownika – takich jak GUI w systemach operacyjnych, przy dużym zbliżeniu zobaczymy w cyfrowych mediach zmiany napięcia elektrycznego, którymi w procesorach sterują tranzystory posłuszne matematycznym komendom 0 i 1.
Algorytmiczne instrukcje tworzone na różnych poziomach cyfrowego kodu kontrolują działanie milionów krzemowych bramek, które w odpowiedzi na komendy 0 lub 1 zamykają się, czyli nie przewodzą w danej chwili energii elektrycznej, lub też na chwilę się udrażniają komponując pożądaną strukturę obwodu elektrycznego. Odbywające się w ułamkach sekund – za sprawą fizycznych cech zjawiska elektryczności, jego naturalnej prędkości bliskiej prędkości światła – elektryczne transmisje lub ich braki układają się wewnątrz hardware we wzorce, których sumą stają się wyniki zadanych softwarem hardware’owi zapytań i wydanych w ten sam sposób instrukcji wykonawczych.
Ponad tym bazowym poziomem spotkania matematyki i elektryczności (kultury i natury) nadbudowane są warstwy software, których zadaniem jest „ukulturalnianie” pierwotnego zapisu 1 i 0, nadawanie mu bardziej wyrafinowanych matematycznie, a więc także i kulturowo, form kodowania. Jedną z nich jest choćby ASCII (American Standard Code for Information Interchange) – 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom alfabetu łacińskiego, cyfrom, znakom przestankowym i innym symbolom oraz poleceniom sterującym. Dla przykładu litera „a” jest w ASCII kodowana liczbą 97 (w zapisie binarnym będzie to: 0110 0001), a znak spacji jest kodowany liczbą 32 (w zapisie binarnym będzie to: 0010 0000). Wysiłek twórców obu splecionych warstw nowych mediów, software i hardware, polegający na przygotowaniu takich wersji cyfrowego projektu kulturowego, które będą najbardziej możliwie proste w obsłudze dla przeciętnego użytkownika, intuicyjne antropologicznie, zmierza ku całkowitemu odseparowaniu go od elektryczności, a jej samej uczynieniu niewidzialną, przezroczystą kulturowo, ukrytą wewnątrz struktury maszyny. Automatyczną, zakodowaną wcześniej kontrolę nad elektrycznością przejmują zaimplementowane w maszyny i systemy operacyjne protokoły i oprogramowanie niskiego rzędu (BIOS, instrukcje zapisane w czipach składających się na architekturę hardware), a użytkownik nie ma wielu użytkowych powodów, możliwości ani sposobów, aby ją dla siebie odzyskać. Najbardziej tajnym, skrywanym fizycznie i software’owo szyfrem projektu cyfrowego pozostaje zjawisko elektryczności w całej swej prostocie pojawiania się i znikania, otwierania i zamykania mikroobwodów [125].
W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].
Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardware i tweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.
Wspomniałem już o dystansie i różnicy pomiędzy zapisami kodu binarnego w ciągach wartości 0 i 1, które mają bezpośredni wpływ na strukturę pracy elektryczności wewnątrz cyfrowego hardware, a kolejnymi poziomami użytkowymi kodu, na które składają się protokoły, asemblery, systemu operacyjne, języki i środowiska programistyczne oraz oprogramowanie użytkowe, z którym przeciętny użytkownik cyfrowych mediów ma kontakt na co dzień, czyli domeną software. Układ tych zapisów jest warstwowy, co oznacza, że kolejne warstwy kodu pokrywają/przesłaniają wcześniejsze. Pośród nich istnieją różne reguły programowania i różne dla niego zastosowania. Najbliżej użytkownika, a w zasadzie najbliżej interfejsowej, użytkowej powierzchni cyfrowych maszyn znajduje się warstwa aplikacji użytkowych, które stanowią funkcjonalną i personalną bramę dla najbardziej popularnych zastosowań maszyn. Pod tą widoczną w pierwszym kontakcie są także warstwy umożliwiające przepływ danych w systemach i pomiędzy nimi, takie jak np. protokoły TCP; warstwa sieciowa, którą reguluje np. protokół IP, czy warstwa regulująca fizyczną wymianę impulsów elektrycznych, jaką jest np. popularny Ethernet. Każda warstwa jest środowiskiem dla kolejnej, która się nad nią pojawia – staje się dla niej matecznikiem, kodeksem i regulatorem. W ten sposób budowane są kolejne piętra cyfrowej kodyfikacji, kolejne poziomy cyfrowego świata. Typowym przykładem warstwowego współdziałania kodu jest, dla przykładu, sytuacja komunikacji internetowych. Większość z nich regulowana jest za sprawą protokołów TCP i IP, następnie kontrolowana jest za sprawą protokołu HTTP i wtedy dopiero pojawiają się języki kodowania internetowych stron i aplikacji, takie jak HTML, JAVA, czy CSS.
Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualne i parawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.
Stwierdziłem wcześniej, że kod cyfrowy to jednocześnie znaki, którymi w przypadku zapisu binarnego są cyfry 0 i 1, oraz łącząca je w różne formy gramatyka, w tym przypadku matematyka. Bez określonej metody operowania znakami niemożliwe byłoby budowanie na ich podstawie złożonych wypowiedzi, co w kontekście technologii cyfrowych oznacza, że bez logicznie poprawnych matematycznych formuł, algorytmów i protokołów nie można by zmusić maszyn kalkulujących do poprawnego działania. Ich funkcje odpowiadają podstawowym zasadom regulującym formy języka – konstrukcjom zdaniowym, leksykalnym, relacjom pomiędzy elementami słownika, bez których język przypominałby bezładne, sylabiczne guganie. W przestrzeni cyfrowej protokoły są regulatorami wszelkiej wymiany, transferów, łączenia się ze sobą urządzeń w sieciach. Działają jako organizatorzy i zarządcy cyfrowego świata. W mojej postmedialnej perspektywie ich działanie jest ważne o tyle, że powstały i funkcjonują nie tylko jako wyrażenia matematyczne i reguły elektryczne, są także instrukcjami (rozkazami), którym cyberprzestrzeń jest posłuszna na najgłębszym poziomie swojego istnienia. W takim sensie cyfrowy kod i elementy systemu hardware można postrzegać jako kodeks, zaś protokoły jako wcielone w technologiczne formy jego przepisy i paragrafy. Tym razem idzie tu jednak o społeczną funkcję kodyfikacji prawa, a nie o jej medialną formę, o której pisałem analizując językowe afiliacje kodu cyfrowego, o polityczną ekonomię kodu, a nie jego semantyczną naturę.
W powszechnym doświadczeniu protokoły pozostają niewidocznymi siłami, które implikują założone konsekwencje/limity regulujące kształt cybernetycznego świata hardware i software. Zamiast świadomości tego działania i wiedzy o jego skutkach mamy, jako użytkownicy cyfrowego świata, raczej intuicje i podejrzenia związane z takim stanem rzeczy. Zarówno jedne, jak i drugie wyraziła Ellen Ullman już ponad dekadę temu, pisząc:
Lubię myśleć o komputerach jako neutralnych narzędziach […] ale jest coś w systemach cyfrowych, w formalnej logice działania obliczeniowego i pracy baz danych, co nie pozwala nam na poczucie pełnej nad nimi kontroli, co tworzy ich własny, nieprzenikniony świat […] przychodzi taki moment w kontakcie z komputerem, kiedy jego wewnętrzna, tajemna logika przejmuje kontrolę nad spotkaniem człowieka z cyfrowym światem [144].
Aby zrozumieć regułę funkcjonowania protokołu, przywołam klasyczny, turingowski, model struktury maszyny kalkulującej, w której dostarczone sygnały (input) podlegają zadeklarowanej obróbce, są kalkulowane w określony sposób, by następnie w tej przeliczonej formie stać się stanem na wyjściu z systemu komputerowego (output). W takiej strukturze dane przechodzą przez przeliczenia pod kontrolą protokołów. Niemożliwe jest działanie systemu z ich pominięciem, a zatem mitologiczna wolność w obszarze cyfrowym jest właśnie w tym momencie wystawiona na oddziaływanie polityk i systemów kontroli ze strony tradycyjnych graczy systemów społecznych: aparatu władzy politycznej, podmiotów gry ekonomicznej i gospodarczej, wojska. Protokoły są prawem systemów informacyjnych wtłoczonym w genetykę cyfrowego świata właśnie przez tych tradycyjnych dysponentów władzy politycznej, prawa i regulatorów sfery komunikacji społecznej. Za pośrednictwem protokołów ci gracze nadzorują i regulują kształt cyfrowego uniwersum, sankcjonują i inspirują transfery i zasobność baz danych, a także wytyczają strukturalne zasady i oblicza użytkowych interfejsów. Internet sam w sobie, na poziomie architektury informacyjnej, a nie semantycznym czy interaktywnym, jest takim właśnie politycznym (technopolowym) kodeksem użytkowym. Zbiorem reguł, praw i zasad, których przestrzeganie nadaje mu określoną formę, której wszystkie znajdujące się powyżej języki programowania, implikacje w postaci stron www, serwery z danymi, wyszukiwarki czy interfejsy software’owe, są projekcjami, emisjami i interpretacjami.
Natura protokołów jest szczególna nawet na tle dosyć efemerycznej, wciąż jeszcze niewynegocjowanej w dyskursie humanistyki, tożsamości ontologicznej cyfrowych światów. Protokoły są jednocześnie kodem i softwarem, bowiem przybierają postać instrukcji wyrażanych za pomocą cyfrowego kodu i to na jego najbardziej podstawowym, binarnym, poziomie gramatycznym, jak i hardwarem, bo, w odróżnieniu od większości aplikacji software’owych, zostały na stałe wpisane w hardware maszyn; nie podlegają, w większości, możliwościom reprogramowania, remiksu tak jak to możliwe jest w przypadku software. To zarazem praxis cyfrowego świata jak i metaforyczna jego powłoka.
Jednocześnie Kroker, kontynuując w tym zakresie tradycję myślenia mcluhanowskiego, pozostaje optymistą w ocenie nowych technologii i ich kulturowego wpływu. Jest przekonany, że niezbędny w kontakcie z nimi dystans możliwy jest jednak jedynie z pozycji wirtualnego zanurzenia w cyberkulturę i jej technologie. Przymus dostosowywania się do reguł wpisanych w technologie przez rządzących ich rozwojem technokratów musi być zrównoważony społecznym oporem wynikającym z oddolnej demokratyzacji, pluralizacji i dywersyfikacji – już od Marksa wiemy przecież o możliwych alternatywnych losach technologii, kiedy napędzane są one inną niż dominująca w danej chwili politycznie siłą społeczno-kulturową. W praktyce o taką w pełni krytyczną postawę trudno – wyprzeć starają się ją rynkowe narracje komercjalizacji, militarystyczne narracje cyberwojny czy technoutopijne opowieści o emancypacji za pośrednictwem techniki. Sprzeciwiają się zaś jej wspomniani już wcześniej twórcy mediów taktycznych posiadający jednak zupełnie inną pozycję systemową. Chyba największe sukcesy na tym polu odnoszą środowiska skupione wokół idei wolnego dostępu do kodu i swobodnego jego przekształcania w otwarty społecznie sposób. Dokonali oni radykalnego przesunięcia w zakresie ekonomiczno-politycznego myślenia o możliwościach kontroli nad rozwojem projektu cyfrowego – złamali żelazne zasady kapitalistycznej wymiany rynkowej, proponując heretycką darmową wymianę kulturową bez konsekwencji finansowych, prowadzoną na zasadzie dobrowolnego unieważnienia istniejących zasad dotyczących: definiowania własności intelektualnej i jej społecznego definiowania; sposobów wykonywania kreatywnej i zaawansowanej, specjalistycznej pracy wymykających się tradycyjnym relacjom instytucjonalnym i organizacyjnym, itd. Na skutek działań społeczności otwartego kodu i software jasne stało się, że rozwijanie projektu cyfrowego może odbywać się niezależnie od działań korporacyjnych i sytuacji podważonych zasad prawnych, w ukryciu przed politycznym i wojskowym monitoringiem i kontrolą, w kontekście radości uprawiania wiedzy, tworzenia techniki oraz artystycznych/artystowskich metod wymiany, współpracy, integracji społecznościowej [153]. Taką interpretację wydarzeń trudno było i wciąż jest zaakceptować tradycyjnie funkcjonującym korporacjom, nawet tym utrzymującym się z tworzenia software; administracji politycznej, która straciła możliwość kontroli wydarzeń i wpływu na ich rozwój, lobby wojskowemu i ideologicznemu, których znaczenie w środowisku otwartym zostało podważone i zminimalizowane.
Z wyrafinowaną propozycją sytuującą się w przestrzeni odpowiedzi na te pytania wystąpił dekadę temu Scott Lash w książce zatytułowanej tak jak jego program teoretyczny: Information Critique [155]. Według Lasha kluczem do zrozumienia nowej ontologii medialnej jest kategoria informacji i jej krytyka, które czerpią z sytuacji danych, kodu i software. Lash podobnie jak wcześniej wymienieni propagatorzy jest przekonany, że nauki humanistyczne i społeczne wyczerpały swój potencjał wyjaśniający wobec zmieniającego się pod wpływem rewolucji informacyjnej świata. Opierają się one przede wszystkim na filarach teorii krytycznej, która najpierw przyjęła postać niemieckiej „Ideologiekritik” w odczytaniach Adorna, Habermasa i innych marksistów, a następnie oparła się o diagnozy wynikającą z rozwijanej w perspektywie europejskiej i amerykańskiej teorii krytycznej. Nie są one w takiej postaci zdolne do miarodajnego oglądu i reakcji w sytuacji, kiedy to, co symboliczne (a zatem ideologiczne, związane z dyskursem, władzą, manipulacją), staje się jedynie informacyjne, staje się zjawiskiem jednocześnie fizycznym (elektryczność) i cybernetycznym (matematyką regulującą działanie elektryczności)? Krytyka ideologii winna ustąpić miejsca „Informationkritik”, czyli krytycznej teorii informacji oraz towarzyszącej jej kulturowej krytyce kodu cyfrowego, która może i powinna przybierać postać software studies, ale także mierzyć się z wyzwaniami praw fizyki dotyczących elektryczności oraz na powrót zająć się kulturowym „dekodowaniem” matematyki rozumianej jako system informacyjny, komunikacyjny. Chodzi w gruncie rzeczy o ustanowienie mostu łączącego tradycję krytycznego badania kultury medialnej ze sferą kultury nowych mediów. Krytyczny namysł nad światem cyfrowej informacji miałby za zadanie czytanie go jako tekstu kultury, wynajdowanie i obnażanie w nim, przede wszystkim, semantyk różniących informacyjność od dezinformacji i mis informacji, które powstają, kiedy perspektywie semantycznej (ideologicznej) teorii kultury i mediów przyjrzeć się na bazie myśli cybernetycznej komunikacji cyfrowej. Według Lasha informacja i dezinformacja to naturalne, dopełniające się stany cyfrowego uniwersum, a popadanie jednego w drugi jest wielokrotnie niezauważalne. Można traktować je jako kategorie przeciwstawne jedynie z punktu widzenia kulturowej, semiotycznej krytyki systemu komunikacyjnego działającego w oparciu o cybernetyczny system technologii komunikacyjnych.
Niemożliwe jest już spojrzenie na rzeczywistość kultury z krytycznego dystansu oferowanego w ramach teorii krytycznej. Globalny porządek informacyjny wymazał wszelką transcendencję, stając się systemem autoreferencyjnym – nie ma już innej przestrzeni niż przestrzeń informacyjna, a czas uległ radykalnej kompresji. Ze względu na te przetasowania konieczne jest przyglądanie się informacji z wewnątrz jej samej, wejście w świat kodu i przyglądanie mu się od środka. Klasycznie pojęte i krytykowane w ramach perspektywy teorii krytycznej ideologie są tworami uniwersalnymi, rozciągającymi się w czasie i przestrzeni, dążą ku metanarracyjności. Tymczasem informacja jest skompresowana w czasie i przestrzeni, immediuje, czyli oferuje bezpośredniość i natychmiastowość. W porządku informacyjnym wszelkie narracje sprowadzone są do postaci punktu, linie zamieniają się w punkty. Zdaniem Lasha ten informacyjny porządek różni się radykalnie od takich konstrukcji kulturowych, jak Chrześcijaństwo czy nawet Oświecenie. Poprzez swoją natychmiastowość (przekazu, reakcji, generowania danych) stwarza kondycję dyktatu chwili – natychmiastowej percepcji, adaptacji, reakcji, ograniczając/wyłączając możliwość zdystansowanej refleksji. Krytyka informacji musi, reasumując, spełniając założenia teoriopoznawcze krytyki kultury jako krytyki ideologii i semantyki, zasadzać się wewnątrz cybernetycznej natury cyfrowego kodu i jego cyberkulturowych implementacji. Lash przedstawia to zwięźle następującymi słowami: Information critique must come from inside the information itself [156].
Bardzo podobne stanowisko co do zmian paradygmatycznych i metodologicznych w zakresie badania kultury mediów cyfrowych i ich samych prezentują analitycy cyfrowego kodu i jego software’owych implementacji. Proponują oni nową medioznawczą formułę Critical Code Studies, w której centralnym punktem odniesienia ma być ontologia cyfrowego kodu[157]. Zdaniem jednego z propagatorów tego stanowiska badawczego, M. C. Marino, jego formuła miałaby odsuwać na drugi plan myślenie o kodzie jako metaforycznej, poetyckiej i estetycznej paraformie tekstu i tekstualności. Trzeba zacząć analizować go jako tekst w sensie dosłownym, jako system znaków wyposażony we własną syntagmę, retorykę oraz funkcjonalność wybiegającą poza stricte maszynową użyteczność jako kodyfikację instrukcji wykonawczych. Takie studia nad kodem to praca dla nauk humanistycznych, których podejście różni się od cybernetycznych perspektyw i analiz. Humaniści mają niezbędny bagaż doświadczeń i odpowiednie narzędzia, aby na bazie ustaleń cybernetyków i inżynierów, skupiających się na technologicznych i scjentystycznych analizach, rozpocząć kreślenie semantycznej geografii kodu, czytając/dekodując go przez osadzenie w kontekście kulturowym, społecznym, ideologicznym. Marino proponuje, aby krytyczne studia kodu stały się nowym, hermeneutycznym językoznawstwem, literaturoznawstwem i krytyczną teorią kultury.
Taka krytyka kodu i informacji to wstęp do kulturowej krytyki software. Oba nurty współczesnego medioznawstwa i studiów kulturowych odwołują się do historycznej debaty o naturze informacji, którą już wcześniej streszczałem, oraz do informacyjnych mitologii, które na przestrzeni historii cyfrowych mediów i ich społecznych zastosowań stawały się powszechnymi narracjami im towarzyszącymi. O mitach związanych z informacją i jej politycznym wykorzystaniem pisali już ojcowie-założyciele projekt cyfrowego, tacy jak np. Langdon Winner [158]. Amerykański cybernetyk krytykował najpopularniejsze we wczesnej fazie zachwytu nad możliwościami technologii mity o informacyjnym wyzwoleniu. Mit o liberalizującej sile rewolucji cyfrowej, demokratyzacji życia społecznego i wzroście kreatywności i innowacyjności za sprawą dostępu do technologii cyfrowych opiera się na następujących fałszywych przesłankach: ludzie są uzależnieni od informacji; informacja to wiedza; wiedza to władza; upowszechniający się dostęp do informacji sprzyja rozwojowi demokracji, wyrównuje społeczną strukturę władzy. Pierwsze z tych założeń autor obala na podstawie analizy systemu dystrybucji wiedzy i edukacji w społeczeństwach. Nie jest on idealny, ponieważ wciąż poza jego oddziaływaniem pozostaje wiele środowisk, grup społecznych i innych wykluczonych z powodów ekonomicznych, geograficznych, kulturowych, cywilizacyjnych. Co do drugiego to nie ma żadnego dowodu na to, że wiedza oznacza automatycznie wynikającą z niej władzę. Kolejna sprawa to mitologizowanie cyfrowej informacji – nie jest ona oczywiście wiedzą w tradycyjnym znaczeniu, domaga się intelektualnej obróbki, translacji z postaci danych binarnych do formy kulturowo czytelnej informacji.
Potwierdzenie wagi tego zwrotu ku kodowi i software znaleźć można także u historyków cyfrowości, którzy pisząc jej dzieje coraz częściej rezygnują z maszynocentryzmu, w ramach którego to wytwarzanie hardware i wszelkie związane z tym okoliczności polityczne, militarne, ekonomiczne, itd. miałyby odgrywać w powszechnej historii mediów cyfrowych decydującą rolę [159]. W tych dyskursywnych i teoriopoznawczych figurach – krytycznej teorii protokołów, kodu i software, widać przesunięcia, które dokonują się analogicznie w tkance samego ich przedmiotu, czyli cyfrowego świata technologii. To, co określiłem jako sytuację postmedialną w obszarze zmieniającego się krajobrazu technokulturowego, w praktykach i teoriach naukowych przybiera postać zwrotu ku software i jego krytycznej kulturowej teorii jako uniwersalnym wyjaśnieniom medialnej kultury współczesności.
Cyfrowemu kodowi, pomimo wielu podobieństw, nie udaje jak na razie przejąć funkcji języka i daleko mu do centralnej pozycji w uniwersum komunikacyjnym. Nie osiągnął także jeszcze kulturowej roli porównywalnej z przypisaną mitycznej wieży Babel: uniwersalnego, totalizującego sposobu komunikacji. Obecna pozycja postrzegana w ramach różnych porządków kultury pozwala jednak przypuszczać, że taki kierunek jego kulturowego pozycjonowania należy uznać za wiodący. Jego potwierdzeniem, poza przywołanymi już przykładami szczegółowymi, są także zjawiska o charakterze bardziej ogólnym. Pierwsze z nich dotyczy wewnętrznej dynamiki rozwoju uniwersum technologii medialnych, które w medioznawczym dyskursie kryje się pod pojęciem konwergencji. Nie będę tu wchodził w znaczenie tego pojęcia szczegółowo, bowiem już na dobre zagościło ono w medioznawczym słowniku. Chciałbym natomiast zwrócić uwagę na fakt, że to właśnie natura kodu cyfrowego umożliwiła radykalne przyspieszenie tego procederu w okresie cyfrowym. Konwergencja to stapianie się już istniejących form mediów, wchłanianie jednych przez drugie. Telewizja powstała jako konwergencja radia i kina, telefon komórkowy jako połączenie telefonii kablowej z radiem, itd. Obecność cyfrowego kodu – to właśnie okoliczność postmedialna – sprowadza wszystkie istniejące gramatyki mediów i ich formy do wspólnego mianownika. Wszystkie one, o ile chcą być obecne w cyfrowym świecie, muszą dać się przekonwertować do postaci digitalnego alter-ego. Tracą w ten sposób wiele swoich fizycznych przymiotów, ale zyskują miejsce i szansę na przetrwanie wewnątrz cyfrowego uniwersum. Telewizja w wersji cyfrowej godzi się na ograniczenie jej (to geny kina) linearności i masowości, ale w zamian zyskuje na interaktywności i otwarciu. Książka traci papierowy format (który dorobił się już w kulturze własnej mitologii), a zyskuje elektroniczną intertekstualność i nawigowalność/bazodanowość. Podczas translacji na wartości binarne wszystkie dotychczas istniejące media odrzucają swój tradycyjny hardware, by stać się bazami danych z przypisanymi sobie, naśladującymi starszych krewnych, interfejsami. Jednocześnie ta adaptacja wprowadza je w środowisko egalitarne, w którym potencjalnie wszystkie są sobie równe w formie zapisów kodu. Dzięki temu otwierają się na kulturę i świat: stają się programowalne, mogą być na różne sposoby wywoływane i przetwarzane. Ich technologiczne i kulturowe dziedzictwo staje się przedmiotem oddziaływania wszelkich możliwych algorytmów, protokołów i hardware’ów. Wystarczy spojrzeć na losy filmu, który w cyfrowych okolicznościach zyskał tak wiele niestosowanych czy stosowanych w ograniczonym zakresie w jego analogowej wersji sposobów wyrazu, estetyk, takich jak time-lapse, slow-motion, remiks (piszę o tym więcej przy okazji bazodanowej analizy kina w następnym rozdziale). Podobny los spotyka techniczne reprodukcje i formaty audialne, tekstualne, wizualne.
Zjawisko drugie można zaobserwować wśród artystów i teoretyków sztuki mediów, a także wśród badaczy obu tych sfer, dla których – pod naporem cyfrowości – prześwietlanie i odsłanianie cyfrowego kodu stało się zwieńczeniem tradycji krytycznej pracy z mediami w ogóle. Obecność cyfrowego kodu w domenie cyfrowej, w której spełnia funkcję kodeksu operacjonalizującego działanie medium, stała się powszechnie łatwo namacalnym dowodem na obecność unikalnych kodeksów i gramatyk wewnątrz technologii komunikacyjnych. Co prawda już od McLuhana mamy świadomość, że the medium is the message, ale dopiero strukturalne wyodrębnienie kodu binarnego i nakładanych na niego warstw wyższego rzędu, czyli software, obnaża taki układ mediacji. Cyfrowy kod stał się w oczach sztuki mediów i wiedzy o nich elementem, który domaga się krytycznej analizy oraz estetycznego obnażania. W związku z tą jego autonomią jednym z najbardziej frapujących kierunków rozwoju krytycznej wiedzy o mediach, jak i sztuki mediów cyfrowych stało się podglądanie i obnażanie kodu mediów tej sztuki. Chodzi tu o działanie podwójne, które, z jednej strony, ma na celu objaśnianie, odszyfrowanie unikalnej gramatyki kulturowej medium, jego specyficznego języka, który decyduje o tym, jak wygląda komunikacja za jego pośrednictwem, oraz, z drugiej strony, zestawienie tego „języka” zasadami kodu binarnego, który ten „język” wchłonął. Na skutek konwergencji technologicznej wszelkie wcześniejsze formy artystyczne, które zostały zdigitalizowane, dostały się we władanie software, stały się programowalnym kodem i weszły w reakcje z logiką hardware, interfejsów, baz danych, sieciowych przesyłów i interaktywnych wywołań. Ta samo prawidło cechuje perspektywę teorii mediów, które w cyfrowości odnajdują ślady dawnych mediów. Tym samym krytyka kodu to zarazem krytyka tożsamości medialnych „języków” i technik jak i ich matematyczno-elektrycznego alter-ego, ich binarnych szyfrów i kodyfikacji [160]. Zarówno sztuka, jak i nauka stają przed sytuacją, w której to kod i jego reguły (protokoły, systemy operacyjne, software) dyktują dalsze warunki ich uprawiania, stają się przestrzenią dla ich uprawiania i odniesienia [161]. Można powiedzieć, że cyfrowy kod stał się w ten sposób metakodem medialnego uniwersum, a jego zasady prawem medialnego świata w domenie cyfrowej.
Związek efemerycznego pojęcia „alfabetyzmu” z cyfrowym kodem polega na konstruktywistycznym uznaniu kulturotwórczej siły technologii medialnych, które funkcjonują w powszechnym obiegu. Ta współzależność kodu i kultury polega, ogólnie rzecz ujmując, na dwóch przeciwważnych procesach. Najpierw kultura preparuje technologie i pisze dla nich kody i kodeksy (to historia kilku tysiącleci cywilizacji i tworzenia kodów abstrakcyjnego myślenia – matematyki), by równolegle za ich pośrednictwem zmieniać samą siebie. Kultura tworzy narzędzia, techniki i ich kody/konteksty/wyobraźnie, poddając się jednocześnie ich potencjałowi, wrażliwościom, wyobraźniom i dyskursom, które wzbudzają.
Najważniejszą z cech nowej medialnej wyobraźni, związaną z kodem i software, jest odczucie programowalności (programmability). Bierze się ono z uznania software’owej płynności cyfrowego świata i ekstrapolacji jej sensu na inne komunikacyjne wyobrażenia i działania, które podejmują zanurzeni w cyfrowy świat. Tę cechę cyberkulturowej wyobraźni podkreśla Wendy Hui Kyong Chun, autorka książki Programmed Visions: Software and Memory, rozszerzając ją na obszar życia społecznego i politycznego zachodnich społeczeństw [165]. Programowalność to, w tym ogólnym sensie, przeświadczenie o dającej się w racjonalny sposób projektować i zarządzać neoliberalnej infrastrukturze społecznej charakterystycznej dla rozwiniętych rynkowo, gospodarczo, technologicznie i politycznie państw zachodnich. Społeczeństwo i kulturę postrzegać można w tym duchu jako sieci, w których obok różnych aktorów i różnych ”hardware” (infrastruktury technicznej, instytucji, itd.) istnieją także logiki pozwalające na wieloraką, wielopoziomową aktywność i połączenia w ramach sieciowej struktury. Programowalność to, z jednej strony, wykształcona przez kulturę reguła technologiczna odpowiadająca na zapotrzebowanie liberalnych społeczeństw, oraz, z drugiej, stan technologiczny, który tę potrzebę uosabia i utrwala za sprawą praktykowania używania i pisania rozwiązań software’owych.
W roku 1973 w wykładzie z okazji odbioru nagrody Turinga, jednej z najważniejszych i najbardziej prestiżowych w informatycznym świecie, Charles W. Bachman, współtwórca idei baz danych, wielu ich historycznych prototypów i zastosowań, wypowiedział następujące słowa [173]:
Kopernik zupełnie przewartościował naszą wiedzę o astronomii kiedy odkrył, że to ziemia kręci się wokół słońca. Narasta we mnie poczucie, że komputeryzacja to domena, która domaga się równie radykalnego zwrotu. Chodzi o wyzwolenie się z myślenia o centralnej roli jednostki obliczeniowej w procesach informatycznych i dowartościowanie strategii wolnego wyboru i nawigacji w przestrzeni bazy danych. (…) Można je osiągnąć przez odejście od podejścia komputerocentrycznego na rzecz orientacji bazodanocentrycznej. Takie nowe rozumienie komputeryzacji (…) pozwoli na lepsze komputerowe modelowanie złożonej natury świata.
W tej części książki zajmę się zmieniającym się w duchu opisanego przez Bachmana bazodanowego zwrotu ekosystemem cyfrowego świata i jego kulturowego otoczenia. Będę się wywołanym wraz z obecnością baz danych zmianom i zależnościom przyglądać szeroko, osadzając je w kontekście ogólnych zmian społeczno-kulturowych, diagnozujących je dyskursów i mitologii, jak i starać się zrozumieć kulturową energię, którą ta technologia emanuje zmieniając naszą codzienność i nasze o niej wyobrażenia. Sądzę, że opisany przez Bachmana zwrot wewnątrz cyfrowego uniwersum jest tożsamy z najważniejszymi kulturowymi przemianami dokonującymi się w kulturze współczesnej. Bazy danych wpisują się w klimat decentralizacji, stawania się kultury mniej opresyjną, homogeniczną, a za to oddaną we władanie przeciętnym użytkownikom/twórcom, otwartą formalnie i semiotycznie na ich potrzeby i zależną od podejmowanych przez nich działań. Bazodanowe środowisko sprzyja rozumieniu świata i kultury jako zbiorów elementów podatnych na przeróżne scenariusze zarządzania i porządkowania. Wchodzącemu weń/z nim w kontakt oferuje pozycję rzemieślnika i artysty, który projektuje układy architektoniczne, zarządza relacjami pomiędzy poszczególnymi elementami, reguluje przepływy znaczeń i ładunków elektrycznych pomiędzy nimi. To reguły bazy danych umożliwiły kulturę uczestnictwa, kulturę użytkownika czy Web 2.0.
Tak jak i pozostałe elementy ekosystemu [174] technologii cyfrowych, tak i bazy danych uznaję za fenomen zarówno technologiczny, jak i kulturowy. Stąd tak szeroka perspektywa patrzenia na ich społeczno-kulturowe osadzenie. Przyjmuję założenie konstruktywistyczne: technologie medialne nasiąkają kulturową energią, by potem kulturę wedle zakodowanych w sobie reguł zmieniać. Nie jest moim zamiarem orzekanie, o ile technologiczna energia baz danych odmienia rzeczywistość kulturową i społeczną, a o ile jest baza danych jedynie nasączonym kulturowo instrumentem, dzięki któremu społeczeństwa wyrażają swoje wyobrażenia i wspierają wyznawane wartości. To spór, który od lat toczą między sobą przedstawiciele różnych medio- i kulturoznawczych dyscyplin w debacie na temat prymatu w relacjach technika-kultura. Jedni sekundują w niej teoretycznemu stanowisku determinizmu technologicznego inni, przeciwnie, teorii instrumentalizmu technologicznego. Wartość tego sporu jest dzisiaj według mnie głównie historyczna, odnosi się bowiem do kondycji w relacjach kultura-technika, a wytyczyło go tempo rewolucji przemysłowej i wewnętrzna prędkość funkcjonalna i ewolucyjna jej analogowych, masowych technologii. O ile w ramach tej formacji cywilizacyjnej wzajemne relacje techniki i kultury (mediów i kultury) dawało się rozważać i modelować w świetle związków przyczynowo-skutkowych, historycznych następstw i przełomów, o tyle nie jest to w ten sam sposób możliwe w odniesieniu do obecnej, digitalno-sieciowej fazy rozwoju. Cechuję ją syntopiczne, permanentne sprzężenie pomiędzy nauką, techniką i kulturą/sztuką. Cyberkulturowy konglomerat rodzi się z nieustannego sieciowania energii kulturowej i społecznej wpuszczonej w obieg cyfrowych narzędzi, zdolnych do natychmiastowej i wielowątkowej ich kalkulacji.
Dlatego temu syntopicznemu, nieustannie się zmieniającemu, wariacyjnemu i morfującemu środowisku warto przyglądać się wedle założeń wspomnianej perspektywy konstruktywistycznej. Podejmując taką decyzję pozostawiam przywołany powyżej spór bez rozstrzygających odpowiedzi, zyskuję natomiast możliwość przyjrzenia się bazom danych w sposób integralny, łączący ich technologiczne reguły z polem kultury. Tak jak nie da się w prosty sposób współcześnie rozwikłać sporu o prymat w relacjach technika-kultura, tak i nie ma sensu w bezprecedensowym progresie technologicznego uniwersum doszukiwać się tradycyjnych rozgraniczeń i podziałów. Zamiast tego zależy mi na tym, aby uchwycić i pokazać bazodanowe otoczenie w jego naturalnej kondycji: przez pryzmat powiązań kultury i techniki, przenikania technologicznych form i kulturowych wartości, logik komunikacyjnych i medialnych interfejsów.
Bazodanowa ekologia to w tym dualnym kontekście emblematyczna dla postmedialnej kondycji sytuacja: bazy danych heterogenizują medialne i technologiczne środowisko; oferują konsumentowi mediów nową poetykę, estetykę i władzę (wariacji i remiksu) przyćmiewając dotychczasowe uzurpacje autorów i tekstów (nadawców, kontrolerów, gatekeeperów i samych mediów w ich technologicznych gramatykach i instytucjonalnych i społecznych platformach). Victoria Vesna, znana nowomedialna artystka i teoretyczka, wstęp do redagowanej przez siebie antologii poświęconej sztuce danych i estetyce baz danych zatytułowała Zobaczyć świat w ziarenkach piasku. Bazodanowa estetyka wszystkiego (Seeing the world in the grain of sand: the database aesthetics of everything [175]) i myślę, że ten tytuł dobrze oddaje klimat towarzyszący kulturoznawczemu dyskursowi, który podejmuje temat wpływu elementów konstytuujących świat nowych mediów na przestrzeń kultury i życia społecznego. Rzeczywistość (kultura, natura, my sami) konstruowana w podobnych odczytaniach składa się z atomów (i odpowiadających im bitów), czyli metaforycznych ziarenek piasku. Na różne sposoby możemy nimi – zarówno w sensie fizycznym jak i przede wszystkim metaforycznym – zarządzać, tworząc mniej lub bardziej trwałe/unikalne/powtarzalne kompozycje, układy i kształty. Świat z ziarenek piasku jest elastycznym tworem gotowym przyjąć dowolny kształt, który mu nadaje ręka budowniczego.
Mówiąc o postmedialnej sytuacji baz danych mam zatem na myśli technologiczne obiekty, będące zestawem reguł dotyczących postępowania z zasobami cyfrowego kodu. To jednocześnie software’owy stan otwartych, płynnych w czasie i kształcie, znajdujących się pod kontrolą użytkowników procesów wykraczających poza analogowe rozumienie medialnej materialności hardware’owych obiektów. To wreszcie także wyobrażone figury i logika działania w środowisku cyfrowym, jego symboliczne i komunikacyjne modelowanie. Ten trójwarstwowy konglomerat ma swoje kulturowe preteksty i projekcje; bazy danych narodziły się fuzją scjentystycznych i technokratycznych dokonań rewolucji przemysłowej i naukowej w ramach projektu nowoczesności, ale nie byłoby ich, gdyby nie poszukiwania artystyczne, kondycje kulturowe i społeczne inicjujące/podtrzymujące technologiczną dynamikę. Podobnie rzecz ma się w odniesieniu do pochodnych baz danych. Są nimi zarówno rozszerzenia technologiczne, jak i komunikacyjne i kulturowe reakcje, mniej lub bardziej bezpośrednie czy trwałe. Do poszczególnych z nich będę się odwoływać w trakcie niniejszej analizy.
Ustrukturyzowana w postaci baz danych cyfrowość ma w konsekwencji trudny do jednoznacznego zdefiniowania status, bo dane i ich bazy to jednocześnie medialne obiekty i procesy. Ta specyfika jest w ogóle cechą charakterystyczną epoki postmedialnej – nie ma w niej jedynie materialnych obiektów, które nie są jednocześnie procesualnie „ożywionymi obiektami”; tak jak nie ma w niej procesów, które istnieją jedynie wirtualnie, bez zakorzenienia w materii maszyn i zjawisk fizycznych. Taki hybrydowy stan baz danych bierze się z przywołanej już powyżej natury samej matematyki i stworzonych na jej podstawie wszelkich działań kalkulatywnych, które nie istnieją, dopóki nie materializują się w odniesieniu do surowca, czyli danych. Podobnie jest z całym technologicznym krajobrazem cyfrowości, którym rządzi następująca zasada: hardware jest w nim nierozerwalnie związany z software, jedno bez drugiego nie istnieje.
Zrozumieć sens cyfrowych danych można tylko wówczas, kiedy weźmie się pod uwagę różnicę pomiędzy nimi a informacjami, tj. zasobami o charakterze semiotycznym, które wykorzystujemy w postrzeganiu, rozumieniu i konstruowaniu rzeczywistości. Różnica między matematycznie spreparowanym surowcem elektrycznym a informacjami jest mniej więcej taka, jak pomiędzy głoskami i literami (alfabetem) a słowami i zdaniami (językiem). Język uznać można za jeden z najdoskonalszych mechanizmów kulturowych radzenia sobie z bazą danych, czyli głoskami i literami właśnie. Na podstawie kilkudziesięciu elementów w tej bazie danych człowiek jest w stanie stworzyć tysiące możliwych ich kombinacji i sprawnie wykorzystać je w komunikacji. W oparciu o dane dopiero tworzymy informacje, choć trzeba jednocześnie pamiętać, że dane występują w wielu wymiarach funkcjonalnych, które nadają im różne właściwości informacyjne (to m.in. zagadnienie metadanych, do którego niebawem powrócę). Informacje to dane przetworzone w taki sposób, że nabierają poznawczego znaczenia. Dane informują, kiedy zostają wykorzystane semiotycznie [177].
Jednak analogia pomiędzy językiem i alfabetem a uniwersum danych nie przystaje do stanu faktycznego, kiedy się jej głębiej przyjrzeć. W przypadku języka jako kultury, najpierw posługiwaliśmy się kodem, a dopiero później pojawiła się potrzeba opracowania jego pojedynczych wartości – wyodrębnienia i nazwania językowych „danych”. W cyfrowym świecie jest odwrotnie: najpierw powstają dane, a dopiero potem stają się one przedmiotem cyrkulacji kulturowej, są pożywką dla różnych kulturowych gatunków i rodzajów. W wersji historycznej informacje z czasem doczekały się swoich pre-struktur, czyli danych alfabetycznych – zostały przez kulturę zdekodowane i skodyfikowane. W wersji cyfrowej dane powstają głównie wcześniej/równolegle wobec mechanizmów (algorytmy, interfejsy, software) służących ich rozumieniu, a zatem porządek cyfrowy jest porządkiem kulturowego kodowania danych [178].
Istnienie danych to efekt nowoczesnego kultu wiedzy ścisłej, wspierającej się na regułach matematycznej składni. Kod cyfrowy powstał jako język scjentystyczny, w którym znaki miały być domyślnie pozbawione semantyki i wartości (jaki sens w odwrotnym przypadku miałaby matematyka?) – dopiero próby jego kulturowego okiełznania, wymuszone chęcią upowszechnienia nowego porządku technologicznego, spowodowały uznanie semantyki za równoprawnego partnera w cyfrowym świecie. Dziś wciąż najbardziej fundamentalny poziom technologicznego uniwersum cyfrowego opiera się wpływom kulturowym. W cyfrowym jądrze silnie pobrzmiewają echa kartezjańskie; jest modernistyczne przez odwołanie do dziedzictwa nauk ścisłych i wiedzy; upatruje w matematycznym porządku jedynego i doskonałego kodu świata.
Co oznacza ta odwrotna kolejność cyfrowego porządku, w którym to danym trzeba przypisywać wartości kulturowe? Jej skutki są podwójne. Po pierwsze, dane i bazy danych domagają się gigantycznej pracy poznawczej i metodologicznej: refleksji kulturowej, artystycznej, perceptualnej, wynajdywania zdolnych do ich okiełznania interfejsów i form, nowych gramatyk, itd. (wrócę do tego wątku niebawem). Drugim skutkiem jest tu niekontrolowany kulturowo przyrost danych. Ich ilość rośnie w stopniu dalece wyprzedzającym co do tempa i przewyższającym co do skali wszelkie tradycyjne kulturowe możliwości ich poznawania i wykorzystywania – wszelkie kultury, estetyki i logiki wiedzy, edukacji i komunikacji. Jeszcze do niedawna wydawało się, że to tempo ewolucji technologii komputerowych jest najbardziej zaskakującą kulturową prędkością współczesności. Wzór na obliczanie tej prędkości podał jeden z inżynierów pracujących dla producenta układów scalonych – Moore. Według niego prędkość obliczeniowa i zdolności do przechowywania danych podwajają się co kilkanaście miesięcy. Dzisiaj wiemy, że to hardware’owe tempo ewolucyjne, które uznać można za życiowy parametr rozwoju cyfrowego świata, jego puls, choć tak niezwykle prędkie, nie jest w stanie równać się z równolegle pracującą szybkością przyrostu danych. Ich liczba rośnie w tak niewiarygodnym tempie, że nawet jakiekolwiek próby szacowania jej tempa okazują się, jak do tej pory, jedynie bardzo przybliżone.
Jak wspomniałem, w zależności od poziomu technologicznego i użytkowego, na jakim podmioty posługują się danymi lub na jakim przewidziano dla nich określone zadanie funkcjonalne, dane różnią się od siebie. Inaczej mówiąc różne dane mają różny potencjał informacyjny. W naturalny sposób w zależności od punktu (poziomu) dostępu do określonego miejsca w cyfrowym ekosystemie te same dane mogą pełnić różne funkcje. Te zróżnicowane relacje infrastrukturalne można by opisać stosując się do popularnej w nowoczesnej matematyce reguły fraktali – niezależnie od miejsca/stanu, w którym się wobec danych znajdujemy możliwe jest wchodzenie głębiej wewnątrz nich i wychodzenie poza nie. Ten fraktalny układ danych to model mający jednak zastosowanie jedynie wobec energii semantycznej, która jest do nich przypisana. Fraktalność danych nie odnosi się do ich elektrycznej, materialnej natury. W tym przypadku podróżowanie w głąb danych kończy się na poziomie właściwości elektryczności jako zjawiska świata materii (jest tak przynajmniej w zakresie naszej obecnej wiedzy na temat fal elektrycznych i sposobów ich ujarzmiania). Te dane, które znajdują się w określonym wywołaniu bliżej, są lepiej dostępne, spełniają nadrzędną rolę funkcjonalną, przykrywają/udostępniają inne, ukryte, nazwać można najogólniej rzecz ujmując metadanymi. W innej konfiguracji, zgodnie z zasadą naturalnej jedności wszystkich ciągów cyfrowego kodu składających się zawsze na pewnym poziomie jedynie z dwóch wartości – zero i jeden, a w zasadzie z jednej lub jej braku, te same dane mogą mieć znaczenie podrzędne lub nie mieć go w ogóle. Dla przykładu: dane zawarte w elektronicznym ebooku – dla czytelnika ważny jest zakodowany elektronicznie tekst, kiedy ma ochotę na jego lekturę, dla interfejsu użytkownika i wyszukiwarki większe znaczenie będą mieć ogólne informacje o formacie pliku, jego układzie strukturalnym, zakodowanym layoucie, tagach opisujących tekst, itd.
Zapożyczone z języka fotografii, kina i telewizji gesty i metafory związane z poruszaniem się po medialnej przestrzeni (przywołany zoom właściwy dla kamer filmowych i telewizyjnych czy przewijanie strony naśladujące czytanie zwojów) to tylko namiastka możliwości operacyjnych, które wywołać można w środowisku bazy danych. Współcześnie to inne praktyki infrastrukturalne związane z nawigowaniem pośród danych stanowią o zasadniczej różnicy pomiędzy analogowym i cyfrowym ekosystemem informacyjnym. Mam tu na myśli indeksowanie danych – czyli nadawanie im znaczeń i symbolik kulturowych za pomocą tagów, katalogowania, znakowania, geolokalizacji, kontekstualizacji. Indeksowanie realizowane za pomocą tych i innych działań otwiera dane na znaczenia wykraczające poza ustanowione przez twórców konkretnych baz podziały i mapy technologiczne. Wprowadza alternatywne porządki zawartości cyfrowych magazynów i sieciuje ich zawartość z innymi tego typu bazami. Dla indeksowania nie ma wielu pierwowzorów i ekwiwalentów w gramatykach mediów analogowych i w ich kulturze. Przekształcanie danych w znaki i teksty to kulturowy rewanż za semantyczną jałowość technologicznej formy cyfrowego kodu – przypisywanie znaczeń wartościom 0 i 1 oraz ich cyfrowo-kulturowa ekonomia to świadectwo przejmowania kontroli nad matematyczną naturą technologii i kodu przez kulturę, dowód na semantyczną chłonność, płynność i otwartość cyfrowego świata. Hermeneutyczne informowanie danych wobec surowych: abstrakcyjnych, matematycznych kalkulacji elektryczności to pogranicze, na którym trwa spór o panowanie w cyfrowym świecie.
Baza danych to technologiczna forma magazynowania, porządkowania i udostępniania cyfrowo zakodowanych informacji (to semiotyczna cecha danych) / instrukcji dotyczących komputerowych operacji na elektryczności zarazem (to materialna, fizyczna cecha danych). Zadaniem bazy danych jest przechowywanie spreparowanych sekwencji kodu cyfrowego w taki sposób, aby możliwy był dostęp do nich na wiele różnych sposobów: za pomocą różnych algorytmicznych zapytań i różnych podłączanych do nich interfejsów. W ten sposób bazy są magazynami nominalnie otwartymi wobec różnych mechanik i logik wchodzenia w dane i gotowymi na oddziaływanie różnych modeli ich przetwarzania, projektowanych i wykonywanych za pomocą różnych narzędzi i estetyk wywoławczych. Wewnętrzny układ większości z baz jest płynny, co oznacza, że ich ustalona pierwotnie struktura może podlegać nieograniczonym rekonfiguracjom i przybierać nieograniczone kształty na bazie dostępnych zasobów – zależy to ostatecznie od konfiguracji hardware, co w tym przypadku oznacza przede wszystkim techniczny rodzaj pamięci, na której zostały zmagazynowane. Pamięć read-only umożliwia jedynie przyglądanie się wcześniej utrwalonej kompozycji danych; natomiast pamięć read-and-write pozwala na odczytywanie i manipulowanie danymi w ramach jednej bazy, ale zależy także od strukturalnego układu samej bazy: mogą one być hierarchiczne, sieciowe, relacyjne i zorientowane na obiektowość [179].
Na przestrzeni ostatnich kilkudziesięciu lat technologicznego i przemysłowego rozwoju baz danych pojawiły się różne koncepcje dotyczące ich wewnętrznej struktury. Rozumiane i projektowane były m.in.: jako układy hierarchiczne, sieciowe, relacyjne, obiektowe, warstwowe i mieszane [180]. Ewolucję tych form można opisać w duchu założeń cyfrowego przewrotu kopernikańskiego, o który w latach 70. apelował Bachman. Te zmiany układają się w następującą prawidłowość: od predefiniowania i technologicznego utrwalania zależności pomiędzy danymi w ramach modeli hierarchicznych, sieciowych czy relacyjnych (CD-ROM, klasyczna strona www w html) bazy danych przeszły ewolucję w kierunku otwartości na wiele możliwych rozwiązań strukturalnych i dostępności dla większej ilości zarządzających nimi administratorów/użytkowników (tagowanie, indeksowanie, html5, playlisty, logika wiki). Jakże bliska jest linia tej formalnej ewolucji baz danych wydarzeniom, które kultura dwudziestego stulecia „zaprogramowała” wobec innych swoich form: dzieła sztuki (literackiego, malarskiego dzieła otwartego jak je nazywa Umberto Eco, a za nim cała humanistyka [181]) czy liberalnej emancypacji społecznej podmiotu oraz takim procesom jak demokratyzacja czy postkolonializm. Systematyczna ewolucja rozwiązań software’owych i hardware’owych w tym kierunku to fakt, którego kulturowe i społeczne znaczenie jest nie do przecenienia. Potwierdza, dużo szerszy w skali, proces społecznej liberalizacji i dehierarchizacji technologii komunikacyjnych oraz społecznych cyrkulacji informacji. Świadczy o uspołecznianiu technologii, podważeniu transmitowanych przez nie kodów władzy, ideologii, technokracji, otwieraniu ich na wariacyjność użytkowania/wykorzystywania. Do tych wątków powrócę w kolejnych częściach rozdziału, kiedy będę analizować społeczne praktyki indeksowania danych.
Wspomniałem o trudnościach związanych z oszacowaniem wielkości danowych zasobów istniejących w cyfrowym świecie. Ilość danych i ich przyrost to zjawisko bez kulturowego czy społecznego precedensu. W cyberkulturowej nowomowie pojawiło się nawet dedykowane temu problemowi określenie – big data, które i ja przyjmuję jako właściwy tag do dalszej analizy problemu danych. Czy i jak można zjawisko big data oszacować? Jak zmierzyć i zważyć kryjący się za nim danowy ocean i jak zastosowane do takiego pomiaru jednostki mają się do znanych kulturze kwantyfikatorów świata? Tę kulturową arytmetykę danych zacznijmy od poziomu jednostki zanurzonej w cyfrowy świat. Lingwiści szacują, że w ciągu swojego życia przeciętny człowiek wchodzi w kontakt, czyli wypowiada i słyszy, ilość słów, która przy obecnych metodach kodowania cyfrowego i przechowywania tekstu w elektronicznej pamięci przekłada się na około 1TB danych tekstowych. Ta wielkość daje nam wyobrażenie o skali zjawiska, z którym borykamy się na co dzień zarządzając transferami, odczytaniami i przetwarzaniem danych, które dalece tę liczbę przewyższają – przy zastrzeżeniu, że nieuprawnione byłoby stawianie na równi cyfrowej wersji tekstu z zakodowanym w ten sposób komunikatem audio czy wideo. Popatrzmy także na inne niesamowite wielkości związane z obecnością danych: w roku 2010 ludzkość przechowywała ilość danych wystarczającą do wypełnienia 60000 Bibliotek Kongresu. Na świecie mamy już 4 miliardy użytkowników telefonów komórkowych, pośród których 1200000000 to użytkownicy smartfonów, którzy nieustannie pobierają i wysyłają dane, wykorzystują już istniejące i tworzą własne. YouTube chwali się, że na jego serwerach co minutę przybywają 24 godziny materiału wideo. Liczba smartfonów rośnie o 20% rocznie, a liczba różnego typu sensorów i czujników, które automatycznie generują dane i ich sieciowy ruch wzrasta każdego roku o jedną trzecią, zaś liczba krótkich wiadomości umieszczanych na Twitterze ma przekroczyć 500 mln dziennie do końca 2012 roku [182]. Analitycy IBM twierdzą, że 90% istniejących danych powstało w okresie ostatnich dwóch lat [183].
Po fali mniej lub bardziej dramatycznie brzmiących ostrzeżeń przed zalewem, potopem, smogiem danych (informacji), pojawiających się zarówno w dyskursie naukowym jak i codziennej debacie społecznej, pojawiało się wiele racjonalnych i profesjonalnych narzędzi i strategii zarządzania danymi, które pozwalają w mniej lub bardziej udany sposób żeglować po wodach i głębinach informacyjnego oceanu. Do nadmiaru danych jak i do ich samych zaczynamy podchodzić coraz bardziej świadomie, postrzegając ich zasoby jako elektroniczne surowce naturalne, w które bogate są cyberkulturowe lokalizacje. Uczymy się także systematycznie ich ekologii i ekonomii. Instytucje ekonomiczne, wojsko, biznes, rozrywka już tę dziejową zmianę zaczęły sprawnie do swoich potrzeb wykorzystywać. Biznes świetnie radzi sobie z generowaniem wiedzy handlowej na bazie ruchu sieciowego i zarządzania danymi przez użytkowników – wystarczy tu wspomnieć o sugestiach zakupowych amazon.com, podpowiedziach wyszukiwarek czy serwisów społecznościowych. Wiedza i nauka właśnie wchodzą w ten obszar, powoli zdając sobie sprawę jak wielki oferuje on potencjał poznawczy, ale jednocześnie stąd biorą się najważniejsze środowiskowe opory, jak bardzo będą się musiały zmienić sposoby budowania wiedzy, dostępu do niej i jej trwałość/adekwatność kiedy badania naukowe zaczną wyglądać dokładnie tak, jak wyglądają dzisiaj działania analityczne podejmowane na ogromną skalę przez przedsiębiorstwa, państwa, wojsko [185]. Przy okazji powstaje pytanie o wspomniane kulturowe mechanizmy radzenia sobie z nadmiarem danych i zarządzania big data. Rozmiar danowej lawy zwiastuje kryzys indywidualistycznego doświadczenia medialnego świata charakterystycznego dla dziecięcgo okresu cyberkultury i jej emancypacyjnej mitologii. Obok prywatnego charakteru nowomedialnego zaangażowania potrzebne będą także zbiorowe mechanizmy – jednostki najprawdopodobniej nie będą w stanie radzić sobie w tak obszernym świecie zasobów do przetworzenia i wykorzystania.
Big data to z jednej strony wyzwanie dla kultury, która dopiero tworzy scenariusze poruszania się w środowisku danych i nas samych stawia wobec ich przytłaczających ilości. Z drugiej strony to przestrzeń wyścigu technologicznego i cywilizacyjnego, w którym stawką są nowe formy, metodologie i pragmatyki wiedzy, w coraz szybszym tempie oddalające się od swoich analogowych pierwowzorów. Wraz z regułami baz danych i w oparciu o danowe zasoby powstaje nowy infosystem. Zrozumienie jego struktury, tworzenie narzędzi do jego obsługi i zdolność eksploatacji jego odnawialnych, nigdy nietracących energii, zasobów to wyzwania, których zasięg przekracza komunikacyjne i medialne możliwości większości istniejących rozwiązań prawnych i praktycznych. Przytłaczająca ilość danych zarówno w skali doświadczenia indywidualnego jak i w skali zjawiska kulturowego to specyficzne, dromologiczne (Virilio) potwierdzenie procesualnej natury baz danych – o tej ilości trudno myśleć w kategoriach obiektu, bardziej pasują do nieustannej erupcji i potoku danych kategorie procesu, płynności. Big data upłynnia kulturę.
Przejdę teraz do analizy wspomnianej potencjalnej konkurencji, jaką dla świata nauki stanowią „świeckie” sposoby i narzędzia pozyskiwania i analizy danych. W roku 2008, Chris Anderson w jednym ze swoich felietonów na łamach „Wired”, krytycznie pisał o dotychczasowych sposobach uprawiania nauki i konstruowania wiedzy, twierdząc, że nadchodzi koniec ich modelu w obliczu big data. Prowokacyjnie obwieszczał koniec teorii, który będzie miał miejsce w zderzeniu z Petabyte Age (to dla niego synonim big data) i bazodanową logiką cyberkultury [186]. Publicysta dowodził wyższości matematycznych i statystycznych działań – trudno nie dostrzec w takiej optyce mającego korzenie w projekcie modernistycznym konfliktu pomiędzy „prawdziwymi” sciences a „nonszalanckimi” humanities – realizowanych w oparciu o olbrzymie, wielowątkowe bazy danych nad tradycyjnym instrumentarium i metodyką pracy naukowej. Przekonywał, że wyrafinowana technicznie analiza danych jest metodą oferującą niegraniczone możliwości poznawcze; bazom danych możemy zadawać nieograniczoną ilość pytań ,a same pytania mogą być niezwykle złożone, wielowymiarowe (wielowariantowe). Jednocześnie dostęp do danych i ich olbrzymia ilość to dzisiaj elementy natywne w środowisku cyfrowym, dostępne w większości dla każdego zainteresowanego i otwarte na wszelkie potencjalne zapytania. Właściwie zapytane bazy danych nie potrafią kłamać ani manipulować informacjami, oferują odpowiedzi w trybie natychmiastowym, pozwalają na nieustanne zmienianie hipotez badawczych, na procesualne zachowanie badającego algorytmu, update nowymi danymi i algorytmami pytającymi, ich przenikanie i remiksowanie, itd. Innymi słowy: wewnątrz baz danych znika potrzeba spekulacji i tworzenia modelowych wizji, wystarczy, mając dostęp do konkretnych danych, pozwolić kalkulującym maszynom działać w oparciu o zdefiniowane przez badacza zapytania/algorytmy.
W podobnym kierunku zmierza generalnie humanistyka. W jej środowiskach coraz chętniej przebijają się głosy mówiące o konieczności cyfrowej reformy tego konglomeratu dyscyplin i metodologii, o nowej logice badawczej digital humanities [189] jako sposobie wejścia w dane i korzystania z nich na rzecz badań nad kulturą, życiem społecznym, itd. Niezależnie od tego, w jaki sposób i o ile nauka (science i humanities) zrozumie i wykorzysta cyfrową rewolucję i jej wpływ na sposoby i strukturę generowanej wiedzy, pewne jest już dzisiaj, że jej monopol na poznanie i społeczna status z nim związany zostaną podważony, a być może także przełamane [190]. Wciąż wpisana w genetykę nauki i wiedzy w ogóle jest przecież obawa o przedostawania się ich zasobów poza naturalny, pierwotny nośnik – ludzką pamięć. Już w starożytności swoje obawy wobec takiego kierunku jej rozwoju wyraził Platon w krytyce medium pisma [191]. Środowisko bazodanowe rozbija integralność wiedzy faktograficznej i interpretatywnej w ramach naturalnie holistycznej i hermeneutycznej pamięci.
Gromadzenie najbardziej imponujących co do liczby i wartościowych poznawczo danych odbywa się dziś przede wszystkim poza sektorem oficjalnych instytucji naukowych. Rolę skutecznego konkurenta przejęły w tym zakresie, jak to już wcześniej nadmieniłem, przedsięwzięcia biznesowe, które z tworzenia i wykorzystywania danych oraz obrotu nimi uczyniły główny kierunek swojego działania. Oszałamiająca wartość debiutującego niedawno na giełdzie facebook.com czy wcześniejsze rekordy wycen bite przez google.com to niepodważalne dowody świadczące o wadze zmian, które zachodzą na medialnym rynku i w sektorze pozyskiwania i cyrkulacji danych, ich zamianie/wymianie na informacje. Spośród tysięcy innych realizowanych w przestrzeni cyfrowej ewidentny sukces rynkowy osiągnęły te inicjatywy, które stały się metaforycznymi i technologicznymi zarazem drogowskazami dla społeczeństw informacyjnych, wytyczającymi szlaki wiodące przez bezkresne wody cyfrowego oceanu wraz z ofertą umiejętności ich pokonywania. Google to największa z latarni górująca nad cyfrowymi wodami i orientująca wszystkich żeglujących i surfujących po nich – olbrzymia składnica danych o danych, najważniejszy dziś z metatekstów opisujących zasoby cyberkultury. Facebook to zaś magazyn wszelkiej społecznej wiedzy żeglarzom potrzebnej. Obie firmy zajmują się gromadzeniem, przetwarzaniem i obrotem cyfrowo zakodowanymi informacjami – są softwarem harcującym w gigantycznej, o światowym zasięgu, bazie danych, którą nieustannie porządkują, przetwarzają i na nowo udostępniają. Efektem działania obu serwisów jest nowe oblicze kulturowej ekonomii i ekologii cyfrowych danych; nowa wizja świata informacyjnego i nowe narzędzia, za pomocą których można w tym świecie egzystować. W ten sposób oba te flagowce i tysiące pomniejszych jednostek tworzą wiedzę, której pokłady rosną równie szybko, jak sam zasięg tej flotylli.
Operatorzy i eksplorerzy gigantycznych baz danych w centrum swojej działalności sytuują generowanie i/lub pozyskiwanie metadanych. W nauce może odbywać się proces paralelny, choć obliczony na osiągnięcie innego efektu. Wiedza wynikająca z danych może mieć charakter metawiedzy. Czym są w tym kontekście naukowe metadane? Najprostsza na to pytanie odpowiedź wskazuje na dotychczasowy dorobek nauki: traktaty, artykuły, książki, dyskursy – wszelkie zapisane tekstem lub utrwalone za pomocą innych medialnych nośników (obrazy, nuty) tezy i zbiory informacji. Algorytmiczne ich indeksowanie i przeszukiwanie może wskazać na tendencje w rozwoju dyskursów naukowych, np. w humanistyce za sprawą metody wizualizowania danych można doszukiwać się występowania i fluktuacji określonych pojęć na przestrzeni dziejów. Dla nauk ścisłych analiza metadanych ma równie istotne znaczenie. Generowane w bazodanowy sposób powstawać mogą prefabrykaty służące dalszym analizom i algorytmicznej obróbce. Na tym etapie „wyścigu zbrojeń” pomiędzy sferą nauki a jej komercyjnymi konkurentami balans sił prezentuje się następująco: nauka korzysta głównie ze spreparowanych przez korporacje i rynek w ogóle półproduktów. Sama nie jest chyba w stanie posługiwać tak wyrafinowanymi narzędziami i na taką skalę, jak robią to przedsiębiorstwa wyspecjalizowane w nawigowaniu po bazodanowych morzach i regulujące je. Nauka w obliczu danowej zmiany straciła pozycję lidera w zakresie informacyjnych innowacyjności i kreatywności, brakuje jej także technologicznego zaplecza i zasięgu, którym dysponują społecznościowi gracze z Krzemowej Doliny i na dodatek daje się zauważyć w niej wewnętrzny dysonans co do konieczności i zasadności adaptacji do nowych okoliczności [193].
Jednym z graczy ekspansywnie eksplorującym pole, na którym nauka nie ma wystarczającej liczby narzędzi i zaplecza do ich wykorzystania, jest Facebook.com. Korporacja zainwestowała ostatnio spore środki w utworzenie działu badawczego, którego zadaniem jest najpierw socjologiczna ocena gromadzonych za pośrednictwem serwisu danych, a następnie opracowanie scenariuszy i narzędzi, dzięki którym zdobędzie ona zdolność do wykorzystania i kapitalizowania danych w formie tak przygotowanej wiedzy sprzedawanej innym. Blisko miliard użytkowników portalu pozostawia na nim dane dotyczące swoich codziennych działań, obyczajów, relacji ze światem i innymi. Odpowiednie analizy tych danych mogą zmienić nie tylko wiedzę o społeczeństwie, ale także skutecznie podważyć prymat nauki jako uprzywilejowanego dostawcy wiedzy i jej wiarygodnego generatora. Przykładowym, banalnym w swej merytorycznej zawartości, ale odsłaniającym potencjał tego typu działań, narzędziem, które skonstruowali socjologowie firmy, jest pomiar „narodowego współczynnika szczęśliwości”. Można go zmierzyć licząc stosunek występowania słów uznawanych za wyrażające zadowolenie wobec tych, które powszechnie uznaje się za przejaw smutku. Narzędzie miałoby pracować w oparciu o analizę wpisów użytkowników portalu w danym okresie, obserwować wzrosty częstotliwości występowania oznak zadowolenia i oznak smutku, wytyczając w ten sposób rzeczony diagram „narodowej szczęśliwości”. Tego typu kryteriów wobec tak gigantycznej i wiarygodnej bazy danych, jaką są zasoby portalu, można zastosować wiele więcej [194]. Jaki badacz, jaka inna instytucja badawcza ma szansę na pracę z taką ilością danych do analizy i w tak nieograniczony sposób? O ile, jako społeczeństwa, państwa, kultury, grupy i jednostki, gotowi jesteśmy na coraz bardziej realną i już osiągalną inżynierię społeczną w oparciu o takie bazy danych jak Facebook.com? Na te pytania nie sposób jeszcze dzisiaj odpowiedzieć. Są to jednak pytania, które wytyczą wiele kulturowych sensów bazodanowego świata i jego wpływu na kulturę – bez wątpienia ich istnienie stawia naukę przed okolicznościami, których nie sposób zbagatelizować, ani tym bardziej pominąć.
Wiadomo natomiast już teraz, że bazodanowy zwrot informacyjny z okien korporacyjnych budynków i niektórych medialnych operatorów wygląda aż nazbyt ponętnie i obiecująco. Wiele istniejących systemów instytucjonalnych znajdzie się w wyniku tego zwrotu w sytuacji podobnego zagrożenia, jakie dla tradycyjnego warsztatu i systemu nauki stanowi konkurencja ze strony operatorów big data. Danowy ekosystem zmieni dogłębnie wszelkie inne dziedziny związane z obrotem informacjami, takie jak np.: archiwistyka, bibliotekarstwo, muzealnictwo, media, i wiele innych.
Dywersyfikująca się wokół figur drzewa i sieci wyobraźnia kulturowa różni społeczeństwa tradycyjne od nowoczesnych, hierarchiczne od liberalnych. Żyjące według nich i praktykujące je społeczeństwa, kraje i kultury nie rozumieją siebie nawzajem, a ludziom stającym wobec siły takich wyobraźni często trudno się ze sobą porozumieć, razem pracować. Sięgnijmy dla zilustrowania tej tezy po przykład. Kiedy współcześni muzycy wychowani i wyedukowani w tradycji zachodniej z jej abstrakcyjnymi regułami próbują muzycznie porozumieć się i współbrzmieć z innymi, bardziej pierwotnymi tradycjami muzycznymi, dochodzi do ciekawych zgrzytów. Bill Viola, uznawany za jednego z najważniejszych artystów pracujących z technologiami medialnymi, zastanawiając się nad antropologiczną i artystyczną logiką danych cyfrowych, opisuje przypadek swojego kolegi – muzyka, który badał tradycje muzyczną wysp Java. Wyobraźnia amerykańskiego muzyka była już sieciowa, gotowa do wielu abstrakcyjnych działań w ramach danego tematu muzycznego: skłonny był powtarzać poszczególne sekwencje, odgrywać je jako poszczególne fragmenty, reinterpretować i przetwarzać strukturę kompozycji, posługiwać się technikami wielościeżkowej rejestracji, itd. Wszystkie tego typu formalne zabiegi, tak charakterystyczne dla abstrakcyjnej nowoczesnej kultury zachodniej, okazywały się nie do pomyślenia dla muzykujących „klasycznie” autochtonów [197]. Można sięgnąć po wiele innych przykładów bazodanowych form zastępujących tradycyjnie linearne teksty kultury. Jednym z nich będzie choćby format składanki stosowanej w muzyce popularnej (miks tape, kompilacja), która jest bazą danych przygotowaną w oparciu o przeróżne nagrania selekcją/nawigacją, która ma stanowić jakąś estetyczną całość, wywoływać elementy z bazy danych kultury według określonych kryteriów. Inny przykład odnosi się do dyskursu naukowego i popularności w nim prac pod redakcją, tzw. zbiorówek. W obu przypadkach widać systematyczne odchodzenie od tradycyjnych linearnych form narracyjnych: wielkich form muzycznych znanych z historii muzyki (opery, symfonie, cykle) czy wielkich teorii humanistycznych zapisywanych w postaci nieraz wielotomowych rozpraw i traktatów.
Poznaliśmy metaforyczne i ikoniczne zarazem figury, których zderzenia w kulturowej wyobraźni tworzą grunt pod bazodanową gramatykę komunikacyjną. Sfera zbiorowej wyobraźni, wyobraźni kulturowej jest przy tym efemeryczna, nie ma zgody co do jej rzeczywistego, a przynajmniej dającego się w prosty sposób zmierzyć wpływu na kulturowe status quo. Dlatego moje poszukiwania bazodanowych źródeł skieruję teraz na obszar bardziej konkretnych, namacalnych dzieł, wydarzeń i stanów medialnych kultur i sztuk. W zmieniających się językach medialnych wypowiedzi, w obszarze sztuki zanurzonej w elektrycznym, analogowym otoczeniu technologicznym, szukać będę zarówno sytuacji poprzedzających interesującą mnie nowomedialną formę, jak i skutków jej obecności. Patrząc z perspektywy cyfrowej archeologii wiele z mających miejsce w kulturze działań i powstających w ich wyniku tekstów można uznać za pionierskie rozpoznania kondycji bazodanowej. Zobaczmy, jak tekstualność i literatura, wizualność i jej sztuki, audialność i muzyka popularna, a także architektura odczytują zmieniającego się ducha czasów i w jaki sposób jego esencję współtworzą.
Tekstualność, na której formalnych podwalinach zasadza się projekt cyfrowy, to nie jedyny trop medialny dający się wykorzystać w poszukiwaniach kulturowych i artystycznych prototypów nowej organizacji wiedzy i informacji w formie baz danych. Tekstocentryczne analizy kondycji nowych mediów, które postrzegają hipertekstualność jako najważniejszy z kulturowych kształtów cyfrowości, wraz z rozwojem technologicznym przesunęły się na drugi plan, ustępując miejsca obrazom i ustanowionej w oparciu o ich język kulturze wizualnej. Oznacza to, że w domenie technologii cyfrowych to metafory, gramatyki i logiki wizualności odgrywają dziś decydującą rolę, definiują sens i wyznaczają porządek cyfrowego świata. Nie wchodząc na razie w szczegóły dotyczące znaczenia i historii zwrotu wizualnego w kulturze – wrócę do tego wątku niebawem – można powiedzieć, że ogólnie losy komunikacyjnej powłoki cyfrowych maszyn w ostatnich trzydziestu latach polegały na systematycznej ich emigracji z terenu tekstualności i zagnieżdżaniu się wewnątrz wizualności – potwierdza to historyczne następstwo technologii interfejsowych, które w pierwszej fazie swojego istnienia były mechaniczne, następnie tekstualne, aż wreszcie – to właśnie faza obecna – wizualne. Ten proces opowiadany z perspektywy historii technologii cyfrowych i sieciowych można rozumieć paralelnie wobec historii komunikacji w ogóle: jako przechodzenie od pisma i tekstualności (epoka Gutenberga) do fazy dominacji kultury wizualnej. Powszechna komputeryzacja możliwa dzięki interfejsom graficznym i wizualizacji środowiska cyfrowego to jedna z przestrzeni, w których doskonale widać dominację kultury wizualnej we współczesności [205].
Medialne technologie wizualne wraz z rozwijającymi się w XIX i XX wieku, głównie w opozycji do nich i w reakcji na ich obecność, sztukami wizualnymi wygenerowały spory zasób form, tekstów i ikon, które można uznać za wprowadzające w bazodanową ekologię. Widać je, kiedy spojrzymy na reakcję sztuki postawionej w obliczu fotografii, a następnie fotografii, kina i sztuk malarskich w obliczu telewizji. Eksperymenty formalne kubistów, impresjonistów i, najogólniej rzecz biorąc, kierunek działań awangardy były poszukiwaniem prawdy w malarstwie, które zostało w swej klasycznej estetyce i gramatyce zagrożone przez niezwykle wierną rzeczywistości, prostą i przystępną w obsłudze fotografię. Prace takich artystów jak Pablo Picasso, Paul Klee, Piet Mondrian świadczą o potrzebie przewartościowania wiedzy o malarskich estetykach, zwracaniu się do punktów i ich zbiorów, wariacyjnych perspektyw i sposobów postrzegania oraz interpretowania rzeczywistości – konstruowania nowatorskich reprezentacji świata, który malarstwu wykradały mechaniczne technologie wizualne.
W filmie Spotkanie w Palermo (oryg. Palermo Shooting), wyreżyserowanym i napisanym przez przywołanego już w tej części Wima Wendersa w roku 2008, główny bohater to poszukujący sensu życia i inspiracji dla tworzonych przez siebie obrazów wzięty europejski fotograf [206]. Na co dzień posługuje się technikami manipulacji komputerowej wobec swoich zdjęć, dbając o zagwarantowanie ich atrakcyjności. Podmienia w nich zbyt chłodne słońce zachodzące nad miastem na jego bardziej południową, „słoneczną” wersję; chmury do niepełnego miejskiego krajobrazu wycina i wkleja z fotografii naturalnego krajobrazu; komputerowo usuwa niepotrzebne odcienie i refleksy światła. Dodatkowo niezwykle inwazyjnie zachowuje się wobec komponowanych przez siebie scen aranżowanych na potrzeby fotografii komercyjnych. Ten artysta mierzy się w technokratyczny i właściwy imagologom wizualnej kultury Zachodu, wyposażonej w coraz doskonalsze techniki manipulacji, z wizualnością tak, jakby była ona rzeczywiście zbiorem atomów odbijających światło, domagającym się nieustannego zarządzania, selekcji danych, ich aranżowania i zapętlonego w czasie burzenia ich w poszukiwaniu kolejnych wersji uchwyconych na kolejnych klatkach. Wenders niewątpliwie niezwykle poetycko diagnozuje w swoim filmie stan współczesnej wizualności technologicznej dekonstruującej wizualność i rozkładającej obrazy na atomy/piksele podlegające nieustannemu przetwarzaniu.
Współczesne kino dzięki swoim cyfrowym mediom jest w gruncie rzeczy dalece bardziej otwarte i podatne na wariacyjność i algorytmiczne gry z formą, niżby to wynikało z wendersowskiej opowieści. Za pioniera takiej estetyki uznać można polskiego reżysera Zbigniewa Rybczyńskiego. Dokonania Rybczyńskiego w zakresie dekonstrukcji mediów filmowych, twórczego eksplorowania technicznych ograniczeń doprowadziły go do momentów, w których filmowe rzemiosło uczynił jeszcze w analogowych czasach tej technologii ideowo-cyfrowym, bazodanowym. Peter Weibel nazywa wręcz Zbigniewa Rybczyńskiego matematykiem obrazów [207]. Jakie jest to protobazodanowe kino Rybczyńskiego? Aby odpowiedzieć na to pytanie, sięgnę tu do okresu jego analogowej twórczości. Jego „bazodanowe” Tango zostało nagrodzone Oscarem w latach 80. ubiegłego stulecia. Dla polskiego twórcy, doskonale świadomego technologii wizualnych i potrafiącego z nich na wysokim poziomie warsztatowym kreatywnie i krytycznie zarazem korzystać, technologiczny obraz oferowany przez media jest zbiorem świecących punktów, które z natury rzeczy poddają się wszelkim możliwym procedurom matematycznym. Rybczyński dał się poznać jako mistrz w ich formułowaniu i implementowaniu, czyli mozolnym zmuszaniu niegotowych na takie rozwiązania analogowych maszyn za sprawą różnych, mniej lub bardziej wywrotowych i subwersywnych w stosunku do nich, działań. Jego twórczość to zarządzanie pikselami technologicznych obrazów i odpowiadająca im logika zarządzania czasem, przestrzenią i bohaterami na semantycznym poziomie tworzonych obrazów – cięcie kliszy na drobne elementy składowe kompozycji i ich kolaż, zapętlanie ujęć, ich rewersy, negatywy, przyspieszenia, zwolnienia, przenikania, itd. Weiblowskie określenie Rybczyńskiego można, w kontekście współczesnych form baz danych i możliwych wizualnych operacji na nich, uzupełnić. Filmy Rybczyńskiego to pionierskie potraktowanie medium (wszystkim jego ograniczeń i możliwości) w wyrafinowany technologicznie sposób, który poprzedza myślenie o nim w kategoriach stricte cyfrowych: obraz to pierwsza z baz danych, którą ono zarządza, a jego piksele (wiedza Rybczyńskiego o ekranach telewizyjnych, liniach pikseli w systemach PAL/NTSC, przeplocie) to baza wizualnych danych otwarta na zarządzanie. W Nowej książce z roku 1975 czy w zrealizowanym kilka lat później Tangu widzimy także bazodanowe myślenie o semantyce filmowego przekazu. W pierwszym z tych filmów w podzielonym na dziewięć identycznych mniejszych części ekranie obserwujemy dziewięć dziejących się symultanicznie scen, które jednak – jak się okazuje – zostały pierwotnie nakręcone jako klasyczna filmowa sekwencja. W Tangu mamy do czynienia z bazodanowym majstersztykiem. Mozolnie pocięte i ponakładane na siebie, w rewolucyjny jak na tamte lata sposób, ujęcia pokazane są jednocześnie jako filmowy kolaż doskonały. Reżyser dodatkowo zapętla pojedyncze z nich w taki sposób, że pojawiają się jako sekwencje trwające dłużej niż pojedynczy „take”, tworząc w ten sposób wizualny loop. Widać w tej pracy inspiracje technologiami wielośladowej reprodukcji dźwięku, myślenie w kategoriach wychodzenia poza linearną narracyjność kina. Rybczyński myślał o filmowych ujęciach, taśmach i maszynach edycyjnych jako o bazach danych i przykładanych do nich algorytmach, choć dopiero od niedawna jego analogowe prace można interpretować w cyfrowych kategoriach. Jego kino jest w gruncie rzeczy w duchu cyfrowe, wyprzedzające epokę i formy techniczne, które reżyser wykorzystał, nawet wtedy, kiedy jest technologicznie analogowe: obecne jest w nim nieustanne przeliczanie klatek, scen, kompozycji i samej technologii, tak jakby robiły to dzisiejsze algorytmy w odwołaniu do cyfrowych wizualnych baz danych.
Skoro już jesteśmy przy kinie, to nie sposób pominąć technologii rejestracji i dystrybucji tworzonych nagrań muzycznych, których znaczenie dla filmu – jak w przypadku Rybczyńskiego, ale i dla całej współczesnej kultury – jest równie fundamentalne. To w środowisku twórców muzyki, jej studyjnych inżynierów, producentów i realizatorów powstały chyba najbardziej bliskie bazodanowej ekologii i poetyce formy i teksty. Obecnie zaś wielu teoretyków kultury próbuje dowartościować jej audialne zaplecze na tle humanistycznych opowieści o dominacji kultury wizualnej [208].
W przypadku medium masowego, jakim jest muzyka popularna, mamy do czynienia z wieloma elementami, które można by uznać za protobazodanowe. Kluczowym z nich jest bez wątpienia rozwój technologii wielośladowej rejestracji i remiksu nagrań oraz zmiany w kulturze muzycznej, które wywołał. Jak wiadomo pierwsze nagrania muzyczne powstawały w oparciu o homogeniczny zestaw rejestrujący składający się ze „słyszącego” otoczenie interfejsu-mikrofonu oraz kompletu urządzeń przetwarzających i rejestrujących, którymi początkowo były walce powleczone tworzywem poddającym się rejestrującej igle, żłobiącej w nich porowatą ścieżkę, po której podróżowała następnie igła przekładająca powstałe w ten sposób rowki na drgania i dalej na modulowane elektrycznie sygnały, które, po odpowiedniej obróbce, np. wzmocnieniu, wprawiały w ruch membranę głośnika (interfejsu wyjścia). W zasadzie tej formule podporządkowane były zarówno płyty gramofonowe, jak i współczesne nośniki cyfrowe CD, DVD, BR, których ścieżki składają się z wypalonych/wytłoczonych dołków układających się w spiralną linię. Pojawienie się zapisu na taśmach magnetycznych przyczyniło się do powstania technologii wielośladowej, czyli takiej, w której można zarejestrować, a następnie poddać strukturalnej obróbce zapis z wielu źródeł: mikrofonów, instrumentów, efektów jednocześnie. Dostępne dzisiaj cyfrowe techniki nagraniowe oferują możliwość rejestracji i miksu w praktyce nieskończonej ilości ścieżek. Oferują także możliwość pracy z tymi ścieżkami w niemal nieograniczony sposób – każdą z nich można indywidualnie przetwarzać, a całą powstającą z ich wymieszania kompozycję można jeszcze, dodatkowo, poddawać bardziej całokształtnej obróbce.
Przeszedłem przez obszar technologicznych i kulturowych inputs i outputs związanych z bazami danych. Pora teraz na analizę ich semantycznego usytuowania i rozumienia w dyskursach teorii mediów i kultury, czyli odnalezienie i rozpoznanie potencjału bazy danych jako pojęcia w budowie. Baza danych odgrywa pierwszoplanową rolę w teorii nowych mediów. Kiedy dyskurs medioznawczy, który bacznie przyglądając się impetowi cyfrowości i jej technologii podsuwa nam myśli o cyfrowej rewolucji, nowej, otwartej kulturze czy kulturze uczestnictwa, odwołuje się przede wszystkim do figury bazy danych. Została ona przezeń ustanowiona jednym z emblematycznych, centralnych formatów nowego ekosystemu medialnego. Powoli staje się także – na skutek poznawczej atrakcyjności medioznawstwa, mody na nie – metaforą opisującą nowe obyczaje komunikacyjne i zmiany w świecie kultury i życia społecznego w ogóle. Do takiego wykorzystania pojęcia bazy danych mam i ja nadzieję się w jakimś stopniu przyczynić.
Figurę bazy danych i sam termin wprowadził do dyskursu medioznawczego Lev Manovich w wydanej przed dekadą, a dzisiaj już kanonicznej dla studiów nad cyberkulturą i nowymi mediami, pracy Język nowych mediów. Manovich wyznaczył w niej kanon definiowania i teoretycznego kontekstualizowania kultury komunikacyjnej technologii cyfrowych. Amerykański medioznawca wskazuje na bazę danych, którą w połączeniu w interfejsem umieszcza w funkcjonalnym (technologicznym) i kulturowym epicentrum mediów cyfrowych. Baza danych to według niego nowy sposób nadawania struktury naszemu doświadczeniu świata i siebie (s. 334–335), wokół którego epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość → media → dane → baza danych (s. 341). W konsekwencji struktura niektórych obiektów medialnych stosuje się wprost do logiki bazy danych, natomiast struktura innych – nie, mimo to – w głębi – praktycznie wszystkie to bazy danych (s. 343) [212]. W odczytaniu Manovicha cyfrowy ekosystem informacyjny to środowisko bazodanowe, co znaczy, że struktura bazy danych powiela się we wszystkich jego obszarach, zaś same dane zawładnęły wszystkimi jego poziomami funkcjonalnymi. Bazy danych spełniają fundamentalną rolę: są technologicznym wcieleniem idei dotyczących struktury i organizacji wiedzy, ekologii i ekonomii jej zasobów towarzyszących dwudziestowiecznej kulturze.
W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].
Jak, według amerykańskiego teoretyka, baza danych wpływa na kształt języka nowych mediów? Odpowiedź Manovicha jest w tym przypadku stanowcza: współczesne media to pole rywalizacji między bazą danych a narracją (s. 353) [214]. Baza danych to format rozbijający tradycję odgórnie planowanej i dystrybuowanej narracyjności w kulturze. Narracyjne były i wciąż w dużej mierze są, mimo podjętej walki z nowymi technologiami, tradycyjne media komunikacji masowej. Ich logika zdominowana była przez funkcję bezzwrotnej transmisji zdefiniowanego (technologicznie, ideologicznie, geograficznie) komunikatu do jak największej ilości potencjalnych odbiorców. Narracyjne były również tradycyjne media epoki przedelektrycznej – pismo, obrazy, opowiadania.
Potwierdzenia manoviczowskiej diagnozy bazodanowego charakteru cyfrowego ekosystemu medialnego potwierdzają i uzupełniają diagnozy szczegółowe proponowane przez innych teoretyków mediów, kultury i komunikacji. Dla przykładu w zakresie cyberkulturowej teorii tekstualności takie potwierdzenie znajdziemy w pracach teoretyka literatury elektronicznej i cyfrowej tekstualności Espena Aarsetha, który cybertekstualność postrzega w oparciu o zanik linearności: w zakresie tworzenia tekstu, jak i jako szereg charakterystycznych dla zapośredniczenia cyfrowego strategii odbiorczych. Nielinearny tekst staje się tekstem bazodanowym, to jest takim, w którym obok autorskiej narracji możliwe są także inne układy i kompozycje jego części składowych (zarówno technicznych jak i semantycznych), staje się hipertekstualny, multimedialny i wariacyjny [215].
Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].
Analogiczne wobec tych zaobserwowanych głównie w domenie kultury zjawiska odnotowali także teoretycy zajmujący się analizami społecznymi, dotyczącymi sfer polityki i ekonomii. Na przykład w opublikowanej w roku 1987 pracy zatytułowanej The End Of Organized Capitalism [217] Scott Lash i John Urry przekonują, że w zaawansowanym kapitalizmie niemożliwe jest utrzymanie hierarchicznego porządku. Nie sposób zapanować w nim nad przepływami kapitału, relacjami związanymi z własnością środków produkcji i charakterem pracy. Miejsce tradycyjnej koncentracji kapitału zajmuje jego dekoncentracja i rozproszenie, mobilność i nieustanna recyrkulacja. Dotychczasowa kontrola i regulacja państwa, wielkiego kapitału i narzuconego odgórnie systemu pracy upadła pod naporem milionów małych i średnich firm, które rozproszyły dotychczasowy system. Świadczą o tym takie zjawiska, jak np.: narodziny globalnego rynku, pojawienie się profesji niemieszczących się w oficjalnym systemie organizacji pracy, spadek znaczenia tradycyjnej, fordowskiej logiki wytwarzania na rzecz bardziej zaawansowanych modeli (postfordyzm, prosumpcja), malejące znaczenie banków narodowych i innych instytucji finansowych powiązanych z państwem narodowym, narastająca niezależność podmiotów ekonomicznych wobec regulacji państwa, rozprzestrzenianie się kapitalizmu poza kulturę Zachodu (np. do krajów tzw. Trzeciego Świata), systematyczne słabnięcie systemu klasowego i emancypacja klasy pracującej, regionalizacja produkcji i konsumpcji, a także rosnące znaczenie kultury i sztuki w życiu publicznym.
Chciałbym teraz przyjrzeć się bazodanowym praktykom współczesności, czyli sprawdzić, jakie mechanizmy i zjawiska uruchamiają bazy danych, co dzieje się w świecie dookoła nas, kiedy wchodzą weń dane i pojawia się konieczność zarządzania ich bazami? Pomimo oznaczonych już szczegółowych kontekstów obecności i wpływu danych chciałbym wskazać na zjawiska, które mają bardziej uniwersalny charakter, dotyczą kultury i życia społecznego w ogóle, a w tych specjalistycznych obszarach działają wedle ogólnego modusu. Pośród palety tych praktyk kilka wydaje się mieć znaczenie priorytetowe dla mojej analizy, są to: wizualizowanie danych (infoestetyka i visual culture); zarządzanie danymi w domenie informacyjnej (data journalism, data mining i data art) oraz społeczna ekologia danych, tj. ich generowanie, indeksowanie oraz alternatywne w sensie politycznym, kulturowym i ekonomicznym obiegi/cyrkulacje. Odwołuję się do kryjących się za tymi hasłami praktyk, bo mają one postmedialny charakter. Wpisują się w ogólny nurt emancypacji technologicznej, tj. procesu społecznego przejmowania/konstruowania władzy nad technologiami komunikacyjnymi. Dotyczą zjawisk semiotycznych i związanych z dominacją wizualności w kulturze, są także świadectwem erozji/dezintegracji/rekalibracji formatu medium, rozmywania się jego form i ujednolicania/rozpraszania różnych medialnych gramatyk. Wszystkie te postmedialne okoliczności i scenariusze najpierw ogólnie umocuję pośród zjawisk nadrzędnych, a następnie przejdę do analizy dwóch wybranych przypadków, za pomocą których zilustruję najbardziej, jak sądzę, namacalne wpływy technologii baz danych i bazodanowego myślenia.
Przegląd bazodanowych praktyk rozpocznijmy od ich afiliacji z kulturą wizualną, bo to na tym styku dochodzi do najbardziej dziś frapujących danowych wydarzeń. Zanim jednak zajmę się wizualnymi losami danych, krótko scharakteryzuję diagnozy kultury zdominowanej przez obrazy. Ten stan nauki humanistyczne i społeczne opisują dzisiaj najchętniej mianem kultury wizualnej. Jego źródeł teoretycy upatrują w przejęciu przez media wizualne i fabrykowane przez nie obrazy techniczne (technologiczna reprodukcja dzieła sztuki) dominującej roli w obszarze komunikacji kulturowej i społecznej. Zarówno zakres pojęcia kultury wizualnej, jak i akademickie umocowanie i sens studiów wizualności pozostają materią sporną. James Elkins, jeden z najpowszechniej czytanych propagatorów badań i studiów wizualnych tak te spory opisuje [218]:
Obrazy powstają i są przedmiotem wielu dyskursów, na uniwersytetach i poza światem humanistyki. Niektóre dyskursy, takie jak biochemia czy astronomia, traktują je obsesyjnie; inne tylko częściowo się nimi posługują. Jak na razie visual studies interesują się głównie obrazami funkcjonującymi w polu sztuki i mediów masowych pomijając w ten sposób pozostałe, które stanowią przeważająca większość powstających w praktykach naukowych. Poza uniwersytetami tego typu obrazy naukowe pojawiają się w kolorowych magazynach, Internecie czy książkach popularnonaukowych.
Na obecnym etapie rozwoju cyfrowych form technologicznych (hardware i software) wizualność jest przede wszystkim praktyką nadawania surowym, matematycznym ciągom kodu baz danych bezpiecznych antropologicznie (psychologia i antropologia postrzegania) i kulturowo (semiotyka wizualności) kształtów, tj. upodabnianie do oswojonych w ramach dziedzictwa visual culture form (np. ekran monitora jako nawiązanie do ekranu telewizora, strona www jako nawiązanie do drukowanej gazety). Inaczej mówiąc: obrazy wystawiamy jako najważniejszy kulturowy kapitał/system bezpieczeństwa w kontaktach z niewidzialnym, tj. trudnym do uchwycenia (za sprawą miniaturyzacji narzędzi i spektrum widzialności elektryczności) techné, a przez to niezrozumiałymi/groźnymi elektrycznością, kodem cyfrowym i oceanem digitalnych danych. W ten sposób wizualność pełni nie tylko rolę gwaranta kulturowego bezpieczeństwa i uniwersalnej powłoki (mapy) cyfrowych wód, siłą rzeczy przekształcona została także – dopełniając historię analogowej mediatyzacji wizualności – w najpowszechniejszą praktykę użytkową nowych technologii, stając się gruntem, na którym narodziły się ich interfejsy. Najogólniej rzecz ujmując przypomnę: obrazy stały się najważniejszym kulturowym interfejsem technologii rewolucji cyfrowej.
W szczególnej sytuacji wobec danych i ich wizualizacji znalazły się m.in. takie dziedziny, jak nauka, biznes czy media. Sugerując się samymi tytułami publikacji poświęconych tej tematyce, można śmiało orzec, że wraz z wizualizowaniem baz danych w ramach dyskursów tych sfer następuje radykalna zmiana jakościowa, której efekty powoli stają się widoczne i zmieniają dotychczasowy w nich układ sił. Nauki ścisłe dzięki modelom wizualnym analizują kod DNA (genetyczna baza danych), socjologowie i geografowie społeczni generują interaktywne mapy pokazujące szeregi zależności między zmieniającymi się faktorami nakładanymi na siatkę topograficzną, ekonomiści posługują się wizualizacjami procesów ekonomicznych poszukując w nich uniwersalnych praw i próbując przewidzieć przyszłość, architekci projektują budynki publiczne o zmieniających się wizualnie fasadach-ekranach, a humaniści tworzą mapy pojęć i teorii [226].
W ciągu ostatnich lat tego typu wizualizacje stały się autonomiczną i niezwykle popularną grupą tekstów kultury. Dla zainteresowanych tą designerską praktyką dostępne są darmowe aplikacje i języki programistyczne (Processing) a także zasoby przeróżnych baz gotowe do zwizualizowania. Wielkie media (New York Times, Guardian), instytucje (Library and Archives Canada, rząd Belgii), firmy (wyszukiwarka danych) i uczelnie (Princeton) udostępniają zasoby gromadzonych przez siebie przez lata danych, zapraszając chętnych do opowiadania na ich podstawie własnych historii – tworzenia własnych wizualizacji i narracji wewnątrz surowych, często nieinterpretowanych jeszcze zasobów. Amerykański IBM udostępnił darmowe narzędzie software służące do analizy i wizualizacji danych. Na specjalnej stronie każdy może skorzystać z przygotowanych wcześniej zasobów i/lub dodać do nich własne, skorzystać z już istniejących wizualizacji i/lub przygotować własne, opublikować i/lub rozmawiać o już istniejących [227].
Praktyka wizualizacji danych doczekała się już swojej teorii i dedykowanych działań metodologicznych (software’owych). W swoim software studies lab na kalifornijskim UCSD pracuje nad nimi L. Manovich z grupą współpracowników. W wyniku swoich badań zaproponowali światu naukowemu, ale i biznesowi, administracji, nowatorską metodę i narzędzia badań nad mediami, które nazwali media visualisations. Amerykanie traktują zdigitalizowane wcześniej media (filmy, fotografie, książki, prasa, programy telewizyjne, klipy muzyczne) jako olbrzymią bazę danych i starają się zadawać jej pytania wizualne, których postawienie w tradycyjny sposób byłoby niezwykle trudne czy wręcz niemożliwe. Jednym ze zrealizowanych przez Lab projektów jest olbrzymia baza ujęć filmowych z różnych filmów, w której specjalna aplikacja poszukuje prawidłowości związanych z kompozycją kadru, kolorystyką, montażem, itd. W podobny sposób poddano analizie digitalne wersje obrazów van Gogha, japońskie mangi czy okładki Time z lat 1993–2000 [228]. Za sprawą wizualnych analiz danych rodzi się w ten sposób metamedioznawstwo, czyli postmedialna wiedza o ich kulturze.
Wizualizacje danych to, reasumując, nowe środowisko wizualne, które gwałtownie się rozwija i upowszechnia. To demokratyzacja społecznej ekonomii wizualnej, w której dotąd dominowały autorytarne obrazy tworzone przez instytucje medialne. To także formalne otwarcie języka wizualnego i obrazów, które stają się płynne i podatne na zmiany, konfiguracje i interpretacje swoich widzów/malarzy. To również krok w stronę technologicznego i matematycznego nowego porządku obrazów, które powstają jako barwne reakcje na fluktuujące środowisko danych, stając się jego najważniejszym kulturowym obliczem.
Cyfrowych danych nie da się kontrolować w sposób, w jaki możliwa była na masową skalę kontrola transferów informacji w epoce mediów analogowych. Jak pokazuje praktyka społeczna, dane skutecznie wymykają się politycznej, administracyjnej czy militarnej kontroli. Ich transfery odbywają się niezależnie od oficjalnie zaprojektowanych porządków, reguł i limitów połączeń. Information wants to be free często powtarzają cyberideologowie [229]. Powszechnie znana jest skala zjawiska ikonicznego dla tych alternatywnych szlaków danych, czyli piractwa. Pojęciem tym dziś nie opisuje się już tylko nielegalnej wymiany plików w sieciach komputerowych, to klamra spinająca ideologiczne postulaty ruchu społecznego, który w kilku europejskich krajach dorobił się nawet reprezentacji parlamentarnych i jednoczy więcej ilości ludzi także w realu [230]. Podstawową zasadą pirackiego bycia i działania w środowisku danych jest podważanie istniejących protokołów nowymi regułami, jeszcze bardziej skutecznie omijającymi reguły i kanały kontroli. To nieustanny wyścig technokracji i technologicznych partyzantów (hakerów), którzy natychmiast po prawnym, instytucjonalnym czy ekonomicznym wyłączeniu/unieważnieniu swoich działań przygotowują ich następne, jeszcze doskonalsze i trudniejsze do zablokowania odmiany. Piraci rzucają wyzwanie państwom, korporacjom, polityce i ekonomii – podejmują walkę o liberalizację technologii i obiegu informacji, znajdując się na terytorium wroga, czyli w obszarze hardware i fizycznych sieci, pod okiem nieustannego monitoringu. Nie mam możliwości wejść tu głębiej w ten fenomen, ale stwierdzę, że regulowanie informacyjnego krajobrazu i zarządzanie krążącymi danymi wymyka się coraz bardziej spod kontroli przemysłu kulturalnego i jego tradycyjnych sprzymierzeńców. Brak skutecznej kontroli nad ekosystemem danych, ich przecieki, niejawne transfery to pięta achillesowa cyfrowego wcielenia technopolu [231]. Jej istnienie oznacza, że piraci – niezależnie od aksjologicznej i prawnej oceny tego procederu – tworząc alternatywny ekosystem danych i sposoby ich wymiany współtworzą trzon rozpoznanej przez współczesną ekonomię gospodarek liberalnych siły równoważącej (countervailing power) wpływy korporacji, państw i innych hierarchicznych regulatorów przestrzeni informacyjnej [232].
Alternatywne obiegi danych powstają nie tylko ze względu na sprzeciw wobec oficjalnych modeli dystrybucji i upowszechniania semantycznych zasobów kultury. Drugim powodem, dla którego ważne społecznie okazuje się budowanie transferowych alternatyw, jest narastająca niechęć wobec nasilającego się monitoringu aktywności komunikacyjnych obywateli, prowadzonego przez państwa i podmioty gospodarcze – wspomniałem wcześniej o niezwykłej bazie danych Facebook.com, która służy także do monitorowania obywateli i konsumentów. Każda aktywność związana z transferem danych lub ich indeksowaniem przekłada się na zasoby wiedzy, którą system telekomunikacyjny wyławia, archiwizuje i kondensuje. Powstające w ten sposób gigantyczne jej zasoby stają się kolejnymi bazami danych, nad którymi kontrola jest sprawą wagi najwyższej w sensie politycznym, ekonomicznym i w zakresie bezpieczeństwa.
Państwo, a szczególnie państwo narodowe, od zawsze stara się gromadzić i wykorzystywać wszelkie informacje o swoich obywatelach i świecie zewnętrznym w każdej możliwej formie. Jednak to właśnie z danymi sprawa jest najprostsza w realizacji: najmniej kosztowna, wiele danych gromadzi się samoistnie, są relatywnie łatwe w przetwarzaniu, itd. Zbieranie i magazynowanie danych okazuje się podstawą do prowadzenia nadzoru nowej generacji, który R. Clarke, badacz zajmujący się tą problematyką, określa mianem dataveillance (zbitka słów data i surveillance) [234]. Znany nam już Mark Poster mówi w tym kontekście wręcz o elektronicznym superpanoptykonie, tak definiując jego specyfikę [235]:
Podobnie jak więzienie, tak i bazy danych pracują nieustannie, systematycznie i potajemnie, zbierając informacje o jednostkach i tworząc na ich podstawie osobowe profile. W odróżnieniu od panoptykonu w tym przypadku nie potrzeba jednak wyspecjalizowanej architektury, wystarczy, że obserwowany wykonuje swoje codzienne czynności.
Najważniejsza z cech tego nowego typu nadzoru to zupełne unieważnienie różnic pomiędzy tym, co prywatne, a tym, co publiczne. Życie jednostek obserwowane przez pryzmat tworzonych/udostępnianych przez nie i/lub gromadzonych na ich temat danych staje się zupełnie przezroczyste, zlewa się w jednolity profil, który na swoje potrzeby tworzą różnego typu korporacje i organy administracyjne. Najdrobniejsze nawet nasze aktywności podejmowane w cyfrowym środowisku pozostawiają po sobie cyfrowe ślady i mogą stać się fragmentem zbiorów różnych baz danych. W razie potrzeby, to jest przez sformułowania i zadanie odpowiedniego zapytania, dane te zostaną z magazynów wywołane i staną się świadectwami tego, kim jesteśmy i z jakich aktywności składa się nasze życie, pozostawionymi przez nas świadomie lub nie w cyberświecie. Taki stan rzeczy wynika wprost z naturalnej własności danych i środowiska cyfrowego w ogóle: dla cyfrowego kodu i maszyn, które go kalkulują, nie ma znaczenia, jakie elementy rzeczywistości przetwarzają. W obliczu zer i jedynek wszystko okazuje się równe, identyczne formalnie. Alaxander Galloway w książce pod znamiennym tytułem Protocol: How Control Exists after Decentralization sugeruje wręcz, że cyfrowość i jej media zostały przez wojskowych uwolnione i stały się publicznie dostępne jedynie dlatego, że, wbrew interpretacjom cyberoptymistów, są kryjącymi się pod płaszczykiem demokratyzacji doskonałymi narzędziami monitorowania i kontroli swoich użytkowników. Fundamentem, na którym ustanowiono Internet nie jest wolność. Jest nim kontrola – alarmuje [236].
Jak wiemy od Anthony’ego Giddensa, informacja i obyczaje związane jej społeczną cyrkulacją to, ogólnie rzecz ujmując, immanentna podstawa funkcjonowania sfery politycznej. Dostęp do niej i możliwość zawiadywania nią umożliwia przede wszystkim podtrzymywanie skomplikowanej struktury społecznej i skuteczną realizację władzy politycznej. Pozwala także na wyłapywanie zachowań odstających od norm, a także monitoring życia społecznego, np. w kontekście zagrożeń zewnętrznych. Wreszcie cyrkulacja informacji to podstawowy budulec sfery publicznej i obecnej w niej kultury komunikacji publicznej. W domenie elektronicznej mamy do czynienia z bazodanowymi automatami kontrolnymi, których skuteczność jest tym większa, im mniej zdajemy sobie z tego sprawę i im mniej świadomie klikamy, generując i udostępniając dane o sobie [237].
Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.
Jednokierunkowe media analogowe (radio, telewizja) takich semiotwórczych możliwości nie udostępniały. Media cyfrowe wykonują cały cykl semiotyczny, czyli komunikują od znaku do odbiorcy i z powrotem ze wszystkimi tego procesu konsekwencjami i dla znaków, i dla odbiorców. Telewizja, to najważniejsze z mediów masowych współczesności, nie zdaje sobie sprawy z faktu, że jest oglądana na konkretnym odbiorniku telewizyjnym, a radio nie wiedziało i nie wie, kiedy kto i gdzie go słucha – w domenie cyfrowej takie sprzężenie jest regułą naturalną i zasadniczą dla charakteru tej mediacji. W tym sensie bazy danych można rozumieć jako poststrukturalną przestrzeń dyskursywną. Ich techniczna specyfika otwartości na zarządzanie i niekategoryzowanie jakości i parametrów tego zarządzania powołują do życia bazodanowych aktorów, którzy wirtualnie tworzą w nich realny kapitał symboliczny, konstruując w ten sposób cyfrową przestrzeń dyskursywną. Baza danych dodatkowo utrwala w czasie przebieg tego dyskursu, czyli oferuje nieustanne zapętlenie pomiędzy dokonującą się komunikacją a jej utrwaloną historią. W rezultacie w bazach danych ma miejsce nieustanna negocjacja relacji władzy, nadzoru i kontroli nieustanny dyskurs dotyczący kultury i życia społecznego w ogóle [238]. Ich indeksy są logicznie otwarte i podatne na strukturalne, a w konsekwencji na semiotyczne zmiany – bazy danych to format, który urzeczywistnia płynność znaczeń we współczesnej kulturze i inspiruje ich semantyczną ruchliwość. Można powiedzieć, że na skutek tak daleko posuniętej niestabilności i otwartości indeksów, które nadajemy danym, one same stają się elementem drugorzędnym. Chyba najbardziej dosadnym przykładem takiego społecznego indeksowania danych są krążące w cyberprzestrzeni memy obrazkowe, które stają się ikonami określonych, ale – co ciekawe – zmiennych w czasie, tekstów kultury. Takimi memem stało się zdjęcie sowy z szeroko otwartymi oczami, która symbolizuje zdziwienie i dystans poznawczy wyrażony za pomocą podpisu O’RLY (od ang. zwrotu: oh, really?, co na polski można przetłumaczyć jako: czyżby?). Stają się memami także wycięte z filmów pojedyncze sceny wypełnione charakterystyczną mimiką aktorów czy wypowiadanymi przez nich zdaniami [239].
Potrzeby związane z rozumieniem danych rosną w tempie, w jakim przybywa samych danych – przypomnę tu kategorię Big Data – i w jakim osiągalne dzięki nowym narzędziom stają się kolejne bazodanowe logiki poznawcze. Jak poradzić sobie poznawczo z tak wielką ilością danych? W języku angielskim pojawiło się sformułowanie, które daje poglądową odpowiedź na to pytanie. Brzmi ono data mining i oznacza wkopywanie się w ocean danych w celu jego eksploracji, roboty odkrywkowe w poszukiwaniu w nim wiedzy na poziomie metadanych, wydobywanie z danych informacji [241]. To strategia, z której obecnie korzystają głównie profesjonalni analitycy operujący na olbrzymich bazach danych, takich jak zbiory korporacyjne, czy administracyjne. Poszukują w nich ukrytych przed jednostkową analizą wzorców i prawidłowości. Jednak wiele już dzisiaj wskazuje na to, że możliwości takich osób staną się niebawem osiągalne także w powszechnym użyciu. Przybywa publicznych i prywatnych podmiotów, które decydują się na upublicznianie swoich archiwów w postaci otwartych baz danych dostępnych dla zainteresowanych. W roku 2009 Barack Obama inaugurował pierwszy publiczny serwis z dostępem do olbrzymiej ilości danych, które przez lata zgromadziły agendy amerykańskiej administracji. Serwis został uruchomiony pod adresem data.gov i można w nim znaleźć zasoby dotyczące przeciętnej i zmieniającej się w zależności od pory roku głębokości amerykańskich rzek, surowe dane i statystyki na temat przestępczości w poszczególnych stanach i miastach z podziałem na rodzaj użytej broni i kolor skóry przestępców, itd. Niedługo potem w ślad za tworzącym nowy publiczny obyczaj rządem USA poszły inne kraje: Australia, Nowa Zelandia czy Wielka Brytania, gdzie misję stworzenia nowego portal powierzono wynalazcy www Sir Timowi Berners-Lee. Obecność tych w przestrzeni publicznej należy potraktować jako zaproszenie do ich interpretacji do wkopywania się w nie i poszukiwania wiedzy w nich zakodowanej. Bazy danych można w tym kontekście uznać za posiadający szczeliny (to praca specjalistów) sezam, który czeka na swoje powszechne otwarcie i odczytanie nagromadzonych w nim skarbów.
Zanim do danowego „Eldorado” przenikną tabuny różnego pokroju poszukiwaczy, widać już, że przeszukiwanie danych to działanie intratne, i, obok ich wizualizowania, stanowi fundament nowego ekosystemu informacyjnego. Niech świadczą o tym narodziny data journalism, czyli specjalistycznego rzemiosła dziennikarskiego, które polega na wynajdywaniu, generowaniu i/lub zestawianiu określonych danych i zadawaniu im algorytmicznych zapytań, by z wyników takich kwerend poczynić następnie gotowe fakty medialne. Najczęściej chodzi o pozyskanie wiedzy, której nie sposób udowodnić w żaden klasyczny dziennikarski sposób [242] i która domaga się nietekstualnych reprezentacji, co znaczy że najbardziej popularne są wśród nich wspomniane już wcześniej interpretacje wizualne [243]. Najprężniej działające redakcje medialne już od jakiegoś czasu otwierają swoje danowe archiwa (już o tym pisałem) ale i powołują do życia wyspecjalizowane działy, którym powierzają prowadzenie działań w zakresie analizy danych pod kątem publikacji medialnych – tak działa np. brytyjski Guardian.
Jak inaczej jeszcze zmienia się rzeczywistość komunikacyjna uwikłana w bazy danych i konstruowaną przez nie wyobraźnię kulturową? Odwoływałem się już wcześniej do wizualnego języka kultury, który dla obecnego stadium projektu cyfrowego okazał się najważniejszym interfejsem. Takie zestawienie, przypomnę, wynika z faktu, iż cyfrowe technologie i tworzone przez nie stany kulturowe nie stałyby się powszechne, gdyby nie ewolucja interfejsów cyfrowych mediów ku formom wizualnym. Dopiero kiedy cyfrowa rzeczywistość została zwizualizowana, czyli opowiedziana za pomocą wizualnych metafor i ikon, stała się zrozumiała i dostępna dla przeciętnych „zjadaczy” maszyn i sieci. Zobaczyć cyfrowość, znaczy tyle, co wydobyć ją na szerokie wody kultury popularnej, by ją z tego poziomu następnie oswoić i udomowić także według jej własnych kodów semantycznych, estetycznych i pragmatycznych.
Inaczej mówiąc: technologie cyfrowe dopiero wtedy stały się siłą sprawczą w kulturze i życiu społecznym, kiedy ich wewnętrzny język (kod zer i jedynek) został przetłumaczony na dominujący w kulturze mediów masowych język obrazów, kiedy można było zwizualizować i zobaczyć skomplikowane operacje na kodzie, podejrzeć pracujące algorytmy i nawiązywane połączenia sieciowe, by następnie za sprawą tych obrazów sprawować nad nimi we względnie prosty sposób, czyli przez odwołania do powszechnie rozpoznawalnych znaków, mitów, procedur i kodów komunikacyjnych, kontrolę. Dzięki obrazom – choć z całym analogowym dobrodziejstwem inwentarza, schedą po masowej kulturze wizualnej mediów analogowych – zrozumieliśmy komputeryzację i nauczyliśmy się ją wykorzystywać na potrzeby naszej codzienności. Wraz z nimi komputery zostały zaszczepione w cywilnym życiu, stając się powszechnie stosowanymi i adaptowanymi maszynami medialnymi, których możliwości obejmują już nie tylko specjalistyczne zadania militarne, naukowe czy infrastrukturalne.
Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastami i ikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.
Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.
Sądzę, że gramatykalizacja jak i immersyjność wizualności spotykają się i doskonale uzupełniają w formacie jej cyfrowych form. Dzieje się tak na styku porządku wizualności i logiki baz danych, gdzie zasadniczym elementem spajającym zarówno kulturowe dogmaty wizualności, jak i jej technologiczne normy w cyfrowym otoczeniu wydaje się piksel. Jest to zarazem podstawowy element logiczny cyfrowych obrazów (software’owy, to podstawowy bit cyfrowej wizualności), jak i materiał, z którego „uszyta” jest elektroniczna powłoka wizualności, która te obrazy wyświetla (hardware, czyli matryce, wyświetlacze, monitory). W codziennym praktykowaniu wizualności i cyfrowości piksele uobecniają się głównie ze względu na swoją niedoskonałą formę technologiczną – na obecnym etapie rozwoju technologicznego są duże, mają wciąż jakości dalece odstające od naszych wzrokowych uwarunkowań percepcyjnych. Wystarczy zbliżyć oko na niewielką wobec monitora odegłość, aby je zobaczyć, lub powiększyć cyfrowe zdjęcie do rozmiaru, w którym zacznie się objawiać jego skład z pojedynczych kwadratów. W przyszłości, wraz z dynamicznym wzrostem tych jakości technologicznych – to jest nieustannym zmieszaniem wielkości pojedynczych software’owych i hardware’owych pikseli, równie szybkim wzrostem rozdzielczości cyfrowych obrazów, czyli liczbą pikseli składających się na poszczególne fragmenty digitalnych obrazów, oraz powiększaniem się liczby i wielkości ekranów – piksel jako taki pozostanie jedynie mało ważnym, bo już niedostrzegalnym bez specjalnego zapotrzebowania, fragmentem technologicznej gramatyki wizualności cyfrowej. Jednak na razie komputeryzacja zbliża się dopiero do momentów granicznych (jak wyświetlających w standardzie 300 pikseli na cal kwadratowy ekranów laptopów, komórek i tabletów), które oznaczają kulturowe znikanie pikseli. Ten etap przejściowy obfituje w artystyczne i popkulturowe praktyki, teksty i mitologie związane z pikselami – ich estetykę. Jednocześnie piksel w tej estetyce jest elementem szumu, jaki towarzyszy kodowi wizualnemu w cyfrowych okolicznościach.
Wizualna atomizacja jest także i dla współczesnych artystów tematem ważnym i otwartym na nowe interpretacje. W przestrzeni kultury popularnej piksele dorobiły się już swojej własnej estetyki, za którą odpowiedzialne są przede wszystkim dostępność i możliwości takich popularnych narzędzi software’owych do obróbki grafiki, jak Corel, Photoshop czy cały szereg pochodnych, mniej lub bardziej zaawansowanych aplikacji, dzięki którym każdy z nas może za sprawą zakodowanych w nich algorytmów przekształcać dowolne fragmenty pikselowej wizualności według uznania i możliwości algorytmów. Piksele są cyfrowym wcieleniem wizualnej gramatyki, której reguły sięgają początków kultury w ogóle. Wizualność jest od czasów antycznych językiem niewolnym od złudzeń optycznych. Nawet najbardziej mistyczne i metafizyczne obrazy kultury zostały stworzone według kanonów estetycznych i rzemieślniczych, u których podstaw leżą złudzenia nie dające się poprawnie zinterpretować/odkodować przez nasz wzrok. Jednym z takich wizualnych skrótów jest atomizacja obrazu, czyli tworzenie spójnej wizualnie faktury, która składa się ze zbioru pojedynczych punktów/atomów/węzłów/pikseli skomponowanych w ramach określonego układu funkcjonalnego (obrazu). Takim atomistycznym komunikatem wizualnym są choćby mozaiki czy tkaniny, z pewnego oddalenia wywołujące złudzenie płynnej wizualnie kompozycji. Zbliżając się do nich dostrzegamy coraz lepiej pojedyncze punkty tworzące fakturę wizualną. Z bardzo bliska nie widać już wynikającej z nich kompozycji, a jedynie pojedyncze punkty.
Wobec tych historycznych przykładów analogowych remediacji, które transformowały i adaptowały gramatykę i formy wcześniejszych form wizualizacji do coraz bardziej zaawansowanych rozwiązań technologicznych, naturalnym odruchem w historii cyfrowości stało się atomistyczne myślenie o obrazach cyfrowych i wyświetlających je ekranach. Niegdysiejsze punkty, plamki, węzły zostały w formacie pikseli przejęte i adaptowane przez konstruktorów i architektów cyfrowego świata. Ich obecność wewnątrz kulturowych kodów i form opisujących architekturę cyfrowości to z jednej strony świadectwo medialnej ewolucji, a jednocześnie z drugiej forma, która w domenie cyfrowej zyskała nową jakość i sens [247].
Bazodanowe oblicza pikseli odnaleźć można w sztuce nowych mediów. Pikselowe bazy danych/bazodanowe kompozycje pikseli to estetyka, która łączy długą kulturową tradycję atomistycznego postrzegania i konstruowania świata w takich rzemiosłach jak tkactwo czy mozaiki. Tym samym jest ona w kontekście baz danych jednym z najbardziej oczywistych inspiracji nowych form wizualnych opartych na danych – przypomnę tu raz jeszcze atomistyczną metaforę ziarenek piasku użytą przez Victorię Vesnę.
Przykładem sztuki wykorzystującej potencjał zarządzania skończoną ilością danych w celu osiągania różnych rezultatów jest ruchoma instalacja grupy ART+COM zrealizowana na zlecenie Muzeum BMW w Monachium. W jednej z sal wystawienniczych Muzeum na cienkich stalowych linkach zawieszonych zostało 714 identycznych metalowych kul-pikseli, których położenie regulują silniczki i sterowniki sprzężone z odpowiednim oprogramowanie. Wprawiane w ruch kulki układają się w układy i kompozycje, które naśladują zaprogramowane wcześniej kształty różnych modeli aut i elementów estetycznych, takich jak fale czy kształty geometryczne [248].
Niemiecki artysta Julius Popp w swojej pracy zatytułowanej BIT.CODE przekonuje, że świat znaków i znaczeń to nieustanna gra, której scenariusze wynikają z nieskończonych możliwości segregowania skończonej ilości danych (w tym przypadku dane są jednocześnie pojedynczymi bitami/pikselami), którymi posłużył się artysta tworząc składający się z ruchomych modułów ekran zdolny do wyświetlenia dowolnych kombinacji danych, a zatem do projektowania nieskończonej ilości symboli, znaków i stanów pośrednich pre- i postznakowych). Informacje wyłaniają się tu na zasadzie chwilowego utrwalenia chaotycznego status quo oceanu danych [250].
Weźmy pod uwagę jeszcze jeden z przykładów pikselowego , czyli bazodanowego myślenia o sztuce. Tureccy designerzy Mahir M. Yavuz i Ebru Kurbak osadzili bazodanową estetykę w pikselowej estetyce tureckiej (śródziemnomorskiej) tradycji tkackiej. Zaprojektowali interfejs, który można by nazwać drukarką ubrań. Litery i inne wizualne kształty zakodowane cyfrowo urządzenie rozumie jako instrukcję wykonawczą dla połączonego z nim zautomatyzowanego warsztatu tkackiego. Sprzężenie infosfery z tkaniną oferuje możliwość potraktowania jej jak jednorazowego ekranu, który może „wyświetlić” dowolny pikselowy obraz pod warunkiem zachowania monochromatyczności (najwyżej kilka kolorów przędzy do jednorazowego użycia) i określonej rozdzielczości (liczonej według wielkości pojedynczego splotu i wielkości powierzchni do „zadrukowania”) [253]. Wizualne translacje danych, jak widać, ale i dotykowo czuć, oferują doznania nie tylko wzrokowe. Pikselowym ubraniem możemy się okryć i ogrzać. Coraz częściej wizualizacje będą stanowić takie wirtualne i realne zarazem interfejsy kultury, będziemy za ich pomocą wizualnie, ale i dotykowo zarazem poruszać danymi, czyli symbolicznie i fizykalnie sterować kulturą. W cyfrowym świecie obrazy nie tylko ideowo – jak to miało miejsce za sprawą działań artystycznych w XX wieku – ale i technologicznie odwracają się od porządku reprezentacji i symulacji. Stają się za to interfejsami.
Co dla kulturowej przestrzeni komunikacji i mediów wynika z przedstawionej symbiozy obrazów i danych oraz postępującej cyfryzacji/gramatykalizacji wizualności? Na to pytanie chciałbym odpowiedzieć odnosząc się do dwóch przykładów, które w praktyce medialnej spotykają się ze sobą: przywołanego już społecznego indeksowania danych oraz wspomnianego przed chwilą przekształcania się obrazów w interfejsy. Pierwsze z nich, jak pamiętamy, związane jest przede wszystkim ze społeczną ekonomią informacji i jest etapem emancypacji użytkowników wobec danych i zarządzających nimi technologii medialnych. Drugie zjawisko ma charakter bardziej antropologiczny i wskazuje na zmieniające się reguły mediacji, w której obraz przechodzi z funkcji reprezentacji do bycia interfejsem i ku fazom kolejnym. Synergię obu chciałbym przedstawić za pomocą studium przypadku, którym będzie sytuacja mapy w domenie cyfrowej oraz szeregu praktyk kulturowych związanych z jej społeczną kartografią – indeksowaniem oraz atomistyczną, pikselową interfeizacją. W tym celu przyjrzę się najpierw medium mapy, a następnie jej cyfrowym losom pod wpływem baz danych.
Figura i forma mapy ma dla kultury, nie tylko tej medialnej, znaczenie zasadnicze i referencyjne: uznać ją można za jedno z pierwszych mediów, pre-interfejs kulturowej wiedzy o świecie, pierwszą z wizualnych form matematyki i matematycznego pojmowania świata. W języku greckim geometria znaczy geo – ziemia, metria – mierzenie. Mapa jest w związku z tym pierwotną matrycą kultury medialnej, pierwszą reprezentacją i zarazem pierwszą symboliczną metaforą świata, będąc przy tym równolegle utrwaloną w postaci bardzo konkretnego medialnego interfejsu projekcją kultury: jej wartości, sposobów postrzegania świata i pojmowania go, odbiciem norm społecznych i skondensowaną wiedzą o sobie samych i rzeczywistości dookoła nas.
W borgesowskim i baudrillardowskim (z perspektywy dyskursu teorii mediów trudno dziś osądzić, któremu z nich należy się laur pierwszeństwa) odwołaniu do mapy i kartografii współczesne teorie mediów usytuowały punkt orientacyjny dla kulturowej logiki wizualności i reprezentacji [254]. Dwaj wielcy konceptualiści wizualności przypominają, iż mapa jest pierwszą wizualną reprezentacją rzeczywistości, pierwszym „wirtualnym” kodeksem pozwalającym postrzegać (rozumieć) abstrakcyjnie przestrzeń i orientować się w niej. Reprezentacyjną i komunikacyjną regułę mapy wraz z towarzyszącym jej gestem mapowania i modelowania przestrzeni (= świata rozpoznanego i poddanego refleksyjnej obróbce) postrzegają jako przedtechnologiczną konstytucję medialności. Historyczne próby mapowania, powstające w ich rezultacie mapy – teksty i obrazy kultury oraz dyskurs kartografii jako metody reprezentacji przestrzeni i kultury – możemy zatem uznać za elementarne zadania genetycznego kodu współczesnych kondycji medialnych i kultury w nie uwikłanej. W przyjętej przez mnie postmedialnej perspektywie ich dotychczasowe znaczenie jest podwójne: 1) mapa jest zarazem matematycznym modelem/kodem rzeczywistości i jej semiotyczną reprezentacją; 2) mapa jest specyficznym, wizualnym pre-interfejsem kultury.
Bodaj najbardziej powszechną z palety cyberkartograficznych figur jest cyfrowe oblicze (według języka cyberkulturowego: warstwa) Mappa Mundi. Tkają ją na zlecenie Google Earth i innych, podobnych do tego lidera instytucji, firm i społeczności umieszczone w satelitach, samochodach i komputerach światłoczułe matryce nieustannie skanujące swoimi pikselami (jak wspomniałem, to elementarne „komórki” cyfrowych „oczu”, technologiczne odpowiedniki biologicznych widzących światło i kształty pręcików i czopków) to, co widzialne, oraz nieustannie kodujące algorytmy, które zgodnie z potrzebami współczesnych cyber-kartografów pozyskane w ten sposób dane przetwarzają i zamieniają w wizualny interfejs. Powstają w ten sposób doskonale odwzorowujące terytorium cyfrowe skany w skali niemal 1:1 (streetwiev), dosłownie odpowiadające fanaberiom borgesowskiego cesarza i baudrillardowskim obawom o agonii rzeczywistego wobec doskonałej mapy. W digitalnej mapie świata nakładają się na siebie matematyczne (abstrakcyjne) modele/wyobrażenia rzeczywistości (cyfrowość) z telematyczną doskonałością cyfrowego „spojrzenia” high-definition w nieustannie, wraz z technologicznym rozwojem matryc, rosnącej gęstości informacyjnej (rozdzielczości obrazu i stopnia kompresji składających się na niego danych). Tak odtworzona Mappa Mundi, tj. olbrzymia baza danych o charakterze matematycznym i wizualnym, choć w high definition, to wciąż jedynie udoskonalona pod względem jakości odwzorowania terytorium wersja już znanej kulturze formy; cyfrowy, medialny update mapy.
Dla kulturowej równowagi technologicznemu skanowaniu i mapowaniu towarzyszą – to druga z sił napędzających cyberkartografię i jej hybrydowe mapy – przeróżne praktyki użytkowe, które z zasobów cyberprzestrzeni uczyniły tekst/obraz otwarty na dyskursy polityczne (obostrzenia związane z dokładnością map satelitarnych, kwestie zamazywania danych prywatnych na publicznie dostępnych mapach), artystyczne (sztuka geomediów i GPS [255]), komunikacyjne (media lokacyjne), projekty rynkowe i gospodarcze, a ostatnio także rizomatyczny i interaktywny, zarządzany społecznościowo. Uczyniły one z map żywą, płynną „przestrzeń” publiczną. Cyfrowe zasoby map, ich interfejsy (smartfony, laptopy, nawigacje) i software (Google Earth, Foursquare, Layar, Facebook), są w ten sposób projektem otwartym i wielowariantowym, wymykającym się pojedynczym narracjom i estetykom/topografiom. Taki charakter ma na przykład projekt tworzony na zasadzie wiki – www.openstreetmap.org, którego twórcy przekonują, że jest on:
mapą całego świata, która może być użytkowana i poprawiana/uzupełniana przez każdego. Dzięki wykorzystaniu zjawiska otwartej społeczności tysiące ludzi z całego świata zbierają i katalogują geodane w centralnej bazie danych [256]
Właśnie takie społeczne konstruowanie poszerzonej mapy (augmented map), składającej się z wielu nakładających się na siebie topografii, modeli i estetyk kartograficznych warstw, dowodzi kulturowej ewolucji figury mapy rozumianej tradycyjnie jako skończona opowieść w byt, który za sprawą digitalizacji i usieciowienia staje się płynną i przybierającą niezliczoną ilość potencjalnych kształtów/wizualizacji/interfejsów bazą danych [258]. Na współczesne pisanie/komponowanie jej jako tekstu/obrazu kultury składa się geo-tagowanie, czyli nadawanie nietopograficznych znaczeń geograficznym i kartograficznym lokalizacjom (danym), i nakładane na nie (warstwa na warstwę) rozproszone tagowanie społecznościowe, czyli zbiorowe współtworzenie znaczeń przypisywanych geo-tagom i takie nimi zarządzanie. W obu działaniach biorą udział nieprzebrane zastępy modelarzy i narratorów przestrzeni za pomocą niezliczonej ilości medialnych maszyn wyposażonych w stosowne interfejsy i obsługujące je oprogramowanie. Powstaje z tego wymieszania hybryda, w której społeczna i kulturowa semiotyka przenika się z istniejącymi siatkami i skalami topograficznymi, strukturami nawigacyjnymi i programistycznymi. Na określone fragmenty mapy osadzać można wykonane przez siebie w odpowiadających im rzeczywistych miejscach zdjęcia, utrwaliać związane z tymi miejscami wspomnienia, rady dla innych i emocje. Posługując się ogólnodostępnymi narzędziami społeczności tworzą swoje własne warstwy globalnej i lokalnej jednocześnie (efekt skalowania) interpretacji tego, co przestrzenne i widzialne jednocześnie. W rezultacie powstają alternatywne plany miast, na których można zobaczyć np. najbardziej lubiane przez Internautów miejsca, te z dobrym jedzeniem czy frapującym układem urbanistycznym/architektonicznym; punkty, w których nie ma zainstalowanych kamer monitorujących czy szlaki wycieczek polecane przez turystów, którzy już wybrane miejsca odwiedzili tym, którzy dopiero takie odwiedziny planują.
W A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].
Skupiłem się na analizie kondycji postmedialnej rozumianej jako nowa sytuacja technologii komunikacyjnych oraz sprzężonych z nimi dyskursów i teorii humanistycznych, które je objaśniają. W takim sprzężeniu upatruję nie tylko klasycznej relacji na linii rzeczywistość i jej teorie, ale przede wszystkim mechanizmu kulturowego sterującego rozwojem cyfrowych i sieciowych ewolucji. Nauka, sztuka i technika zapętliły się w trójstronne kontinuum, które można nazwać „silnikiem” napędzającym zmiany w komunikacyjnym ekosystemie. Jego energetyczna skuteczność zależna jest od ilości „paliwa” dostarczanego przez każdy z podpiętych tu układów. W książce najwięcej miejsca poświęciłem analizom przepływów i emanacji na linii technika-dyskursy-kultura, ale budując argumentację i starając się dla niej odnaleźć właściwe narzędzia pojęciowe wielokrotnie dochodziłem do wniosku, że bez dwóch pozostałych układów zasilających moje analizy pozostają niepełne. Stąd i najważniejsze wnioski, które wynikają z problematycznie sytuacji postmedialnej w przyjęty przeze mnie sposób. Są one następujące:
– analiza kulturowych (symbolicznych) pokładów cyfrowego świata musi być nierozerwalnie powiązana z analizą jego technologicznych uwarunkowań – badanie kultury postmedialnego świata oznacza konieczność paralelnych studiów jego digitalnego języka, który konstytuuje nakładająca się na zjawisko elektryczności poetyka matematyki i matematyczności;
– elektryczność i matematyczność projektu cyfrowego uznaję za najmniej rozpoznane w dyskursach i praktykach kulturowych elementy digitalnego uniwersum – osobno i w relacjach między sobą stanowią one problemy badawcze domagające się pilnego podjęcia i wielowymiarowej analizy;