Kondycja postmedialna materializuje się na skutek synergii funkcjonujących i rozwijających się paralelnie obszarów kulturowej i komunikacyjnej sceny współczesności. Postmedialność narasta jednocześnie: w sferze techniki, gdzie wspiera się na takich procesach, jak konwergencja, wirtualizacja, obecność software, interfejsów i protokołów; w polu społecznym, gdzie ma miejsce socjalizowanie technologii medialnych wyrywanych systemowi kultury masowej i wynikające z tego procesu sieciowanie, emancypacja użytkowników oraz powstawanie społeczeństwa informacyjnego i sieciowego; oraz w polu antropologicznym, gdzie przekształceniom podlega zbiorowa wyobraźnia komunikacyjna wraz z zakorzenionymi w niej kompetencjami medialnymi i objawiają się nowe postawy i logiki komunikacyjne.

Postmedialne uniwersum nie różni się w tym zakresie od wcześniejszych kulturowych kondycji technologii komunikacyjnych – od ery pisma, epoki druku Gutenberga czy elektrycznej fazy kultury masowej z jej analogowymi mass mediami. Mechanizm ten znany jest już dobrze medioznawcom i badaczom relacji kultury i techniki. Zauważyli oni, że gdy nowinki technologiczne przenikają do życia społecznego i kultury, stają się powszechnym i popularnym narzędziem w rękach ludzi i systemów kulturowych, dopiero wówczas zyskują status powszechnych mediów i mediacji, ogólnie dostępnych i znanych języków i reguł komunikacyjnych i tylko wtedy są w stanie stawać się narzędziami zmiany istniejącego świata[5]. Przenikają i rekonstytuują wówczas dopiero najważniejsze relacje władzy i systemy ideologiczne, zakorzeniają się w porządkach semantycznych i aksjologicznych, poddają się sile ich oddziaływania, redefiniowaniu, instrumentalizowaniu i dostrajaniu wobec różnych oczekiwań, wrażliwości i konfiguracji systemowych – oddziaływając we wszystkich tych lokalizacjach, zgodnie z newtonowską zasadą, z adekwatną siłą i według analogicznych reguł o przeciwnym zwrocie. W tak skonstruowanym procesie stają się mediami danej kultury, a kultura staje się funkcją tych mediów, programują według własnej gramatyki nasze rozumienie świata i pośredniczą w jego budowaniu, reagując na wcześniej rozpisany dla nich kulturowy kodeks.

W pierwszej części książki naszkicuję topografię terytorium, na którym uobecnia się kondycja postmedialna. Szkic ten wykonam odnosząc się do trzech lokalizacji, które stanowią dla mojej narracji punkty orientacyjne. Są one usytuowane w technokulturowym uniwersum współczesności: odwołam się w pierwszej kolejności do sfery techniki, jej cyfrowych i sieciowych wytworów; następnie przejdę do analiz dynamiki ekosystemu społecznego; by na zakończenie przyjrzeć się kontekstowi antropologicznemu. Te trzy lokalizacje na mapie cyfrowego świata, wskazujące na wytwory techniki, ich społeczne usytuowanie i energię antropologiczną, wydają się dobrze orientować wobec kursu, który przybrała ewolucja projektu cyfrowego w ogóle.

W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.

W domenie cyfrowej historyczne gramatyki mediów obowiązują jednakowe zasady. Wszystkie cyfrowe dane obowiązuje tu równość wobec kodu, fizycznych zasad elektryczności i hardware oraz tłumaczących je kulturze interfejsów. Poddają się one programowaniu, adaptują swoje zasoby do wymogów strukturalnych baz danych i sieciowych protokołów komunikacyjnych, wzajemnej synchronizacji i wymieszania, itd. – stają się po prostu bazami danych, ciągami cyfrowego kodu zer i jedynek, którymi można za pomocą dowolnych algorytmów zarządzać zgodnie z regułami cybernetycznej wiedzy i możliwościami obowiązujących interfejsów użytkowych. W wersji cyfrowej można z mediami zrobić wszystko to, co możliwe jest do pomyślenia i kalkulacji według ogólnie obowiązującego w cyfrowym świecie modelu (sformułowanego przez tradycję matematyki oświeceniowej i wyrażonego dosłownie przez kreatora architektury obliczeniowej współczesnych maszyn cyfrowych cybernetyka (Johna von Neumanna): interfejs wejścia-cyfrowe kalkulacje-interfejs wyjścia. W ten sposób zarówno obraz, jak i utwór muzyczny, fragment tekstu powieści czy film stają się ciągiem zer i jedynek zapisanych w cyfrowych bazach danych, otwartych na różne software’owe i interfejsowe wywołania i działania różnych algorytmów.

Znaczenie radykalnej konwergencji medialnych form w cyfrowym świecie potęguje kulturowa reguła mediacji i medialnej komunikacji. W świecie przesyconym technologicznymi rozwiązaniami służącymi komunikacji medium nie istnieje w liczbie pojedynczej, jako autonomiczna kategoria poza systemowym kontekstem. Możliwe kulturowo, percypowalne i funkcjonalne jest tylko w systemie składającym się także z innych przekaźników, spełniających inaczej podobne zadania wewnątrz komunikacyjnego ekosystemu i występujących w określonych relacjach wobec siebie nawzajem. Jedynie z poziomu wejrzenia w wewnętrzny układ tego ekosystemu rozpoznać można pojedyncze, różne od siebie nawzajem, ale dopełniające się w kulturowej praktyce elementy – poszczególne medialne formy, języki, systemy znaczeń. Z tego powodu radykalna cyfrowa konwergencja okazuje się stanem, który przekracza i unieważnia granicę rozpoznawalności fenomenów medium i mediów jako takich. Poza tą, strzegącą zrębów tożsamości analogowego uniwersum komunikacyjnego, granicą istnieje analogowo rozumiany niebyt dotychczasowego układu sił i jego form czy też inaczej hybrydowa postmedialność na styku tego, co analogowe, i tego, co cyfrowe; sytuacja, która dotyczy nie tylko zaniku różnic między istniejącymi kulturami mediów i nimi samymi, ale i rozprasza świadomość i wyobraźnię medium jako takiego (faza postmedium). Totalna konektywność i wymienność form, którą wprowadza do kultury cyfrowość, skutecznie wymazuje kulturowy sens medium, techniczne kształty i dotychczas istniejącą strukturę komunikacyjnego ekosystemu kultury. Odrzucając dotychczasowe reguły przypisane w kulturze poszczególnym przekaźnikom i całemu systemowi zwrot postmedialny objawia się, przynajmniej w sensie technologicznym, jako przestrzeń nieustannego loopu transferowanych z olbrzymią prędkością danych, które, jak to już powiedziałem, przybierać mogą dowolne interfejsy, dowolne wywołania algorytmów [7].

Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.

Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.

Postmedialna praktyka technologiczna, czyli wychodzenie ze świata tradycyjnych form medialnych i jednoczesna erozja ich ontycznego statusu, jest ściśle powiązana ze stymulującymi ją i regulującymi rozpoznaniami i diagnozami natury teoretycznej, ideami wcielanymi w życie w cyberkulturowej praktyce. Hipoteza postmedialna pojawiła się w odniesieniu do transformacji technologicznych zarówno w dyskursie sztuki mediów, jak i w debacie poświęconej rozwojowi projektu cyfrowego, prowadzonej na gruncie nauk humanistycznych i społecznych. Ewolucją komunikacyjnych konceptów opartych na specyfice medium zajęli się obok cybernetyków także teoretycy komunikacji i mediów. Ich analizy przysłużyły przenikaniu i wymianie wiedzy pomiędzy humanistyką a cybernetyką od połowy XX wieku, a więc w okresie narodzin technologii cyfrowych i technologicznego boomu na nie. Stały się także swoistymi drogowskazami wskazującymi kierunek rozwoju projektu cyfrowego. Wśród nich szczególne znaczenie mają teoria metamedium Alana Kaya, przywołana wiele lat później przez Lva Manovicha, a także koncepcja maszyny uniwersalnej Alana Turinga. Na gruncie dyskursu sztuki i jej teorii myślenie to wykorzystują w swoich pracach poświęconych kondycji sztuki uwikłanej w media Peter Weibel i Domenico Quaranta. Sięgnę teraz do ich ustaleń, aby z perspektywy dyskursywnej przyjrzeć się omawianym ewolucjom technologicznym.

Alan TuringAlan Kay, ojcowie-założyciele projektu cyfrowego, w swoich wypowiedziach konceptualizowali rozwój cyfrowego świata, odwołując się do idei uniwersalnej maszyny obliczeniowej. Dysponuje ona zdolnością do kalkulowania wszystkiego, co zostaje jej na wejściu (input) przedstawione w postaci odpowiednio zakodowanych zasobów, które po przetworzeniu (computing) oddawałaby na wyjściu (output). Turing i wielu jego następców było przekonanych, że świat da się sprowadzić do postaci matematycznej reprezentacji (myślenie kartezjańskie) – wówczas wszystkie jego stany, wymiary, dynamiki można będzie przetwarzać matematycznie (komputerowo) za pomocą takiej uniwersalnej maszyny. Zanikłaby wtedy różnica pomiędzy tym, co realne, a tym, co symulowane/zakodowane, zaś samo urządzenie przez zdolność do naśladowania form rzeczywistości, wchłaniania maszyn poprzedzających, stawałoby się jednocześnie płynną grą pomiędzy nimi, konstruowaną na bieżąco ich sumą/synergią. Koncept maszyny uniwersalnej stał się mitem założycielskim komputeryzacji, odwołującym się do idei renesansowych i oświeceniowych (powrócę do tego wątku w części poświęconej cyfrowemu kodowi i matematyczności świata), i w zasadzie nie doczekał się do czasów współczesnych zdolnych mu zagrozić na tej pozycji alternatywnych konceptów [9]. Alan Kay tę ogólną cechę maszyny Turinga adaptował dodatkowo na potrzeby dyskursu poświęconego komunikacyjnej roli technologii cyfrowych, która okazała się jedną z najprężniej rozwijających się dziedzin projektu cyfrowego – nowym mediom. W opublikowanym w roku 1977 eseju Personal Dynamic Media Amerykanin sugerował, że komputer można nazwać metamedium, to jest taką formą medium, która zawiera w sobie wszystkie poprzednie media [10].

W oparciu o dokonania Kaya swoją współczesną topografię nowych mediów, stanowiącą już referencyjną wykładnię dla obecnego dyskursu w ramach studiów medioznawczych i kulturoznawczych, opracował amerykański teoretyk rosyjskiego pochodzenia Lev Manovich. W swojej najbardziej znanej pracy zatytułowanej Język nowych mediów jeszcze pośrednio wskazał na sens kategorii metamedium, postrzegając go jako kulturowy efekt jednej z najważniejszych reguł organizujących ekosystem mediów cyfrowych, czyli używania wszystkich starszych mediów jako swojej pierwotnej treści, gramatyki cyfrowego języka [11]. Inaczej mówiąc: komputer rozumie jako metamedium, które wchłonęło wszystkie wcześniej istniejące formy technologiczne i posługuje się nimi w obecnej fazie kulturowej bytności, czerpiąc z ich form zasady organizacji świata informacji i reguły komunikacji. Specjalistyczne techniki pracy, służące im narzędzia, języki artystycznej wypowiedzi i estetyki niegdyś przypisane do rozłącznych, hermetycznych dziedzin i praktyk komunikacyjnych, w przestrzeni cyfrowej otwierają się na nieograniczony i nieustanny import/export pomiędzy różnymi istniejącymi na tej platformie możliwościami. Stare metody i środki znajdują nowe, wspólne pole eksploatacji w kodzie software: są weń wpisywane jako strukturalne kształty i reguły działania, jego pragmatyki i interfejsy użytkowe. Metamedium jest tym samym otwarte na wszystkie potencjalne medialne kształty i gry, które zostają pomyślane i uruchomione w cyfrowym środowisku [12].

Pojęcie metamedium ma dodatkowo dla Manovicha także bardzo ważne odniesienie historyczne. Sens tej kategorii odwołuje do dokonań awangardy w sztuce w pierwszej połowie XX. wieku. W latach 1915–1928 artyści wizualni, architekci, designerzy stworzyli cały zbiór nowych technik i rozwiązań dotyczących rozumienia przestrzeni, czasu i sztuki, które wywarły zasadniczy wpływ na losy technologii cyfrowych w późniejszym okresie. Myślenie awangardy, metody i kody tej formacji, ucieleśnione zostały w pełni dopiero w formie cyfrowych mediacji. Chodzi tu np. o montaż filmowy, technikę kolażu fotograficznego i jej funkcje kopiuj/wklej czy eksperymenty Lissitzky’ego z ruchomą ramą obrazów. Nowe media, ich software to podjęcie spuścizny awangardy w obszarze kultury medialnej i komunikacyjnej.

Kategorię metamedium w jej cybernetycznym i medioznawczym sensie można uznać za wstępne rozpoznanie sytuacji postmedialnej. W innej wypowiedzi, zatytułowanej Post-media Aesthetics, Manovich idąc o krok dalej w stosunku do Języka nowych mediów stawia znak równości między kategorią postmedia a cyfrową estetyką informacji, dopowiadając w ten sposób wcześniej wykorzystane pojęcie metamedium przez wpasowanie w kontekst relacji sztuki mediów, technologii i teorii kultury [13]. Tradycyjnie silne więzy pomiędzy tożsamością dzieł sztuki a transportującymi je mediami zostały w cyfrowości zerwane – wyrokuje. Jednocześnie, przyznaje, historia sztuki to także (a dla przywołanych za chwilę takich teoretyków, jak Weibel – przede wszystkim) historia nowych interfejsów (technologii), które tworzą artyści w odpowiedzi na zmieniające się w czasie potrzeby i wyobraźnie jej odbiorców, reagując na towarzyszące im środowisko technologiczne – to także funkcja rozwoju technologicznego w ogóle, szczególnie zaś wewnątrz społeczeństw i kultur rozwiniętego Zachodu po rewolucji przemysłowej i oświeceniowej. Postmedialna estetyka jest w związku z tym przede wszystkim emanacją cybernetycznego software, bo to dzięki niemu stare gramatyki medialne znajdują odniesienie w nowo konstruowanych (cyfrowo) tekstach kultury. Software miksuje istniejącą gramatykę kultury (języki starych mediów) z możliwościami oferowanymi przez nowe narzędzia medialne, jest mostem, po którym w obu kierunkach poruszają się medialne hardware, odnajdując się nieustannie na nowo w różnych konfiguracjach. Estetykę tego typu definiują takie tagi, jak: kultura informacji, remiks, update, dane i bazy danych, interfejs, kompresja, algorytm.

W kontekście sztuki mediów technologiczny sens pojęcia postmedia podejmują i rozwijają także inni ważni dla medioznawczego dyskursu analitycy, jak Peter Weibel i Domenico Quaranta. Weibel, uznany teoretyk kultury medialnej i jeden z najważniejszych jej animatorów, do którego ustaleń będę w tej pracy wielokrotnie powracać, wywodzi stan postmedialny z generalnego kryzysu reprezentacji, który w sztuce współczesnej objawił się wraz z pojawieniem się mediów wizualnych – prasy, fotografii i później kina. Ich kulturowa i artystyczna ekspansja spowodowała, że sztuka mimowolnie, wbrew oporom artystów i mecenasów, przekształciła się w sztukę mediów. Nurt ten zapoczątkował Duchamp, który otworzył sztukę na obiekt rozumiany już nie jako metafora, ale przedmiot fizyczny, namacalny byt postrzegany realistycznie i w tym duchu używany semiotycznie. Technologie medialne stały się najpierw przedmiotami sztuki, by następnie stać się narzędziami sztuki, a wreszcie jej świadomie podejmowanymi tematami. Przedmioty medialne, dzieła sztuki mediów okazały się mieć niemieszczącą się w dotychczasowym kanonie form i materii artystycznego wyrazu niematerialną konsystencję, inny stan skupienia. W ten sposób sztuka czy szerzej: kultura znalazły się wewnątrz mediów – zostały zmediatyzowane, wchłonięte przez medialne gramatyki i reguły. Późniejsze mówienie o sztuce mediów, a zatem także o kulturze mediów, nie ma racji bytu. W związku z tą ekspansją Weibel ogłasza nadejście sytuacji postmedialnej, tj. takiej, w której nie ma już osobnej kategorii: sztuka mediów. Nic nie dzieje się w sztuce i kulturze poza granicami medialnej przestrzeni i regułami medialnych form. Kondycja postmedialna powstaje w dwóch fazach. Pierwsza polega na zrównaniu statusu i kulturowej siły istniejących mediów sztuki. W konkurencji między sobą doszły one do momentu równości jako narzędzia ekspresji artystycznej. Nie ma obecnie medialnych technologii, które dominują w praktyce sztuki albo które są z niej programowo wykluczone. Faza druga polega na zapadaniu się wszystkich tych medialnych form w siebie nawzajem. Stapiające się media tracą swoją unikalność i dalej: tożsamość w ogóle [14]. Weibel reasumuje:

Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów.

W obszarze sztuki, jak można wywnioskować z prac Manovicha i Weibla, koncept medium został najpierw wystawiony na próbę przez nowe formy wypowiedzi artystycznej, takie jak asamblaż, happening, instalacja, performance, a równolegle za sprawą kulturowej obecności analogowych mediów mechanicznych: fotografii, filmu i wideo. Zdarzyło się to z tradycyjną koncepcją rozumienia medium przyjętą w sztuce, to jest jako tworzywa artystycznego, oraz z tradycyjną formą upowszechniania, dystrybucji sztuki: modelem, w którym na szczycie znajdują się artyści, opiniotwórcze elity i systemowe narzędzia upowszechniania sztuki, takie jak muzea czy galerie. W rezultacie sytuacja postmedialna to także przestrzeń konfliktu pomiędzy tradycyjnym systemem sztuki a sztuką mediów. Sztuka mediów ze względu na swoją „mediocentryczność” nie weszła w naturalny sposób w obieg sztuki współczesnej, okazała się raczej systemową, formalną i estetyczną alternatywą wobec niej. W ten sposób kondycję postmedialną definiuje kolejny medioznawca, a jednocześnie krytyk i kurator sztuki Domenico Quaranta [15].

Dziejowa logika technologii komunikacyjnych, która wytyczyła trajektorię media-nowe media-postmedia, obejmuje obszar kulturowych odczytań technologii komunikacyjnych. Definiowanie pola i treści sztuki współczesnej w odniesieniu do niej to tylko jedna z postmedialnych debat podjętych w różnych sferach, na które wpływ ma rzeczywistość cyfrowa. Dający się zaobserwować – widoczny w napięciu pomiędzy sztuką współczesną a sztuką nowych mediów – strach przed kondycją postmedialną ma znamiona uniwersalne, choć, jak na razie, jedynie dyskurs krytyki sztuki mediów i teorii kultury doprecyzował ten stan i zaproponował dla niego własny język i kategorie pojęciowe, które tu przywołałem. Można się spodziewać, że niebawem także i te inne, oporne lub cyniczne dyskursy, takie jak teoria nauki (częściowo objawia się to za sprawą takich „nowalijek”, jak digital humanities) czy nauki o życiu, dostrzegą medialną zmianę i poczują się przez nią sprowokowane do ponownej odpowiedzi na fundamentalne pytania.

Prowadzona przez Weibla i Quaranta krytyka systemu sztuki wskazuje na przywiązanie do tradycyjnej jedności treści i form, które jest także obecne w myśleniu o mediach i komunikacji. Teorie mediów i szerzej kulturoznawcza wiedza o mediach mają skłonność do postrzegania kulturowego dominium komunikacji przez pryzmat kategorii obiektu i stojącej za nim techniki. Interpretacje wywodzące się z tej perspektywy widzą ten obiekt na dwa sposoby. Po pierwsze, uznają za niego przedmioty, czyli medialne technologie oraz medialne wytwory/teksty. Po drugie, obiektem tym czynią komunikujący podmiot, uwikłanego w medialne sprzężenia człowieka, aktora działań komunikacyjnych. Ani przedmioty samodzielnie, ani podobnie rozumiane podmioty, ani synergiczne kombinacje tych kierunków składające się na tradycyjny model środowiska i procesów komunikacyjnych nie przystają jednak do natury i zasięgu ewolucji medialnego świata dokonującej się w cyfrowych okolicznościach. Tak zaprojektowany model, powtórzę, można było z powodzeniem wykorzystywać (w różnych wewnętrznych jego strukturalizacjach i ujęciach dyscyplinarnych – od analizy semiotyki medialnego przekazu po deterministyczne postrzegania technologii jako przekazu) jedynie wobec domeny mediów analogowych. Wobec natury cyfrowego i sieciowego świata, w którym hardware zyskał przeciwwagę w postaci software, ekosystem analogowych transmisji i reprezentacji został wystawiony na dziejową próbę, stając w obliczu sieciowości. W nowych okolicznościach, w których linearna percepcja mierzy się z interakcyjnością, materialne formy z wirtualnymi reprezentacjami, skończone kształty z nieustannym przetwarzaniem i remiksowaniem, istniejące schematy poznawcze przestają wystarczać do opisu komunikacyjnego świata.

Wraz z cyfrową zmianą pojawiały się także towarzyszące jej rekonstrukcje pojęć i teorii, dopełniające diagnozy o sytuacji postmedialnej. Matthew Kirschenbaum, amerykański humanista starający się interdyscyplinarnie przenikać istotę cyfrowości, wskazuje na potrójną naturę cyfrowych sytuacji medialnych. Mają one (1) wymiar fizyczny; są znakami i maszynami je transportującymi. Są jednocześnie (2) formatami logicznymi, co znaczy, że są to dane, które te maszyny rozpoznają, interpretują i przetwarzają. Są także (3) konceptami, czyli posiadają naturę bytów semiotycznych, aksjologicznych: są tekstami kultury [16]. W podobnym duchu wypowiada się inny amerykański badacz cyberświata Mark Hansen. Amerykanin jest przekonany, że teorie mediów cyfrowych potrzebują nowego punktu odniesienia, który będzie w większym niż dotychczas stopniu korespondować ze zmianami zachodzącymi w medialnym świecie. Hansen wskazuje na rosnące znaczenie procesów medialnych, które ani nie objawiają się postrzegającemu cyberprzestrzeń za sprawą jej interfejsów sensorium, ani nie dają się zamknąć w formie pojedynczych obiektów/reguł technologicznych. Tą nową kategorią jest procesualność mediów, która rozciąga je pomiędzy różnymi spiętymi w sieci przedmiotami technologicznymi w tle objawiających się użytkownikom wysuniętych na pierwszy plan działań i w ten sposób rozmywa ich uchwytną, skończoną formalnie postać. Stają się one coraz mniej wyraźne – ukryte przed przyzwyczajoną do zwykłych, analogowych i materialnych form, percepcją [17]. W identyczny sposób charakter postmedialnego środowiska interpretuje filozofka mediów Katherine N. Hayles, kiedy wskazuje na przykład na dynamiczny i złożony charakter ontyczny cyfrowej tekstualności:

Istnieją dane, programy, które je wywołują i przetwarzają, hardware, który na bazie swoich funkcjonalności te dane kompiluje i interpretuje. Potrzeba wszystkich tych elementów/etapów, aby udało się stworzyć tekst elektroniczny w jego dzisiejszej postaci. […] Z tego powodu lepiej interpretować go jako proces, a nie jako obiekt [18].

Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].

Opisany powyżej przez teoretyków na różne sposoby hybrydyczny i procesualny, cyfrowy stan rzeczy to przede wszystkim wciąż niewybrzmiałe echa i rezonanse jednego z założycielskich sporów, który wytyczył charakter projektu cyfrowego. Chodzi o debatę wokół ontycznego charakteru informacji, której korzeni szukać trzeba jednak dużo głębiej niż tylko w cywilizacyjnej debacie dotyczącej komputeryzacji. Objawił się on najpierw w postaci dwóch przeciwbieżnych dążeń w nowożytnym dyskursie poświęconym wiedzy w najbardziej ogólnym jej znaczeniu: ku wiedzy abstrakcyjnej (matematycznej) oraz wiedzy namacalnej, mającej bezpośrednie potwierdzenie w percypowanej rzeczywistości. Z jednej strony matematyka i jej pochodne miałyby być myśleniem abstrakcyjnym, formalnie doskonałymi teoriami opisującymi złożoność natury świata. Z drugiej zaś poznawanie i myślenie skonstruowane w ten sposób domagało się potwierdzenia i weryfikacji wobec niedoskonałości wiedzy abstrakcyjnej zderzającej się z wieloma niewytłumaczalnymi, a przecież realnie doświadczanymi kondycjami świata. Ten problem stał się jednym z najważniejszych dla nowoczesnych nauk i sztuk – objawił się w nich jako dystynkcja pomiędzy teorią a empirią, sztuką reprezentacji i sztuką przedmiotów, szczególnego zaś znaczenia nabrał wraz pojawieniem się maszyn kalkulujących i cyfrowej reprezentacji rzeczywistości przez nie tkanej [21]. Problem ten na właściwym dla metateorii wiedzy i nauki poziomie skomentował, by przywołać tu jeden z najważniejszych współczesnych autorytetów, filozof i metodolog Paul Feyerabend w swojej głośnej krytyce hegemonicznej roli naukowego myślenia abstrakcyjnego:

Abstrakcja wydaje się być negatywnym zwyczajem: realne właściwości fizyczne, kolory, temperatura, tarcie, opór powietrza, krążenie planet są w tym typie myślenia pomijane [22].

Jaką kondycję proponują nowe, cyfrowe media? W codziennym krajobrazie miejsce stałych i percypowalnych w tradycyjny, obiektowy sposób maszyn i tekstów medialnych zajmują ich cyfrowe ślady, tj. medialne procesy, obliczenia nieustannie dokonujące się pod powierzchnią interfejsów, sieciowe transfery danych we wszystkich możliwych kierunkach, negocjacje protokołów (ping, IP, Cookies). Ich obecność konstytuuje takie nowe formy technologicznego krajobrazu, jak odbywające się przy bardzo ograniczonej wiedzy i kontroli ze strony użytkownika działania komunikacyjne pomiędzy urządzeniami (Internet rzeczy) czy serwisami i usługami software’owymi i sieciowymi. Analogowe przyzwyczajenia często stawiają nas wobec nich w mało komfortowej sytuacji, kiedy nieświadomi tego, co procesują, komunikują i interfejsują wykorzystywane przez nas urządzenia jesteśmy narażeni na niespodzianki i konieczność nieustannej uwagi na wielu poziomach percepcji. Boleśnie w sensie finansowym przekonało się na przykład o tej nieustannej i fantomicznej konektywności cyfrowych urządzeń połączonych z sieciami polskie społeczeństwo zauroczone nowymi liniami technologicznymi smartfonów, kiedy okazało się, że nieustannie komunikują się one z bazami danych operatorów, dostawców usług, producentów, sieciami społecznościowymi i wieloma innymi miejscami w sieciach. Użytkownicy tych urządzeń przez długi czas nie zdawali sobie sprawy z przebiegu tych ukrytych transmisji i transferów, za co operatorzy zacierając ręce wystawili im słone rachunki [23].

Przechodząc od medialnych obiektów do medialnych procesów doszedłem do kategorii software, czyli napędzanej dzięki elektrycznej i cyfrowej cyrkulacji zdematerializowanej informacji – danych. To kategoria, która stanowi o ontologicznej unikalności fenomenu nowych mediów i cyberkultury, zaś współcześni medioznawcy stawiają ją w centrum cyfrowej kultury, zaś samemu pojęciu przypisują miano kluczowego dla teorii kultury współczesnych mediów. Nie będę w tym miejscu z oczywistych względów nawet próbował zagłębiać się w definiowanie i analizy software, bo jest to problematyka, która domaga się samodzielnych opracowań i, jak wspomniałem we wstępie, w moim tekście funkcjonuje jako najważniejszy, choć mało wyraźny bohater drugiego planu. Przy różnych okazjach będę jednak do poszczególnych elementów software’owego uniwersum się odwoływać.

Kilka lat temu Lev Manovich, chyba najbardziej popularny z zajmujących się nowymi mediami badaczy i animatorów, ogłosił, że nadeszła epoka dominacji soft­ware w medialnym świecie i daleko poza nim, na terytorium szeroko rozumianej kultury. Software, powiada, przejmuje kontrolę nad materialnym wymiarem medialnej rzeczywistości, staje się – wraz z interfejsami – kulturową powłoką hard­ware i to jemu powinny się bez reszty oddać współczesne studia nad mediami, przekształcając się z media studiessoftware studies [31]. Matthew Fuller, jeden z inicjatorów kulturowych badań nad software i twórca kategorii software studies, definiując kulturę software, mówi o łączących się w niej różnych, nieposiadających ekwiwalentu w kulturze mediów masowych, warstwach cyfrowego świata. Angielski medioznawca wskazuje na trzy zasadnicze tropy kulturowe porządkujące obszar software. Są nimi: critical software, social software oraz speculative software. Wszystkim trzem przyjrzę się teraz bliżej.

Software krytyczny spełnia funkcję nadzoru nad software w ogóle. To oprogramowanie, które śledzi poczynania software, wyświetla jego kulturowe mechanizmy i obnaża polityki kodu, angażując użytkowników i programistów w krytykę cyfrowości, czyli odnajdywanie w niej wszelkich śladów i kodów normalizujących. Dzięki takiemu wykorzystaniu software cyberkultura podlega nieustannemu prześwietlaniu i ma szansę opierać się technopolowym zapędom. Przykładem takiego software jest wersja znanej gry Wolfstein, zrealizowana przez artystyczny kolektyw JODI. Cyfrowa „scenografia” tej gry w wersji krytycznej została zastąpiona wizualizacjami fragmentów cyfrowego kodu, które po przetworzeniu stwarzają scenerię gry [32].

Social software to fenomen, na który składają się dwa trudne do rozłącznego traktowania inne: wolne oprogramowanie (w tym ruch open source) oraz programowanie do użytku zbiorowego, część Web 2.0. Zasadą tego pierwszego jest tworzenie programów darmowych w przestrzeni publicznej, kolektywnie przygotowywane alternatywy dla wersji komercyjnych, które pozwalają na określone funkcjonalności w oderwaniu od tradycyjnych reguł rynkowych wynikających z obwarowanego szeregiem zależności, tradycji i reguł prawnych podziału ról pomiędzy właścicieli i konsumentów. Zasadą oprogramowania społecznego jest natomiast przejmowanie kontroli nad oprogramowaniem przez pozabiznesowe, pozasystemowe jednostki i społeczności. Dzięki takim działaniom przestrzeń cyfrowego kodu wciąż udaje się zachować od wchłonięcia w reżim wartości ekonomicznych – pozostaje otwartym tekstem kultury, który wspólnie piszą i redagują zainteresowani. Ma tu także miejsce agregacja i akumulacja kapitału społecznego w nowej, cyfrowej wersji [33].

Software spekulacyjny to natomiast oprogramowanie eksperymentalne, za pomocą którego możliwa jest eksploracja możliwości programowania w ogóle. W tej dziedzinie programiści ewaluują kodowe glitche, wirusy, malware, spyware, patche, błędy, ale także poszukują nowych rozwiązań społecznych i kulturowych sytuujących software w przestrzeni publicznej. Kategorią bliskoznaczną wobec spekulacyjności software jest strategia cyfrowego oporu i działania antysystemowego, która charakteryzuje środowiska i etos hakerski.

Poprzez swoją formalną otwartość i nominalnie egalitarny dostęp do zasobów kodu software może się rozwijać jako ważna dla kultury sytuacja postmedialna właśnie wtedy, kiedy wszystkie trzy wskazane przez Fullera jego domeny rozwijają się równolegle. Postmedialny charakter software bierze się z krytycznego oglądu i potencjału rekonstrukcji, który ta medialna warstwa oferuje wobec wszystkich poprzednich gramatyk i kodów medialnych oraz ekosystemu medialnego jako takiego. Bierze się także z dokonującej się pod naporem sił społecznych, reorganizacji tego ekosystemu i obecności w nim nowych, społecznych, graczy mających rzeczywisty wpływ na hierarchiczny dotąd, medialny krajobraz. Postmedialność software to także efekt możliwego w obszarze kodu nieustannego sprzężenia zwrotnego pomiędzy obecnymi formami oprogramowania a ich przyszłymi wersjami. Software jest formą otwartą, a zatem znajdującą się w nieustannie sprzężonym i zapętlonym procesie kodowania i jego hardware’owych implementacji.

Manovich i Fuller postrzegają software jak praktykę kulturową, w której mieszają się wszystkie dotychczasowe doświadczenia kulturowe i cywilizacyjne – zarówno związane z istniejącymi mediami i zapośredniczoną przez nie komunikacją, jak i wynikające z dorobku nauki, sztuki, urbanistyki, wojskowości, itd. Praktyka technologiczna i komunikacyjna software to konglomerat, w którym łączą się i stapiają ze sobą do granic rozpoznawalności sztuka, nauka i technika. Jaki jest efekt tego wymieszania? To znacznie więcej niż software rozumiany technologicznie jako zbiór instrukcji operacyjnych komputera. Kulturowe rozumienie software rozciąga się bowiem również na materializację i synergię kulturowych (w tym i medialnych) dyskursów, form i modalności, zderzenie przeróżnych procesów i dyskursów, technokulturowy asamblaż – jak powiedzieliby Deleuze i Guattari [34].

Tak zdefiniowany software to przestrzeń postmedialna, w której dochodzi do renegocjacji władzy i stosunków społecznych, kiedy biorące udział w jego tworzeniu, dystrybucji i implementacji grupy społeczne doskonale radzą sobie bez pomocy, pośrednictwa czy regulacji systemu politycznego i ekonomicznego (open software, social software). Za jego sprawą ma również miejsce postmedialna renegocjacja ustalonych pozycji antropologicznych na linii człowiek-technika, szczególnie zaś w zakresie antropologii i socjologii interfejsów medialnych. Wreszcie dzięki software wprawiane jest w ruch i podtrzymywane w tym dynamicznym stanie uniwersum cyfrowych danych. W rezultacie odmienia się zupełnie ich kultura, ekonomia i ekologia, pojawiają się nowe kształty i cyrkulacje informacyjne, takie jak kultura otwarta (open culture), alternatywne obiegi i społeczne cyrkulacje danych, sieci grupujące ich użytkowników, piractwo i dyskursy poświęcone dostępowi do danych i informacji [35].

Software to także najbardziej hybrydowy i fantomowy ze współczesnych medialnych stanów i form. Jego praktyka zorientowana jest z założenia na procesualność – uruchomione oprogramowanie najczęściej pracuje w tle niezależnie od bieżących, cząstkowych działań użytkownika na poziomie jego interfejsu użytkowego. Jego status rozciąga się pomiędzy materialnością działań dokonywanych za sprawą kontrolowania elektryczności wewnątrz infrastruktury obliczeniowej maszyny cyfrowej a efemerycznością wirtualności, czyli abstrakcyjnych zapisów w różnych (równie abstrakcyjnych) formalnych, programistycznych językach i kodach. Software jest zatem jednocześnie matematyczną abstrakcją i elektryczną materialnością, wirtualnym procesem i materializującym się interfejsem. Sytuuje się pomiędzy indywidualnym doświadczeniem mediów a ich wymiarem społecznym w różnych przybieranych przez nie formach, takich jak systemy operacyjne i personalizowane aplikacje, aplikacje transmitujące i aplikacje interaktywne [36].

To wszystko czyni z software przedmiot niejasny i domagający się nieustannej uwagi poznawczej. Trudno się dziwić, że wielu współczesnych medioznawców gotowych jest wskazywać jego centralną pozycję w cyfrowym świecie. Nie brakuje jednak i głosów skrajnie przeciwnych wobec tego typu deklaracji. Friedrich Kittler, niemiecki medioznawca, stwierdza kategorycznie: there is no software! Wszystko, argumentuje, co przyjęło się oznaczać tym mianem, da się sprowadzić do postaci najprostszych, powtarzalnych czynności wykonywanych przez maszyny cyfrowe: kontroli zmian napięcia w elementach struktury hardware. Rozbudowane manipulacje kodu, poetyka software to w gruncie rzeczy jedynie regulacje dotyczące milionów dziejących się jednocześnie w cyfrowym urządzeniu stanów napięcia elektrycznego, oferujących jedynie onoff. Kittler rozumie software analogicznie do dziewiętnastowiecznych, w duchu będących konsekwencją kartezjańskiego dualizmu, wyobrażeń na temat pracy mózgu – miała ona polegać na skomplikowanej mechanice wymian napięć elektrycznych pomiędzy poszczególnymi ośrodkami. W identyczny sposób na fundamentalnym poziomie technologicznym działa także software: zera i jedynki kodu zmuszają hardware – procesory, czipy, macierze, do reagowania na obecność napięcia elektrycznego lub jego chwilowe braki. Poziom ten jednak w praktyce codziennego użycia komputerów jest dla użytkowników niedostępny ze względu na jego polityczne i strategiczne znaczenie dla bezpieczeństwa samej maszyny i ochrony jej struktury przed przeprogramowaniem (w ten sposób chroni ją na przykład oprogramowanie BIOS; bezpośredni asembler i emulator, który zamienia instrukcje software na czynności mechaniczne hardware). Softwarem można by nazwać jedynie miliardy nakładek rozpisanych w gramatyce cyfrowego kodu, które mają wartość użytkową, co znaczy, że są to programy, aplikacje, elementy interfejsu, itd. Uobecniają one jednak „software’ową wieżę Babel”, bowiem spora ilość języków programowania, formuł łączenia się ich ze sobą i możliwych form współpracy z asemblerami oraz wszelkie pozostałe uwarunkowania systemowe powodują, że pierwotny język informowania elektryczności o jej przebiegu zostaje nimi zupełnie przesłonięty. Staje się przez to czymś na podobieństwo archaicznych języków, których używać są w stanie już tylko pasjonaci i specjaliści, które jednak na stałe wpisane są w struktury nowych – wniosły do nich reguły gramatyczne, semantyczne, tak jak łacina do współczesnych języków cywilizacji zachodniej. Dopiero dostęp do fundamentalnego, ukrytego poziomu pozwala na prawdziwą władzę nad technologią maszyny obliczeniowej, która zaczyna się w momencie, kiedy możliwa jest kontrola nad fizyczną pracą hardware, bezpośrednia kontrola płynącej w jego elementach elektryczności [37].

Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].

Płynnie i przygodnie usytuowane w ten sposób w postgeograficznym i postpolitycznym krajobrazie media mobilne pozwalają swoim użytkownikom na permanentny kontakt z równie płynną i przygodną wirtualną przestrzenią danych i sieci, a jednocześnie nie wchodzą w konflikt z warunkami tradycyjnego bycia i życia w przestrzeni fizycznej. W rezultacie przestrzeń kulturowa, powstająca z nakładania się na siebie w doświadczeniu zanurzonego w obie człowieka staje się hybrydą. Zacierają się w niej dystynkcje pomiędzy niegdyś rozdzielnymi stanami materialności i cyfrowości, atomy przenikają się z bitami i/lub zamieniają miejscami. Za sprawą upłynnienia infrastruktury medialnej i wejścia z nią w przestrzeń fizyczną staje się ona w związku z tym również ekstrapolacją przestrzeni społecznej powstającej w mediach społecznościowych. Doskonałym przykładem takiej hybrydycznej koegzystencji elementu wirtualnego, sieciowego i materialnego są wszelkie serwisy odnoszące się do mechanizmów geolokacji i cyfrowych map – takie jak googlemaps, forsquare czy facebook. Nie sposób obecnie rozsądzić, która z warstw kompozytowej przestrzeni społecznej ma prymarne znaczenie, a która jest wobec tej ważniejszej wtórna. Wydarzenia inspirowane, konceptualizowane i częściowo aranżowane w sieciach elektronicznych znajdują kontynuację w materialnych rejonach przestrzeni publicznej. Dzieje się także na odwrót, „materialne” działania zyskują drugie, poszerzone życie w przestrzeni portali społecznościowych, na forach i serwisach publikujących filmy, fotografie i notatki. Jak konkludują badacze mediów mobilnych: hybrydyczna przestrzeń ustanowiona za pośrednictwem tych technologii jest przestrzenią połączeń, przepływów i transferów, mobilności i nowego typu sytuacji społecznych [39]. Nietrudno o inne przykłady dowodzące postmedialnego zanikania granic pomiędzy działaniem w przestrzeni atomów i w przestrzeni bitów. Jednym z nich jest nowy typ pracy, która staje się niezależna od fizycznego miejsca (tego dowodził już Alvin Toffler w swoich analizach poświęconych zjawisku telepracy), ale i nie posiada tradycyjnej struktury, w której pracodawca zleca zatrudnionemu jakieś zadania do wykonania i nadzoruje go w trakcie ich wykonywania. Praca mobilna (crowdsourcing) polega na udostępnianiu zadań do wykonania na zasadzie bazy prostych czynności, do których mogą zalogować się chętni do ich wykonania. Pracodawca może rozłożyć swoje potrzeby na dziesiątki czy setki drobnych czynności do wykonania i cierpliwie poczekać, aż zostaną zrealizowane pod nadzorem specjalnych aplikacji dystrybuujących zlecenia, nadzorujących ich wykonanie itd.. Na razie działania tego typu dotyczyć mogą jedynie prac analitycznych, związanych z przetwarzaniem informacji i ich pozyskiwaniem, jednak już dzisiaj takie modele zatrudniania i wykonywania pracy skutecznie zastępują tradycyjne przedsiębiorstwa i „materialne” reguły gospodarki postfordowskiej [40].

Mobilności mediów towarzyszą w ich teorii kategorie mediów lokacyjnych i geomediów. Poszerza to społecznościowe doświadczenia mediów mobilnych o walor kulturowego konstruowania przestrzeni. Do tego wątku powrócę szerzej przy okazji analiz związanych z bazodanowym rozumieniem przestrzeni i mapy.

I.2. Pole społeczne

Około roku 2005 zdiagnozowano przełom w cyfrowej kulturze. Przedsięwzięcie ekonomiczne i kulturowe znane powszechnie jako „Internet” miało złapać drugi oddech, otrząsnąć się ze skutków katastrofalnego w sensie ekonomicznym okresu tzw. bańki dotcomów i wkroczyć do krainy Web 2.0. Momentem przesilenia okazały się krachy giełdowe przeinwestowanych i nienaturalnie zarządzanych fuzji, eksperymentów czy operacji giełdowych i strach przed „pluskwą milenijną” około roku 2000 (pośród nich szczególne znaczenie miała nieudana fuzja AOL i Time Warner – największego dostawcy usług internetowych w Stanach i jednego z największych przedsiębiorstw branży rozrywkowej z roku 2001). Po tym symbolicznym oczyszczeniu i restarcie kluczową rolę w nowych okolicznościach odegrać miały zastępy userów i tworzone przez nich wirtualne społeczności (o których przeszło dekadę wcześniej pisał Howard Rheingold [41]) – obdarzeni w nowej filozofii cyfrowego świata należnym im miejscem kreatorów i najważniejszych decydentów. W nowej mitologii cyfrowego świata chętnie przyznawano im zdolność do podjęcia roli wcześniej sprawowanej przez korporacje, rządy i organy kontroli i sugerowano, że kształt cyfrowości jest od tego momentu wyłącznie w ich rękach. Te i podobnie brzmiące nowe „reguły gry” zostały okrzyknięte mianem konstytucji odnowionej, społecznościowej wersji Internetu. Tezę o cyfrowym restarcie wspierały najważniejsze „tradycyjne” media. Rok 2005 BBC ogłosiło rokiem cyfrowego obywatela (The Year of Digital Citizen), a niedługo potem amerykański Time nadał prestiżowy tytuł człowieka roku (Time Person of the Year) każdemu poczuwającemu się do tego miana kreatorowi zawartości Internetu, który miał okazję zobaczyć swoje odbicie w lustrze zamieszczonym na okładce magazynu [42]. W taki sposób przedsiębiorstwa i koncerny medialne, zakorzenione w systemie poprzedniej analogowej, epoki ogłosiły rekonstrukcję projektu cyfrowego pod szyldem społecznej emancypacji wobec sił technopolu i zawłaszczonych przezeń cyfrowych narzędzi[43].

Wśród wymienionych tu trzech wektorów lokujących postmedialną zmianę właśnie ich redefiniowanie społeczne, zapoczątkowane, nagłośnione i podtrzymywane przy okazji wspomnianej narracji o cyfrowym zwrocie 2.0, wydaje się miarą najbardziej istotną, definiującą nową medialną sytuację społeczno-kulturową. Kształt społecznych relacji rozciągających się na cyfrowej platformie technologii komunikacyjnych może być świadomą antytezą stawianą przez coraz bardziej świadome roli i języka technologii społeczności i kultury wobec analogowego systemu kultury masowej, show-biznesu i jednokierunkowości komunikacji społecznej. Emancypacja ta, co ciekawe, dokonuje się również pomimo nowych scenariuszy i metod ekonomicznych i rynkowych, pomimo pragnących ją skanalizować i wyzyskać korporacji i innych „analogowych” graczy. Dla wielu użytkowników cyfrowych technologii i sieci okazała się ona początkiem nowej epoki komunikacyjnej, którą coraz chętniej także i krytyczni medio- i kulturo-znawcy określają mianem ery mediów społecznych (social media), stawiając tę nową jakość na równi z logiką społeczeństwa sieci [44].

W społecznym otoczeniu cyfrowych mediów jak nigdy wcześniej widać wiązane z technologiami komunikacyjnymi nadzieje i oczekiwania obywateli, konsumentów i użytkowników. Chyba po raz pierwszy w historii technologii komunikacyjnych są one tak bezpośrednio i świadomie formułowane i upowszechniane na masową skalę. Mieszkańcy cyfrowego świata są w stanie taktycznie reagować na bieżące zmiany w medialnym ekosystemie i modyfikować jego systemowe strategie w oparciu o wespół podejmowane decyzje i przygotowywane scenariusze. Daje się zauważyć opozycyjna linia społecznego wykorzystania nowych technologii, w której definiujemy je jako jedno z kluczowych narzędzi emancypacji społecznej i kulturowej. Cyfrowe technologie są/mają być technologiami wolności (technologies of freedom – jak niegdyś nazywał media Ithiel de Sola Pool [45]) służącymi decentralizacji i dehierarchizacji komunikacyjnego wymiaru życia społecznego (wolna kultura, wolność informacji), mają demokratyzować i otwierać kulturę (open culture) i sprzyjać rozwojowi demokratycznej sfery publicznej. Trudno nie ulec urokowi tych mających różne źródła i przez różne podmioty propagowanych idei i wyobrażeń. Nawet jeśli nie odnajdujemy ich potwierdzenia w kontakcie z samymi cyfrowymi technologiami, które oferują mobilność, wielostronność komunikacji i jej współautorstwo, to cóż szkodzi dać się urzec tej niezwykłej mitologii, która im towarzyszy? W praktyce życia społecznego, co potwierdzają liczne wypowiedzi na wielu różnych łamach, dla większości userów cyfrowe technologie i łączące je sieci stały się synonimem wszystkich przywołanych wartości, inicjacją nowego porządku kulturowego – kulturową sytuacją 2.0.

Zwrot 2.0 i wszelkie inne pojęciowe „zaklęcia” wykorzystujące programistyczny marker 2.0 (kultura, media, społeczeństwo, komunikacja 2.0) to jednak nie tylko skumulowana energia społeczna napędzająca rewolucyjną zmianę w komunikacyjnym systemie społecznym. Samo sformułowanie i kryjąca się za nim semantyka zostały podchwycone i przetłumaczone na wymogi konstrukcji rynkowych i politycznych przez głównych aktorów analogowej sceny medialnej – państwa, podmioty gospodarcze i rywalizujące ze sobą kultury. Narracja o zmianie 2.0 to w rezultacie przerysowana marketingowo i podszyta parametrami merkantylnymi kultury masowej próba wykorzystania i zawłaszczenia społecznej energii, którą uwalniają i akumulują cyfrowe światy przez istniejący system instytucjonalnoprawny sprzężony z technologicznym instrumentarium. Wiele wskazuje na to, że sytuacja 2.0 okazać się może ważnym placem boju pomiędzy siłami tradycyjnie zawłaszczającymi pole kultury a emancypującymi się obywatelami, twórcami, konsumentami. Stawką jest tu nie tylko kontrola techniki i wszelkich zależnych od niej podsystemów społecznych i kulturowych. Jest nią także, a może przede wszystkim, kształt kultury w ogóle oraz autodefinicja podmiotu w nią zanurzonego. Dla tego metasporu wpisanego na stałe w kształt kultury potyczka o semiotyczną władzę nad pojęciami z rodziny „2.0” to jedynie drobny, jeden z wielu podobnych epizodów. Początki tych przekształceń i związane z relacjami społeczności-technika emanacje ideologiczne, polityczne i ekonomiczne sięgają czasów antycznych. Z biegiem wieków społeczeństwa i kultury przyzwyczaiły się do sytuacji, w której władzę nad kulturą ma ten, kto ma dostęp do technologii i za jej pomocą potrafi zawładnąć zbiorową wyobraźnią komunikacyjną, zdefiniować komunikacyjne reguły, opanować przypisane im formy i budować swoją pozycję w oparciu o reglamentację dostępu do medialnego świata i sposobów używania go. Tak było z papirusem i pismem zawłaszczonym przez ówczesnych egipskich technokratów, z wykorzystaniem telegrafu, radaru czy broni pancernej (Blitzkrieg) w teatrze działań wojennych. Tak jest i dzisiaj w obliczu cyfrowego wyścigu zbrojeń, w którym stawką jest stworzenie software zdolnego przejąć kontrolę nad pozostałymi zasobami tej sfery czy sieci zdolnej kontrolować inne sieci. Wokół nośników informacji wybuchały groźne konflikty zbrojne i powstawały potęgi gospodarcze i informacyjne. Tak jak historycznie było to np. w przypadku pergaminu, czyli konkurencyjnego wobec papirusu nośnika informacji, który podważając technologiczny monopol Egipcjan spowodował dynamiczny rozwój miasta Bergama (na terenie dzisiejszej Turcji) i zarazem dziejowe dla niego zagrożenie. Rozwój ówczesnych technologii informacyjnych był czynnikiem politycznej i cywilizacyjnej zmiany; ujarzmione i kontrolowane media decydowały o rozwoju ośrodków miejskich, mocarstw i kultur. Dostęp do technologii, reglamentowanie i definiowanie komunikacyjnych norm ich wykorzystania, to zatem wymierny element władzy politycznej i kulturowej kontroli. Sięgano po nie w historii niezwykle skutecznie, nie bez przyczyny np. media masowe epoki analogowej nazwane zostały czwartą władzą. Zjawisko upolityczniania, ideologizowania i kontroli za sprawą technologii komunikacyjnych zyskało w związku z tym społeczną przeciwwagę. Stając się jednym z najbardziej pożądanych przymiotów dominium politycznego media zdefiniowane zostały w ramach stosunków społecznych jako sfera, której emancypacja może otworzyć i uwolnić kulturę w wielu jej obszarach od systemowych reglamentacji, limitacji i ideologizacji.

Czy i na ile równolegle do rewolucyjnie brzmiących sloganów i narracji, które powtarzają/powielają miliony elektronicznych portali, maszyn i ich użytkowników, ma miejsce faktyczna emancypacja komunikacyjna, medialna/technologiczna i rekonstrukcja społecznego układu sił i relacji? Czy kondycja postmedialna oznacza rzeczywiste uwłaszczenie obywateli w domenie komunikacyjnej na skalę dotąd niespotykaną, w której stawką jest przejęcie kontroli nad kulturą i nowy kształt/program życia społecznego, w którym miejsce mediów poddanych ideologii, mechanizmom popytu i podaży, jednostronnie komunikujących i wykluczających kulturowo, zajmą nowe reguły i kształty „mediów społecznych”? Na te pytania będę starał się odpowiedzieć analizując postmedialne zmiany w obszarze społecznym.

W najbardziej ogólny sposób ostatnie oblicze odwiecznej walki o panowanie nad technologiami komunikacyjnymi można by, w kontekście tego, co już powiedziałem, określić jako przejście od mediów masowych do mediów społecznościowych. W XX-wiecznej historii tego sporu można dostrzec następujący mechanizm: media analogowe umożliwiające komunikację na skalę zbiorową stały się najważniejszym z instrumentów władzy politycznej (propaganda, hegemonia kulturowa) i relacji makroekonomicznych (przemysł kulturowy, globalizacja, mediatyzacja). W reakcji na takie społeczne usytuowanie technologii komunikacyjnych i w cieniu ich natężającej się kulturowej krytyki powstały media cyfrowe. Ich społeczną rolę zaprogramowano tak, aby stały się remediami na bolączki epoki mediów masowych. Miały stać się napędem nowego porządku kultury, w której komunikacja odbywa się już nie tylko bezzwrotnie na linii system-masy, ale także wewnątrz niegdysiejszych mas oraz pomiędzy nimi a systemem. Nowe media obliczone były, a przynajmniej opowiadane w ramach narracji nowej gospodarki, nowych ruchów społecznych, jako projekt sprzężenia zwrotnego między obywatelami a systemem państwa i rynku. Nie będę tu wchodzić w motywacje kryjące się za tymi narracjami ani w ich prawdziwość względem praktyki obecności w życiu społecznym. Interesuje mnie natomiast właśnie praktyka społeczna cyfrowego przełomu. Ona zaś sugeruje, że projekt mediów społecznościowych, który zyskał sobie ikoniczny szyld Web 2.0, nie jest tak jednoznaczny jak nakładające nań makijaż marketingowy i polityczne mitologie [46]. Obywatelskie uwłaszczenie się w domenie technologicznej jest pozorne, podobnie jak złudny jest ich społecznie konstytutywny charakter.

Podważenie potęgi jednowymiarowości systemu komunikacji masowej, którego dokonali uzbrojeni w technologie cyfrowe i sieci pierwsi emigranci przybyli ze starej kultury do nowego cyberświata (pokolenie pierwszych hakerów wyrosłych na amerykańskiej kontrkulturze), zostało w dużej mierze zaprzepaszczone. Okazali się oni elitą, która myśląc krytycznie potrafiła wyznaczyć tropy do naśladowania przez ślepe i urabiane dotąd medialnym potokiem masy. Te jednak, zauroczone wyjściem poza dotychczasowy kanon, w nowych okolicznościach zachowały się po barbarzyńsku. Wybrały drogę pierwotnych, zwierzęcych instynktów, które zmaterializowały się w estetyce informacyjnego chaosu, antropologicznych problemów z osobowością zdezorientowaną w lokalizacji między światem offline i online oraz cyberwojny wszystkich z wszystkimi – zarówno domowej, tj. pomiędzy systemem instytucji państwa, sfery gospodarczej i obywatelami po drugiej stronie, jak i w skali globalnej w postaci cyfrowego wyścigu zbrojeń.

Matteo Pasquinelli książkę Animal Spirits. A Bestiary of the Commons poświęca właśnie analizie stopnia barbarzyństwa dzisiejszej cyberprzestrzeni, zajmuje się postępującym w niej upadkiem obyczajów i chaotyczną destrukcją wszystkiego, co relacyjne i co społeczne[47]. Pasquinelli opowiada się za wizją skutków społecznościowej rewolucji zainicjowanej przez kulturowe i społeczne ruchy w cyberprzestrzeni przeciwną wobec najbardziej popularnej mitologii cyfrowej rewolucji. Tam, gdzie cyberoptymiści widzą nowy ład kultury i urzeczywistnienie najbardziej wzniosłych marzeń i stojących za nimi wartości społecznych, stawia diagnozę przeciwną. Zamiast demokratyzacji życia społecznego, elektronicznej sfery publicznej, emancypacji obywatelskiej, widzi sieciowe zdziczenie obyczajów, dokonujący się krok wstecz w rozwoju społecznym i mimowolne wyjście na manowce kultury. Elektronicznymi zachowaniami zbiorowości rządzić mają instynkty pierwotne (tytułowe animals spirits będące nawiązaniem do kartezjańskiego oryginału, czyli tchnień żywotnych). Przekładają się one na szereg działań nieracjonalnych, nieprzewidywalnych i trudnych do jakiejkolwiek kontroli, kiedy już się objawiają. W części wynikają one z natury ludzkiej egzystencji, jednak ich przyczyną jest także „klaustrofobia kodu”, czyli zapisane w gramatyce nowych mediów mechanizmy władzy, reguły ekonomiczne, ideologie, z którymi nie potrafią racjonalnie walczyć, ani ich omijać, zanurzeni w cyfrową rzeczywistość userzy reagujący nieposkromioną agresją i dzikością. Do tego dochodzą także i inne znane antropologom mechanizmy zachowań zbiorowych, związane z celebracją anonimowości czy zachowaniami „stadnymi”. W rezultacie, wyrokuje Pasquinelli, nie istnieją wyłącznie racjonalne, jednoznacznie integrujące i moralnie nieskazitelne praktyki w cyfrowym świecie – wręcz przeciwnie stopień zawartości animals spirits w przestrzeni cyfrowej narasta. Co więcej, objawiając się i kumulując się online zostaje tam utrwalony i zmultiplikowany, by następnie, na zasadzie pętli sprzężenia zwrotnego, powracać z większą siłą do świata offline, zmieniając go.

W konsekwencji idealizowana przez wielu apologetów i marketingowców współpraca i wspólne życie w sieciach i na platformach cyfrowych, zawiązujące się w nich relacje społeczne i reaktywująca się sfera publiczna, szerzej: wszystko, co mieści w zbiorze desygnatów kategorii networking, przypomina raczej stan notworking.

Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.

David Bollier, kolejny z krytycznych analityków praktyk sieciowych, twierdzi, że nawet proste i prymitywne zachowania w sieci mają jednak głębszy, w swej istocie pozytywnie kulturotwórczy sens. Bollier argumentuje, że powstaje na skutek tych zachowań „nowy gatunek” człowieka społecznego, który w przyszłości, kiedy osiągnie przypisaną mu dojrzałość i właściwie rozpozna swoją grupową siłę, zupełnie zreorganizuje sferę polityczną i publiczną. Dzisiejsze viral spiral, czyli chaotyczne i niestabilne społeczne moce uwalniane online, okrzepną, przekształcą się w nowego typu struktury i staną się podstawą budowania zupełnie nowego ustroju społecznego i systemu kulturowego, którego zasady wyznaczą dzisiejsze słowa-klucze opisujące wirtualne społeczności, takie jak wolny dostęp do zasobów kultury i technologii, nieograniczona cyrkulacja danych, uwolniona kreatywność . Rozedrgana i targana przygodnością faktura życia zbiorowego w sieci z czasem uspokoi się i okrzepnie. [48]

Nie sposób nie dostrzec, że jedną z przyczyn takiego rozedrgania, niezależnie od tego, jak oceniać można jego wpływ na kulturę, jest fakt, iż obecnie dominujące w cyfrowej przestrzeni media społecznościowe przejęły od swoich analogowych odpowiedników gotowe i sprawdzone modele działania. Wyznaczają one stany, które wchodzą w konflikt z typowo nowomedialnymi, rewolucyjnymi w zakresie, który mnie tu interesuje, regułami i wyobrażeniami. Facebook, Flickr, Youtube i wiele ich przeróżnych, mniej znanych odpowiedników pod pozorem otwierania się na potencjał kulturowy i społeczny oraz kreatywność swoich użytkowników okazały się efektywnymi ekonomicznie przedsiębiorstwami, które ucieleśniają dominujący w poprzedniej epoce medialnej model ekonomiczny. To jednak przedsiębiorstwa doskonalsze od fordowskich i postfordowskich standardów, bowiem masy są nie tylko w nich zatrudnione, ale dodatkowo same muszą za swoją pracę zapłacić. To „zatrudnienie” polega na wypełnianiu technologicznej infrastruktury własną treścią, nadawaniu jej semiotycznej powłoki. Miliony użytkowników serwisów „społecznościowych”, publikując swoje zdjęcia, filmy, klipy audio, nawiązując relacje, pisząc wiadomości i odbierając je, tworzą tu społeczną energię, wymierne zasoby i energię społeczną i symboliczną, które właściciele portali efektywnie monetaryzują i/lub przekuwają na konkretne zasoby polityczne, gospodarcze, ideologiczne. Społeczny potencjał obywateli zanurzonych w sieci jest najpierw darmowo pozyskiwany przez operujące portale, które następnie odsprzedają go z zyskiem na medialnym rynku – za pośrednictwem reklam, lokowania produktów – starego typu instytucjom, którym zależy na podtrzymaniu modelu kultury, gdzie główną rolę odgrywają producenci, produkty, sprzedawcy i konsumenci. Zysk, popyt i podaż. W ten sposób kapitalizm sprawnie zarządza oddolnymi działaniami użytkowników technologii medialnych i skutecznie je wykorzystuje. Jego mechanizmy z łatwością przedostają się do wewnątrz cyfrowego świata i reprodukują się w nowych okolicznościach w stary sposób. Użytkownicy płacą podwójną cenę za znalezienie się w takiej sytuacji: najpierw za sprawą wygenerowanych przez siebie zasobów, które napędzają sieciową infrastrukturę, a następnie po raz drugi, kiedy chcą korzystać z zasobów, powstających na bazie udostępnionego wcześniej przez nich kapitału kulturowego. Weźmy za przykład dowolny portal społecznościowy, w którym to użytkownicy, a nie redaktorzy generują treść. Jest ona dla nich dostępna, ale jedynie w ograniczonym zakresie w postaci forów, opinii, wymiany zdań, galerii, itd. Z sumy wkładów pojedynczych użytkowników wyłania się dla posiadaczy tych portali olbrzymia baza danych, którą można na niezliczone sposoby przeglądać, nawigować, strukturyzować – to rodzaj metawiedzy o użytkownikach, mającej bardzo wymierną wartość rynkową. Może być odsprzedawana firmom trzecim jako bazy adresowe, profile użytkowników, dane statystyczne, itd. Nie znam przypadku, kiedy portal podzieliłby się z użytkownikami zgromadzonymi w ten sposób środkami finansowymi – często słyszy się natomiast o możliwościach profilowania wyszukiwania, dystrybucji reklam, geolokalizacji usług, które wykorzystują przedsiębiorcy.

Sytuacja podwójnego „opodatkowania” i podwójnej nieuczciwości przejawia się także w inny sposób. Po pierwsze dlatego, że omamione opowieścią o wyzwoleniu i rewolucji masy użytkowników najczęściej ślepo brną w ten medialny scenariusz, udostępniając bezrefleksyjnie wiele danych na temat swojego życia, takich jak zdjęcia, dane personalne, preferencje estetyczne, ślady aktywności rynkowej (zakupy), zainteresowania. Po drugie dlatego, że nikomu nie zależy na „rozbrojeniu” tego mechanizmu. W sprawie zabezpieczenia interesów obywateli nie występują państwa ani ich wyspecjalizowane organy, w ograniczonym zakresie robią to artyści funkcjonujący w oficjalnym obiegu sztuki. Te i podobne zakorzenione w analogowym systemie siły mają z medialnym rynkiem wspólny interes. Ze względu na podobieństwo strukturalne (model masowego rynku mediów jest paralelny wobec klasycznego modelu władzy państwowej) są nawzajem swoimi zakładnikami. Wszystkim im sprzyja fakt kontroli wiedzy o obywatelach i użytkownikach technologii, każdy z nich swoją elitarną pozycję i możliwość sprawowania w ten sposób władzy zawdzięcza zawłaszczaniu i wykorzystywaniu społecznej energii i zasobów, które w dobrej wierze i/lub nieświadomie zostają uwolnione w przestrzeni cyfrowej. Destrukcja modelu systemu komunikacji masowej oznaczać będzie, w bardziej lub mniej rozciągniętej w czasie perspektywie, radykalne podważenie zaufania do systemu władzy państwowej i wszelkich systemów społecznych skonstruowanych w oparciu o podział na elitę i masę, wyzwoli chęć rewolucji już nie tylko komunikacyjnej, ale i analogicznej we wszystkich możliwych sferach[49].

Kondycję animal spirits można by na gruncie pojęć filozoficznych, wytłumaczyć jako opór, sprzeciw wobec losu animal laborans. W takiej kategorii pojęciowej Hannah Arendt dostrzega człowieka zmuszonego do pracy w warunkach nowoczesnej rewolucji przemysłowej (choć nie tylko), uznając go za zniewolonego, pozbawionego sensu człowieczeństwa. Nowoczesna praca jest w jej rozumieniu stosunków społecznych przeciwieństwem wolności i kreatywności. Można tę kategorię odnieść do zniewolenia medialnego epoki mediów masowych. Wówczas eksplanacja przeciwieństwa pracy i działania twórczego sięga do czasów antycznych kultur, w których wolny człowiek pracą obarczał swoich niewolników [50]. W sieciowej i cyfrowej rzeczywistości to impuls człowieka wolnego, kreatywnego popycha go do działań nawet barbarzyńskich, uznawanych przez system oficjalnej kultury za marginalia, manowce i dzikość. Podejmuje je jednak, indywidualnie i zbiorowo, jako wyraz buntu i taktyczną broń służącą wyzwoleniu spod kontroli i manipulacji systemu medialnego, w którym chce na nowo odnaleźć się jako podmiot samostanowiący o sobie i twórczy.

Z powyższej argumentacji wynika, że utożsamianie projektu mediów 2.0 z ideą mediów społecznościowych/społecznych nie jest jednoznaczne. Stan postmedialny, który tu rozumiem jako osłabienie wyrazistości poszczególnych form medialnych, połączony ze stapianiem się medialnych języków w cyfrowy metajęzyk komunikacji medialnej narasta równolegle ze społeczną emancypacją wobec opresyjnego ideologicznie kodu technologii medialnych, to jest z rosnącą świadomością medialnego zapośredniczenia w ogóle i krytyczną świadomością poszczególnych mediów i zdolnością do rozpoznawania ich unikalnych gramatyk oraz dystansowania się wobec nich w praktyce kultury. O ile jednak proces znikania i stapiania się mediów jest zjawiskiem postępującym niezwykle szybko, o tyle zbiorowa świadomość emancypacji technologicznej dopiero się rodzi i na razie opiera się na mało dokładnych intuicjach.

Wpływowy holenderski krytyk Internetu Geert Lovink jest przekonany, że obecne stadium tzw. mediów społecznych pod szyldem 2.0 to sprawnie wyreżyserowane przez medialne korporacje działania, których zadaniem jest pozyskanie jak największej liczby danych o użytkownikach Internetu i nowych technologii. Media 2.0 są infrastrukturą nasłuchującą i tworzącą bazy danych, które potrzebne są do podtrzymywania modeli biznesowych w cyfrowym świecie – odwołam się raz jeszcze do tego wątku moich analiz. Dyskursywnej i społecznej zarazem niemocy mediów 2.0 dowodzi zdaniem Lovinka „tragedia komentarzy”, czyli ich zupełny brak w przeważającej ilości sieciowych miejsc dialogicznych. Zamiast nich doskonale funkcjonują działania i dyskursy pozorne, znaki faktycznych działań, dla których ikonami są przycisk „lubię to” na Facebook.com czy ćwierknięcia na Twitter.com [51]. Powstające w ten sposób dane, kapitał społeczny, okazują się jedynie kapitałem ekonomicznym, który służy interesom wchodzącym w jego posiadanie dostawcom infrastruktury. Praw do niego już z chwilą współtworzenia pozbawiani są zaś jego twórcy, którzy dla przykładu nie mają możliwości usunicia z Facebook.com trwale swojego profilu. Wraz z tymi prawami tracą oni także możliwości posługiwania się nim w inny, niż przewidziany przez dostawców, sposób. Niedawno głośna była seria wirtualnych samobójstw dokonywanych przez użytkowników na swoich społecznościowych profilach w proteście przeciwko polityce tych firm wobec danych użytkowników. Portale skutecznie zablokowały te subwersywne działania [52]. Wrócę do tematu pozyskiwania w ten sposób danych w części poświęconej postmedialnej roli baz danych.

Jeśli jednak media 2.0 nie spełniają kryteriów, które można by postawić wobec projektu mediów społecznych, to czy cyfrowe technologie połączone w sieciach mają szansę wyrwać się z uścisku technopolu i stać się faktycznie przestrzenią społeczną nowego typu, którą cechować będą przymioty wolności, otwartości, kreatywności, itd.? Sądzę, że obecny etap komercyjnie i politycznie inspirowanych i dyskretnie koordynowanych ruchów pseudospołecznościowych cechują dwa stany, które są charakterystyczne dla postmedialnego zwrotu. Po pierwsze, kontrola technopolu nie jest już tak skuteczna, jak w przypadku mediów masowych – w szczelnym dotąd systemie zdarzają się poważne wycieki i uszkodzenia, których nie da się już starymi metodami eliminować. To wspomniane wikileaks, działania hakerów, dziennikarstwo obywatelskie, piractwo. Po drugie, to interaktywność nowych technologii i egalitarny charakter cyfrowego kodu, do którego manipulacji i implementacji w formie software i protokołów mają zasadniczo dostęp wszyscy zainteresowani dysponujący odpowiednimi kompetencjami. Dostęp do kodu i możliwość użycia go wedle własnej wiedzy, wyobraźni i możliwości uruchomiły rzeczywistą emancypację technologiczną na niespotykaną wcześniej skalę. Skorzystanie z jej możliwości nie jest jednak ani automatyczne, ani proste. Wymaga wiedzy, której nie da się nabyć przez dekodowanie zawartości tych mediów. Potrzebne jest tu dekodowanie samych technologii i sterującego ich działaniem kodu, a to kompetencje, których wyrobienie wymaga przewartościowania w obszarach wiedzy, edukacji, wyobraźni kulturowej, prawa. Jeśli projekt cyfrowy można rozpatrywać w kategoriach uspołecznienia technologicznego środowiska komunikacji zbiorowej, to polem dla takiej refleksji jest właśnie ta emancypacyjna siła cyfrowych reguł, które do nikogo nie należą, nikogo nie preferują, nie mają formalnych ograniczeń. Można je opisać oczywiście jedynie na najbardziej fundamentalnym poziomie gramatyki technologicznego języka cyfrowości, gdzie istnieją cyfry i ich logika, czyli matematyka, oraz elektryczność jako przedmiot materializujący działania matematycznej abstrakcji. Wszystko, co istnieje w tym projekcie powyżej owego bazowego poziomu, jest już polityczne, wchodzi w reakcję z istniejącym systemem – staje się kwestią ekonomii zasobów kultury, społecznego systemu ról komunikacyjnych, regulacji prawnych, itd. Tylko towarzyszące rozwojowi technologicznemu nowego typu kompetencje medialne mogą tu zagwarantować faktycznie uspołecznioną kulturę mediów.

Niezależnie od skuteczności tego uspołeczniania w warunkach cyfrowych jasne jest, że narracja poświęcona temu zjawisku dotyka jednej z najważniejszych cech medialnego ekosystemu. W medialnej wyobraźni utrwalił się podział na media i ludzi, który jest przedłużeniem generalnej opozycji charakteryzującej relacje system-obywatele, rządzący-rządzony. Ta opozycja wyznaczyła m.in. charakter dwudziestowiecznej wiedzy o relacjach mediów, kultury, społeczeństwa i człowieka. Przywołam w tym miejscu raz jeszcze kluczowe dla tego dyskursu kategorie pojęciowe, które precyzyjnie wyrażają wspomniane zależności: technopol, kultura masowa, homogenizacja, konsumenci, bierność, masa. Wszystkie one rozpoznają, w cieniu teoretycznych ustaleń Karola Marksa, technologie medialne jako narzędzia społecznego wyzysku, dominacji i manipulacji. Za takimi diagnozami stoi przeważająca większość autorów liczących się dla dyskursu poświęconego splotowi mediów, kultury i społeczeństwa, takich jak: Walter Benjamin, Theodor Adorno, Heiddeger, Guy Debord, Jean Baudrillard, Noam Chomsky. Trudno tak inspirowanej wyobraźni uciec od postrzegania medialnego krajobrazu przez pryzmat społecznego i politycznego uwikłania technologii medialnych. Ukształtowane w duchu krytycznych narracji przekonanie o nieustannym konflikcie posiadaczy środków komunikacji i ich użytkowników obecne jest w związku z tym nieustannie w nieodłącznej „pamięci podręcznej” życia zbiorowego. Spór o władzę nad techniką i mechanizmy jej kontroli definiuje kondycję społeczną, jest jednym z wyznaczników społeczeństwa demokratycznego, otwartego i wolnego, ustawia linię wyobrażonych i rzeczywistych podziałów.

Spór o technikę zakorzenił się w wyobraźni społecznej i kulturowym dyskursie tak głęboko, że jego założeń nie są w stanie naruszyć ani radykalne zmiany technologiczne, które odmieniły oblicze technologii medialnych (cyfrowość, sieci i nowe media), ani rynkowe i polityczne narracje opiewające medialną „wiosnę ludów”. Rzeczywistość społeczna będzie się w tym zakresie zmieniała wolniej od okoliczności politycznych i technologicznych, stosowne zmiany zostaną społecznie wychwycone z czasem i dopiero wtedy status technologii komunikacyjnych ma szansę na zmianę. Analogiczny los spotka zapewne wyobrażenie o obywatelu zanurzonym w medialny świat. Postrzega on i rozumie siebie jako medialnego partyzanta, który znajduje się po przeciwnej niż technologia stronie barykady i stara się medialne maszyny, języki i ekosystem przechytrzyć, wykorzystać i/lub ośmieszyć. Z tego stanu rzeczy wywodzą się wszystkie najpopularniejsze medialne scenariusze rozpoznawane przez antropologów, takie jak przywołane „dzikie instynkty” piractwa, hakingu, anonimowych działań stadnych. Te wszystkie elementy współtworzą taktyczny opór wobec medialnego systemu i jego strategii, jakby to można określić odwołując się do terminologii Michela de Certeau.

W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.

Uznałem, że obecna kondycja mediów społecznościowych sytuuje się pomiędzy nasilającą się z jednej strony medialną „rewolucją” a powstrzymującymi impet tego zjawiska ugruntowanymi w analogowym systemie pozycjami tradycyjnych graczy. Obie te siły starają się znieść siebie nawzajem, i choć ogólna tendencja sprzyja w tym zakresie obywatelom walczącym o środki komunikacji, to do ich zwycięstwa, do przejęcia społecznej kontroli nad mediami sporo jeszcze brakuje. Społeczeństwo, które w autodefiniującej je zbiorowej wyobraźni celebruje, za sprawą ideologicznych sugestii, zwycięstwo nad analogowym i masowym systemem mediów, wciąż jeszcze zdaje się nie być zdolne do uznania, że rewolucja nie tylko nie dokona się na ekranach telewizorów (revolution will not be televised), ale może się także nie przydarzyć w domenie cyfrowej (medialne imperium Ruperta Murdocha kupiło ostatnio za 500 mln dolarów portal myspace.com, wcześniej Facebook.com debiutował na giełdzie). Cyfrowym społecznościom należy się edukacja medialna, kształtowanie zdolności i potrzeby krytycznego oglądu kondycji technologicznej i jej form, odłączenie wiedzy o medialnych formach od showbiznesowych treści, które transmitują. Tylko wtedy „siły społeczne” mają szansę odcisnąć na medialnym krajobrazie własne piętno, zmienić zastane reguły gry.

Ned Rositter, socjolog zajmujący się sieciowymi społecznościami, przekonuje, że w dyskusjach na temat kultury sieci często pojawia nadmierny zachwyt nad zdolnością do samoorganizacji, świadomością i autokrytycyzmem biorących udział w wirtualnych przedsięwzięciach. Jego przedmiotem jest przede wszystkim szybkość i sprawność, z jaką internauci nawiązują ze sobą kontakty, jak efektywnie i w większości wypadków mało kolizyjnie potrafią ze sobą twórczo i efektywnie współpracować. Sprawnie tworzą struktury, które, w przeciwieństwie do tradycyjnych form organizacji pracy i społecznych, mają wymiar wertykalny, są przede wszystkim oparte na podtrzymywaniu wielkiej liczby wzajemnych relacji i związków, nie zaś na pionowym zarządzaniu przepływem zasobów i władzy i wspierającą je hierarchiczną dyscypliną. Zaintrygowanych fenomenem tej sieciowej współpracy najczęściej nurtuje pytanie o to, jak sprawić, aby równie sprawne, oparte na sieciowej ekologii mechanizmy działania zaczęły pojawiać się w praktyce funkcjonowania świata offline, czyli w codziennym działaniu takich instytucji, jak przedsiębiorstwo, państwo, uniwersytet, instytucje religijne, działalność społeczna. Mówiąc inaczej: hierarchiczny świat jest zauroczony zdolnością do kreatywności i elastyczności sieciowych form współpracy realizowanych za pośrednictwem mediów cyfrowych. Stare, odchodzące powoli do lamusa, formy instytucjonalne, które starają się obserwować sieciowe zmiany i wyciągać z nich wnioski dla swojej tożsamości, można nazwać „usieciowionymi organizacjami”. Według Rosittera zastępować je będą coraz skuteczniej „zorganizowane sieci”, które będą powstawać przez przenoszenie sieciowych mechanizmów do życia offline, ich adaptację wewnątrz struktur już istniejących instytucji i tworów życia zbiorowego. „Zorganizowane sieci” oferują restytucję uśpionych w strukturach hierarchicznych form i reguł współpracy ponad wytyczonymi podziałami organizacyjnymi, świeżość i kreatywność w rozwiązywaniu skomplikowanych problemów, nieograniczoną potencję rozwoju oraz przyciąganie i zdolność do absorpcji i przetwarzania nieograniczonych zasobów. Te niewątpliwe przymioty równoważą jednak niedoskonałość strukturalną i organizacyjną sieci. Z praktyki internetowego działania wynika, że nie chaotyczne, przygodne formy kontaktu i działania sieciowego są najbardziej skuteczne, lecz te, w których nad dezorganizację przedkładana jest z czasem skutecznie zabezpieczająca efektywność forma organizacyjna [53].

Mamy w tym przypadku sprzężenie zwrotne. Sieć, ulegając prymitywnym instynktom ludzkich węzłów w niej, staje się niewydolna, popada w chaos i dezintegruje się, tracąc zdolność do praktycznego i efektywnego działania. W konsekwencji jej kreatywny potencjał domaga się klasycznych rozwiązań organizacyjnych, a tradycyjne procedury pracy i zarządzania mają doskonałą szansę adaptowania sieciowych protokołów i obyczajów, które te tradycje ożywią i wprowadzą weń ożywczego ducha kultury sieciowej. Zdezorganizowana siła sieci może skutecznie wedrzeć się ze swoją relacyjną, wszechkoneksyjną logiką do tradycyjnych reguł społecznych jedynie idąc na kompromis z już istniejącymi tu siłami i formami. Organizacja sieci na wzór tradycyjnych instytucji i form życia społecznego może okazać się dla starających się nad cyberprzestrzenią zapanować i zawłaszczyć ją siłom politycznym i technokratycznym twardym orzechem do zgryzienia. Trudno im będzie walczyć z nowym typem społecznego zaangażowania medialnego przy użyciu ich własnych narzędzi i metod [54].

Jednocześnie widać w tym rozdarciu sieciowego świata dążenie do synergii rozciągających go energii i wektorów. Sprzeciw i niechęć wobec wszelkich reguł systemowych powoduje odrzucenie także i sprawdzonych, pragmatycznych mechanizmów działania, których obecność okazuje się elementem koniecznym. W tym samym czasie tradycyjne formy organizacji społecznych otwierają się na reguły sieciowe, usieciowiają się. W obliczu tych zmian pojawiają się także mechanizmy hybrydyczne, które łączą nie tylko sieciową chaotyczną i twórczą energię i żywotność z pragmatyką i strukturami form hierarchicznych. Dochodzi w nich do połączenia czynnika ludzkiego z logiką samych maszyn i sterującego nimi hardware. Twórcy przedsięwzięcia o nazwie MobileWorks stworzyli, to jeden z przykładów na ten temat, oprogramowanie, które samodzielnie zarządza pracą wielu gotowych wykonać pojedyncze drobne zlecenia. Logując się do bazy otrzymują z niej zadania do wykonania wybrane zgodnie z ich predyspozycjami, kwalifikacjami, zdolnościami i czasem, który gotowi są poświęcić na to działanie. Pojedynczy pracujący w takich wirtualnej chmurze/firmie nie musi znać ogólnego celu swojej pracy, nie posiada wglądu w pracę pozostałych, ale realizując zlecone w ten sposób zadanie jest stroną relacji pracodawca-pracownik [55].

Sytuacja mediów cyfrowych nie da się na tym etapie jasno zdefiniować jako rewolucja społeczna w obszarze komunikacji. W polu technologii wciąż obecne są siły analogowego systemu mediów masowych, które funkcjonują według formuł wypracowanych w okolicznościach upolitycznienia technologii medialnych i instrumentalnego z nich korzystania. Szansą na przezwyciężenie społecznego wywłaszczenia z obszaru technologii komunikacyjnych może okazać się nie partyzancka o nie walka prowadzona na zasadzie redefiniowania kształtu obiegu cyfrowych zasobów, tworzenia i korzystania z software, hardware i interfejsów ale odwrót od myślenia o medialnym świecie jedynie w kategoriach zbiorowych i specyficzny zwrot ku historycznej figurze medialnego rzemiosła. Technologie cyfrowe nie dość, że mają w sobie potencjał zaspokojenia takiego roszczenia, to jeszcze mogą stać się narzędziami faktycznego budowania tego, co społeczne, a nie tylko polityczne czy ekonomiczne. W tym celu potrzebna jest nowa komputeryzacja, która będzie mieć zrewidowany społecznie charakter. Polegać będzie na odrzuceniu fetyszu samodzielnych maszyn i niezgodzie na ich szczególną pozycję w hierarchicznym systemie społecznym. W to miejsce pojawi się ekosystem medialny stawiający w centrum człowieka, a wokół niego medialne narzędzia. To iście kopernikański zwrot.

I.3. Pole antropologii

Trzecim z elementów wyznaczających charakter postmedialnej zmiany jest człowiek i jego biologiczne i psychofizyczne cechy. W cyfrowych okolicznościach staje on naprzeciwko dwóch postmedialnych sytuacji. Pierwszą jest przeniesienie doświadczenia medialnego ze sfery percepcji do sfery interakcji. Drugą zaś przekroczenie szeregu granic o charakterze biologicznym, które dotąd wytyczały terytorium komunikacji i kultury. Sytuacja postmedialna oznacza dla niego wejście na powrót w renesansową integralność doświadczenia medialnego (kulturowego) oraz konfrontację z niedostrzeganymi wcześniej biologicznymi reżimami komunikacji.

Postmedia można w kontekście antropologicznym określić synonimicznie: media wyobrażone. Za sprawą interaktywnych software i interfejsów możliwe jest ich bezpośrednie i niemal nieograniczone formalnie (granicą są tu jedynie parametry hardware), dokonujące się w czasie rzeczywistym, sprzężenie z procesami myślowymi. Domena cyfrowa funkcjonuje na zasadzie nieustannie zapętlonego sprzężenia wyobraźni, języka i medialnej materii: interfejsów, kodu i baz danych. Wyimaginowane idee, fantazje, marzenia, utopie transformują się tu natychmiast w modele symboliczne, czyli wyrażenia językowe (kody kultury) i w dalszej kolejności interferują z materią cyfrowego systemu. Taka relacja pomiędzy wyobraźnią, językiem i materią dotyczy nie tylko programistów, projektantów czy inżynierów, którzy są w stanie dzięki swoim umiejętnościom rozmawiać z technologiami i formować je. Dotyczy także zwykłych jej użytkowników, którzy coraz sprawniej dysponują specjalistycznymi umiejętnościami i mają dostęp do coraz większej ilości zakodowanych w nich zasobów. Obowiązuje tu nieustanny loop transferów danych, obliczeń i sterujących nimi „zasobów” ludzkich. Miękka część cyfrowych mediów, czyli software i interfejsy, to ni mniej ni więcej jak tylko zakodowane i utrwalone cyfrowo wyobraźnia i wnikające/wynikające z niej, odbite i zamrożone w medialnych formach procesy myślowe.

Wejście w cyfrowy świat właśnie z tego powodu okazuje się tak bardzo angażujące – dowodzą tego np. doświadczenia z grami komputerowymi czy programowaniem, którym to czynnościom oddający się potrafią się zupełnie zapomnieć, tracąc kontakt z rzeczywistością offline. Tak wysoki i rozbudowany poziom zaangażowania był dla wcześniejszych form medialnych nieosiągalny. Żadna z nich nie mogła przecież zaoferować dwustronnej wymiany pomiędzy sobą a użytkownikiem, tak namacalnego i uchwytnego w czasie związku przyczynowo-skutkowego i potencjału interaktywności. Żadna z nich nie była w stanie zaangażować w takim zakresie swojego użytkownika w negocjacje własnego programu, definiowanie samego siebie – pozyskiwała jego wyobraźnię tylko w trybie „czytaj”, nie pozwalając mu „pisać” [56]. Wcześniejsze, analogowe kształty wyobraźni medialnej koncentrowały się na odczytaniu (dekodowaniu, dekonstrukcji) medialnego przekazu i jego formy. Wyobraźnia postmedialna pracuje natomiast w dwóch trybach jednocześnie. Potrafi jednocześnie percypować i kreować medialny świat; nie tylko przygląda mu się ale i wizualizuje go; słucha, ale i (d)opowiada go; dotykając czuje, ale i informuje, kształtuje.

Medialna wyobraźnia jest dla komunikacyjnego i technologicznego uniwersum odpowiednikiem tego, co w nauce określa się mianem teorii. Teorie są modelami zdarzeń, interpretacjami rzeczywistości i jej projekcjami poszukującymi uniwersalnych prawd i kształtów. Dla nowoczesnej nauki i tworzonej przez nią wiedzy teorie okazują się fundamentem – nieraz wyprzedzają rzeczywistość, którą nauka tradycyjnie zwykła analizować za pomocą eksperymentów, obserwacji i doświadczeń. W nowoczesności, wraz z rozwojem technologii opartych na elektryczności (w tym także i mediów, bowiem historia współczesnych mediów i historia elektryczności są nierozłączne – zagadnieniu temu poświęcę część kolejnego rozdziału), tradycyjna kolej rzeczy została odwrócona. Stało się tak po raz pierwszy za sprawą szkockiego fizyka i matematyka Jamesa Clerka Maxwella, który w XIX wieku przewidział/matematycznie udowodnił istnienie fal elektromagnetycznych. Potrzeba było kilkunastu lat, aby istnienie tego, znanego jedynie w teorii, zjawiska eksperymentalnie potwierdzić. Udało się to dopiero Heinrichowi Hertzowi [57]. W naukach ścisłych od tego czasu teoretyczne rozpoznania świata i praktyczne działania tłumaczące jego tajemnice stały się równoprawnymi, uzupełniającymi się, ale i wzajemnie ze sobą konkurującymi metodami. Podobny los spotkał słynne równania Einsteina, które, prawdziwe w teorii już za czasów jego życia, okazały się nieweryfikowalne w praktyce jeszcze przez długi czas. Dopiero Kurt Gödel zweryfikował ich prawdziwość w odniesieniu do praktyki. W domenie cyfrowej empiryczna praktyka odpowiadałaby ontycznej logice hardware, zaś teoria – realizowana w postaci logiki działań na cyfrowych symbolach, czyli matematyki – warstwie software. Będę wracał jeszcze do tego specyficznego podziału na teorię i praktykę zarówno w nauce, jak i w obszarze technologii medialnych, ich splot i różnica pomiędzy nimi to jeden z najważniejszych czynników definiujących kulturowe kody technologii cyfrowych i regulujących rolę i kształt medialnej wyobraźni.

Myśl o mediach wyobrażonych zainspirował dla teorii mediów niemiecki badacz Siegfried Zielinski w swojej archeologii mediów [58]. Zielinski sięgnął w niej w technologiczną i dyskursywną przeszłość mediów, odnajdując w niej niepodjęte lub podjęte w niewystarczającym zakresie formy, idee i kierunki rozwoju form technologicznych. Zainteresował się genetycznymi kodami stojącymi za poszczególnymi medialnymi formami, doszukując się płynności, wymienności i nieustannej transformacji w ich ewolucji. Śladami Zielinskiego podążają dzisiaj liczni badacze kultury mediów, ale też – mniej lub bardziej świadomie – ich budowniczowie. W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media zebrani autorzy, teoretycy mediów, poszukują medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się cywilizacji stworzyć. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są jedynie w części realne, a w części imaginacyjne. Formy imaginacyjne, choć nigdy niezmaterializowane, objawiały się „wirtualnym” życiem w zbiorowej wyobraźni i często miewały na nią konstruktywny wpływ[59]. Możliwa jest ich zdaniem alternatywna historia mediów, a zatem i ich krytyczna (transtechnologiczna i transmedialna) archeologia. Kategoria mediów wyobrażonych odnosi się już nie tylko do retrospektywnego spojrzenia na wielowymiarowe dziedzictwo medialnego świata: ma także zwrot ku przyszłości, wskazuje na media potencjalnie istniejące, formy „w budowie” i połączone z nimi dyskursy kulturowe i technologiczne, które dopiero nabierają siły i docelowego zasięgu.

Jeszcze jedną z prób pojęciowego wskazania na przenikanie i zależności, na rozciągniętą perspektywę rozumienia kodu, software i medialnej wyobraźni, kształty nowego alfabetyzmu można odnaleźć w polskiej literaturze poświęconej tematyce cyberkultury i społecznej obecności cyfrowych technologii komunikacyjnych. Mam na myśli neologizm mindware, który powołali do życia wspólnie artyści nowych mediów, krytycy i animatorzy społeczni wraz z teoretykami kultury w ramach festiwalu Mindware. Technologie dialogu. Był ono dla nich słowem-kluczem służącym do opisania i zrozumienia zmieniającej się rzeczywistości kulturowej, w której coraz większe znaczenia mają cyfrowe technologie. Przenikają one do życia społecznego, stają się ważnymi formami służącymi w pracy artystycznej, są także narzędziami społecznej inżynierii i zmiany. Mindware znaczy w tym kontekście tyle, co struktury myślenia, wyobraźni i wrażliwości kulturowej, w które wyposaża się przez kontakt i używanie nowych technologii każdy ich użytkownik. Mindware to „oprogramowanie” wyobraźni, system operacyjny kultury. Logika myślenia o kulturze cyfrowej i sobie samym w niej[60].

Powróćmy do rozważań na temat medialnej wyobraźni. To nie tylko instancja konstytuująca indywidualne doświadczenie postmedialnego świata i pozwalająca na poruszanie się w nim. To również kategoria kulturowa, która obejmuje wrażliwość i kompetencje komunikacyjne w skali zbiorowej – synergiczna suma wyobraźni jednostkowych. Zaproponowane przeze mnie rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób właśnie na wartości analitycznej obecnego w gruncie rzeczy od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali we wspomnianych naukach Benedict Anderson, wykorzystując ją w studium poświęconym problemowi nacjonalizmu z początku lat dziewięćdziesiątych zatytułowanym Imagined Communities [61], oraz Charles Taylor w głośnej diagnozie społecznej, wydanej dekadę później, zatytułowanej Modern Social Imaginaries [62]. Sens tego pojęcia poszerzył także włoski filozof-marksista Paolo Virno za sprawą ukutego przez siebie terminu ogólnego intelektu [63]. Zbiór wspólnych desygnatów dla obu tych kategorii odwołuje do instynktów rządzących myśleniem i zachowaniem zbiorowości, posiadanych przez ich członków kompetencji, modeli symbolicznych i kodów, przy użyciu których postrzegają, rozumieją i kształtują swoje otoczenie. Dla przywołanych teoretyków status wyobraźni potwierdzają choćby takie elementy, jak wyobraźnia tworząca projekt moderny, wyobraźnia emancypacji, czy wcześniej wyobraźnia religijna. W warunkach nowoczesnego, tj. wyemancypowanego, zurbanizowanego, urynkowionego i posługującego się zaawansowanymi technologiami zbiorowej komunikacji społeczeństwa to właśnie element zbiorowej wrażliwości i wyobrażeń/wyobraźni staje się jednym z kluczowych konstytuantów życia społecznego. Jego ważnym podsystemem jest wyobraźnia medialna i komunikacyjna, która w obliczu epoki cyfrowej i elektrycznej staje się w związku z tym jednym z najważniejszych rezerwuarów sterujących postawami i działaniami komunikacyjnymi.

Bezpośredni link pomiędzy technologiami cyfrowymi a wyobraźnią ich użytkownika/użytkowników to powód, dla którego sytuację postmedialną można opisać za pomocą pojęcia mediów wyobrażonych. Społeczeństwa, kultury, narody obcujące z cyfrową i sieciową zmianą powoli uczą się mówić językiem mediów, wykorzystywać je jako aparat komunikacji z systemami władzy (wikileaks), ekonomii (open source) i samych hierarchicznych mediów (dziennikarstwo obywatelskie). W tym ogólnym sprzężeniu dostępne są formy mniej lub bardziej radykalnego połączenia, z których chyba najbardziej jaskrawą jest projekt rzeczywistości wirtualnej – wirtualności, dla którego modus operandi jest wyobraźnia starająca się na bazie niedoskonałych technologicznie reprezentacji świata zbudować pełnowymiarowy model świata przeżywanego.

Pierwsze słownikowe wyjaśnienia terminu wirtualny odwoływały się do czegoś, co jest wytworem wyobraźni i powstaje w mózgu. Dopiero potem semantyka tego terminu ewoluowała w kierunku światów istniejących dzięki maszynom cyfrowym, powoływanym za ich pomocą do życia. Wciąż jednak pojęcie to odnosi się przede wszystkim do sprzężenia pomiędzy tym, co wyobrażone na poziomie biologicznym i egzystencjalnym, a tym, co jest tego cyfrową reprezentacją i medialnym modelem [64]. Według Jeana Baudrillarda, jednego z najważniejszych znawców relacji pomiędzy rzeczywistością a jej medialnymi modelami/kopiami, wirtualne jest to, co jest bezpośrednią projekcją rzeczywistych doświadczeń do wewnątrz języka technologii medialnych. Wirtualność to cyfrowy projekt, którego wczesną charakterystykę (tj. w okresie kiedy miała ona status osobnego medium) można dziś (w fazie kiedy przeważająca większość cyfrowych systemów i protokołów poddana została wirtualizacji) uznać za kondycję właściwą mediom cyfrowym w ogóle. Wraz z ich wirtualizowaniem dystans pomiędzy medialnym doświadczeniem a medialną wyobraźnią został radykalnie zredukowany. Do poziomu, który, jak wspomniałem, w kontaktach z poprzednimi gramatykami mediacji był nieosiągalny.

Permanentne wpięcie w medialny ekosystem potencjału wyobraźni kulturowej i możliwość jednoczesnego czytania/pisania mediów/mediami to sytuacja, która z jednej strony powoduje nieustanne testowanie i weryfikowanie form mediów i ich bieżącą rekonstrukcję/programowanie prowadzące do ich remiksowania i zanikania. Z drugiej strony sprzyja zacieraniu się w kulturze konceptu mediów jako takich. W ten sposób niezależnie od kontekstu społecznego i technologicznych scenariuszy również w obszarze wyobraźni kulturowej media rozpływają się i znikają, wypełniając w ten sposób warunki kondycji postmedialnej. W miejscach wyraźnych materialnych medialnych kształtów i gramatyk ostają się tylko ich pojedyncze elementy składowe, które wchodzą w różne reakcje pomiędzy sobą.

W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media jego autorzy, teoretycy mediów, skupili się na poszukiwaniu medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się naszej cywilizacji wypracować. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są zawsze jedynie w części realne/ukończone, a w dużej części wyobrażone/imaginacyjne. Nie brak w pracy świadectw medialnych konfliktów, które, wielokroć przypadkowo, pozycjonowały w kulturze technologie mniej ciekawe i obiecujące kosztem tych doskonalszych (np. konflikt VHS kontra BETA)[65]. Ich zdaniem możliwa jest w konsekwencji alternatywna historia mediów, a zatem i ich krytyczna, transtechnologiczna i transmedialna archeologia. Zadaniem jej byłoby odsłanianie alternatywnych medialnych kultur zarówno tych opartych na istniejących formach technologicznych, jak i mediów niezmaterializowanych kulturowo, które zniknęły w mrokach przeszłości, zanim jeszcze na dobre wypłynęły na powierzchnię komunikacyjnej historii. Technologiczny świat mediów poddany rządom społecznej wyobraźni jawi się w analizach tego typu jako konstrukcja płynna, której kształty i losy dyktują nie tylko same technologie, odgórnie przypisane do nich polityki i estetyki, ale także społeczno-kulturowe odczytania i wynikające z nich reguły mocujące te media w systemie społecznym, ostatecznie formatujące ich oblicza i trajektorie.

W podobnym duchu na historię mediów spogląda Bruce Sterling, twórca jednego z najbardziej ciekawych projektów sytuujących się na pograniczu archeologii mediów, ich teorii i sztuki, o nazwie Dead media project[66]. Sterling kolekcjonuje media upadłe/niezrealizowane, które z różnych przyczyn wyskoczyły z kulturowych torów, zostały porzucone przez swoich twórców/promotorów czy po prostu zastąpione nowszymi wersjami/interfejsami. Zbiorowym kustoszem tego projektu, obok samego Sterlinga, są wszyscy zainteresowani, dla których została przewidziana rola polegająca na opisywaniu (forma notek tekstowych) i wspólnym katalogowaniu wybranych mediów. Realizowany w ten sposób alternatywny i wyobrażony „skansen” technologii medialnych ma nie tylko znaczenie muzealne, polegające na utrwaleniu niemainstreamowej historii form i gatunków medialnych. To także archeologia, która odsłania niespełnione, wyciszone czy zbyt śmiałe pomysły i wyobraźnie komunikacyjne wraz z kryjącymi się za nimi „interfejsami”, „software” i „hardware” historycznych prawideł, wrażliwości, wiedzy i możliwości. To podróż pomiędzy medialnymi światami utraconymi, wymarzonymi i odzyskanymi; pomiędzy formami, językami i kształtami istniejącymi nieraz tylko w wyobraźni, a czasem przez tę wyobraźnie odrzucanymi, niemieszczącymi się w jej ówczesnych strukturach i kodach. To także doskonały trening uszczegóławiania, kompilowania, remiksowania i loopowania medialnych form, który służy jako poligon doświadczalny dla wszelkich prób myślenia mediami i odnajdywania się w warunkach kondycji postmedialnej. Tu wszystkie media są potencjalnie możliwe, a jednocześnie każde z nich próbuje ustawić się ponad innymi, zawłaszczyć istniejące. Umarłe media dzięki Sterlingowi stały się zapowiedzią i przedmiotem nieustannej de- i re-konstrukcji właściwej postmediacjom.

Taka archeologia i paleontologia mediów odsłania medialne i komunikacyjne imaginaria towarzyszące pojawiającym się technologiom. Tym tropem wyraźnie podąża w swojej teorii/archeologii mediów Siegfried Zielinski. Niemiecki filozof poszukuje płynności i kontynuacji ich form i reguł, sięgając do historycznych zdarzeń, sił i procesów, w które technologie komunikacyjne bywały i wciąż pozostają uwikłane. W myśl tej historycznej perspektywy medialne technologie i ich społeczne otoczenie zawsze były i wciąż są funkcją zbiorowych imaginariów komunikacyjnych. Ich ostateczna kulturowa postać zależna jest od wrażliwości, kompetencji i potrzeb komunikacyjnych w danych okolicznościach kulturowospołecznych. Jednak im bardziej widoczne samo medium, im trudniejszy jego język, tym bardziej owa wyobraźnia bezbronna i powolna w działaniu i zderzeniu z nim. Choć to oczywiście teoria dalece bardziej złożona i przenikliwa, to w kontekście moich rozważań nad wyobraźnią medialną ograniczę się do stwierdzenia, że im bardziej medium angażuje swojego użytkownika, tym większa rola samej wyobraźni [67]. Można również uznać, że archeologia mediów jest w dużej mierze archeologią społecznej wyobraźni – a zatem i archeologią kultury/komunikacji.

W sytuacji postmedialnej, powtórzę, wszystkie potencjalne media są możliwe i dostępne za sprawą wywołania ich form w środowisku cyfrowym, tj. programistycznego odwzorowania czy zaprojektowania ich języka na bazie nieskończonych możliwości kombinatorycznych kodu zer i jedynek, oraz przypisania tak powstałym formom software’owym odpowiednich interfejsów wywoławczych, ubrania ich w zrozumiałe, swojskie szaty użytkowe. To kolejny element medialnego sprzężenia technologicznych form mediów z kulturową wyobraźnią. W ekosystemie cyfrowym wyobraźnia staje się jednym z niewielu metazasobów (zasobników) kulturowych gotowych do natychmiastowego wykorzystania i programowania zarówno w skali indywidualnej, jak i zbiorowej. To magazyn kulturowej pamięci. Kształt i szybkość/sens działania mediów cyfrowych pozostają w coraz większym stopniu funkcją sprzężenia z tą wyobraźnią.

Medialne wyobraźnie i wrażliwości komunikacyjne oraz mające w nich źródła imaginaria, czyli pojedyncze, utrwalone w czasie, miejscu i formach medialnych wyobrażenia, przekładają się na zespół kompetencji i reguł komunikacyjnych, kształtują medialną wrażliwość i budują dystans wobec mediacji w ogóle. W literaturze anglosaskiej obszar ten zwykło się określać mianem literacies, natomiast najbardziej chyba zasadnym polskim ich odpowiednikiem jest, według mnie, kategoria alfabetyzmów. Pojęcia te opisują sposób rozumienia technologii medialnych i posługiwania się nimi, towarzyszącą im wrażliwość i wyobraźnię medialną. Być alfabetą, posługiwać się alfabetyzmem, to tyle, co potrafić komunikować się za pośrednictwem technologii medialnej i rozumieć jej kulturowy i społeczny sens, osadzenie, ograniczenia. Być zdolnym do porównywania ich z innymi.

Kategoria alfabetyzmu odnosi się także do kompetencji związanych z porządkami medialnymi zawierającymi w sobie poszczególne formy medialne. To reakcje wrażliwości i wyobraźni komunikacyjnej na najbardziej ogólne, strukturalne i dziejowe reguły mediacji. Odpowiedzi udzielone przez rozwój techniki i kultury na pytania stawiane na bazie naszego naturalnego sensorium, przy którego pomocy poznajemy i konstruujemy rzeczywistość. Na tym poziomie szczególne znaczenie mają konkurujące ze sobą od dawno w polu kultury alfabetyzmy mowy i pisma oraz wizualny, związany z porządkiem obrazów. Organizacja języka i ewoluującej z niego piśmienności, mówiąc najbardziej ogólnie, opiera się na sekwencyjnej logice czasu, odwołuje się do kategorii początku, końca i przebiegu, implikuje potrzebę związków przyczynowo-skutkowych, wynikania i strukturyzowania. Tymczasem logika alfabetyzmu wizualnego bierze się z doświadczenia przestrzeni i inspiruje zupełnie inne postrzeganie porządku świata. Pierwszy z alfabetyzmów konstruuje świat jako opowieść (narrację, historię, tekst), drugi zaś wywołuje światoobraz (pogląd, krajobraz, symbol). Do opisu obu tych ogólnych medialnych porządków i wywołanych przez nie kompetencji komunikacyjnych będę jeszcze wracać w kolejnych rozdziałach. Makro i mikroalfabetyzmy, tj. te dotyczące ogólnych porządków medialnych, takich jak pismo-obraz, analogowe, cyfrowe, hierarchiczne-sieciowe, oraz dotyczące poszczególnych gramatyk medialnych, takich jak druk, telewizja, itd., przecinają się i wchodzą w różne reakcje ze sobą. Z wymieszania różnych ich elementów biorą się dające się uchwycić w czasie alfabetyzmy związane z konkretnymi formami medialnymi, z kulturami poszczególnych mediów [68].

Postmedialne okoliczności powodują, że alfabetyzm staje się kategorią bezpośrednio istotną w indywidualnym kontakcie z mediami. Obejmuje on szereg predyspozycji, zasobów wiedzy i kompetencji, które okazują się kluczowymi wytycznymi współczesnego bycia w świecie i rozumienia go. Nie ma bowiem medialnej wyobraźni ani medialnych działań z wyłączeniem języka, kompetencji wizualnych, zmysłu pracy z techniką, tekstem, designem. Pozostaje alfabetyzm także w cyfrowych okolicznościach najważniejszym z dostępnych człowiekowi kulturowych narzędzi poznawczych i służących konstruowaniu świata. Bliskość medialnych procesów i wyobraźni przekłada się na budowane „w locie” medialne kodeksy, czyli zbiory reguł dotyczących posługiwania się mediami. Dla człowieka współczesnego, przynajmniej w obszarze rozwiniętej technologicznie cywilizacji zachodniej, postrzeganie świata i komunikowanie się z/w nim za pośrednictwem technologii komunikacyjnych jest jednym z najważniejszych wymiarów bycia. Medialne pośrednictwo przeniknęło tak głęboko w tkankę kultury, że w zasadzie trudno sobie wyobrazić jego brak. W konsekwencji także i medialne kompetencje, wrażliwość i zdolności stają się jednymi z najbardziej znaczących regulatorów kulturowych. Analfabetyzm medialny jest w tych okolicznościach niczym innym, jak tylko rozszerzoną wersją dobrze kulturze znanego zjawiska analfabetyzmu, który jest najważniejszą z trosk systemów edukacji i kultury i wciąż jednym z niepodważalnych wyznaczników rozwoju cywilizacyjnego.

Doświadczenie sytuacji postmedialnej wykracza poza granicę wytyczoną przez media w ogóle i, na powrót, okazuje się bardzo bliskie posługiwaniu się językiem. Polega na uznaniu pełni barw medialnego spektrum form i interfejsów i wymieszaniu ich technokulturowych cech. Tym samym, zataczając historyczną pętlę, sytuacja ta upodabnia się do kondycji premedialnej (przedtechnologicznej), za jaką uznajemy zjawisko mowy i regulujące je zasady języka. Samego języka nie sposób uznać za technologię medialną, choć taki status przypisany został w dyskursie medioznawczym piśmienności, alfabetowi i wszystkim kolejnym, wynikającym z nich, mowo- i pismopochodnym technologiom mediacji (radiu, telefonii). Język ma naturę poprzedzającą wszelkie technologie pośredniczące w komunikacji – jest najbardziej zinternalizowanym, intymnym i symbolicznie pierwszym, referencyjnym pomostem pomiędzy osobą a światem i innymi osobami, najważniejszym naturalnym „interfejsem” homo communicans. Nie da się go odseparować od mówiącego, jest przymiotem osoby, a nie (nie tylko) stworzoną przezeń formą/technologią, choć wpływom technologii, różnego rodzaju remediacjom poddaje się nieustannie. Różni się także od pozostałych naturalnych form postrzegania świata, w które człowiek został wyposażony. Pozwala nie tylko „widzieć”, ale i projektuje/kreśli „obrazy”, nie tylko „słyszy”, ale i wzbudza dźwięk. W tym sensie jest nie tylko pośrednikiem w postrzeganiu i rozumieniu rzeczywistości, ale i taktylnym narzędziem jej konstrukcji – wielkie religie pouczają, że świat zaczyna się od wypowiedzianych przez Boga słów, a powszechnie wierzymy, że niczym nie można dotknąć bardziej, do żywego, niż słowem.

Język uwikłany w medialne formy wciąż zasobny jest w swoje pierwotne przymioty, ale jednocześnie jego pole znacznie się, pod wpływem interferencji tych technologii, poszerza. Mówić, we współczesnej kulturze, to już nie tylko posługiwać się naturalnym aparatem mowy i słuchu czy pisma. To także, a w wielu sytuacjach przede wszystkim, komunikować się za pośrednictwem dostępnych maszyn i form medialnych (nie tylko tych, które – jak telefon, gramofon czy książka – zostały poświęcone utrwaleniu i transmisji mowy/pisma jako komunikatu akustycznego i wizualnego). To posługiwać się mediami z równą atencją i kompetencją, które umożliwiają akt mowy. Analfabetyzm medialny wyklucza dziś z życia społecznego i kulturowego, podobnie jak niegdyś wykluczał, skazywał na marginalizację, tradycyjny analfabetyzm związany wyłącznie z kulturą piśmenności. Mówić, to znaczy zarówno posługiwać się mową czy pismem, jak i wszelkimi technologicznymi przedłużeniami tych naszych naturalnych interfejsów (McLuhan) – pod warunkiem, że są to narzędzia działające na podobieństwo języka, to jest działające w obu komunikacyjnych kierunkach, od i do mówiącego, interaktywnie (jak to precyzuje dyskurs nowomedialny).

Wpływ technologii na język mówiony i pismo wydawał się szczególnie widoczny w obliczu Galaktyki Gutenberga, w której przejął od technologicznych form druku i drukowanej logiki narracji takie elementy, jak choćby indeksowanie, linearność, precyzję, gramatykę, itd. [69]. Technologizowana w ten sposób mowa stojąca w obliczu swojego technologicznego alter ego została w swej pierwotnej wersji zepchnięta na margines zdarzeń medialnych w epoce mediów analogowych (nie licząc telefonii i radia), przekształcając się w tekstualność. Wraz z nadejściem mediów elektrycznych, a szczególnie nowych mediów, na nowo staje się konstytutywnym dla kultury elementem – Walter Ong twierdzi nawet, że wraz z mediami transmitującymi ludzką mowę w formie akustycznie zbliżonej do oryginału pojawia się w kulturze wtórna oralność. Najpierw język spłodził pismo, pismo ewoluowało w kierunku kodów liczb i matematyki, jako ich gramatyki, oraz pisma w rozumieniu komunikacji językowej. Obecnie mamy do czynienia zarówno z językiem pisma, jak i językiem/pismem matematyki. Ich wzajemne relacje są, to naturalne, złożone i wielowymiarowe, jednak w alfabetyzmie, przez który rozumiemy dzisiaj technologie medialne i mówimy nimi/je, te osobne kształty języka schodzą się na powrót [70].

Bliskość medialnej wyobraźni, języka i technologii cyfrowych tworzy przestrzeń kulturową, która domaga się nieustannej systematyzacji i refleksji. Na obecnym etapie kompetencji medialnych rozwijają się niektóre jedynie elementy składające się na ten konglomerat. Równomierne i bezpieczne kulturowo rozwijanie kompetencji komunikacyjnych będzie miało zasadniczy wpływ na system edukacji, społeczną ekologię informacji czy ekosystem medialny. Zmienić się zatem będą musiały także systemowe rozwiązania związane z konstruowaniem i dystrybucją kompetencji medialnych. Obok już istniejących metaalfabetyzmów – piśmiennego i wizualnego objawia się nowa różnica rozpinająca się pomiędzy alfabetyzmami analogowym i cyfrowym.

Kształt nowego, cyfrowego alfabetyzmu wydaje się wyłaniać z kilku źródeł. Są nimi wspomniana już przeze mnie zdolność nie tylko do czytania mediów (epoka kultury masowej), ale i do ich pisania, mówienia nimi i współtworzenia – czyli podobieństwo gramatyki cyfrowego języka i jego fenomenologii do aktów mowy i konstrukcji językowych. Drugim najbardziej generalnym dogmatem cyfrowej wyobraźni medialnej i towarzyszących jej kompetencji komunikacyjnych jest świadomość natury cyfrowego kodu, która oznacza oswojenie z dematerializacją zawartości informacyjnej (symbolicznej) i form medialnych, uznanie ich hybrydycznego statusu ontycznego. Trzecim źródłem okazuje się wiara w liberalizującą i zapewniającą postęp siłę samej technologii. Cyfrowe kompetencje biorą się także z kulturowego przeświadczenia o zapisanej w postępie technologicznym obietnicy nieustannego rozwoju społecznego (której nie potrafi już zagwarantować polityka [71]).

Wspomniane źródła tworzące zręby nowego alfabetyzmu można, naturalnie, zredukować do szeregu mniej ogólnych konsekwencji. Wiele z nich, często odseparowanych od holistycznego kontekstu, służy jako budulec różnego rodzaju mitologii i strategii politycznych, ekonomicznych i technokratycznych. Jedną z nich jest choćby omówiona już wcześniej narracja Web 2.0 czy mity związane z funkcjonowaniem collective intelligence. Cyfrowa alfabetyczność stała się także przedmiotem troski różnego rodzaju organizacji rządowych, ministerstw i podmiotów międzynarodowych, które – w imieniu dotychczas istniejącego systemu komunikacji społecznej – rozpoczęły szeroko zakrojone działania mające na celu wykorzystanie tej optymistycznej retoryki do realizacji strategii odgórnego dystrybuowania oficjalnie opracowanych i uznanych modeli postępowania z cyfrowymi mediami. Także i nauka na obecnym etapie rozpoznawania i teoretyzowania nowego medialnego świata jest w stanie absorbować jedynie niektóre wątki tej zmiany. Dotychczas wielu teoretyków zabierających głos w sprawie natury cyfrowego alfabetyzmu skupiało się głównie na podkreślaniu jego transmedialności i inspirowaniu kreatywności. Pojawiały się diagnozy mówiące o możliwości skupienia się na ideach przekazywanych przez media zamiast na ich technicznych formach, o wolnym dostępie do informacji, o komunikacji możliwej ponad tradycyjnymi ograniczeniami czasu i przestrzeni [72]. Krytyczną edukację medialną wziął na siebie natomiast dyskurs sztuki mediów wraz z alternatywnymi środowiskami kultury medialnej. Nie wchodząc w ten temat głębiej, stwierdzę tylko, że to instytucjom i organizmom cyberkulturowym nowego typu: medialabom, centrom sztuki nowych mediów, uczelnianym klasterom i hubom, organizacjom pozarządowym, współczesność zawdzięcza zręby krytycznej wiedzy i świadomości cyfrowych mediów i sieci oraz inspirowanie rozwoju zupełnie nowych dyskursów i platform debaty związanych z tymi zmianami [73]. Oficjalne podmioty polityczne, administracja państwowa, instytucje tradycyjnej sztuki i edukacji zdają się wciąż postrzegać zarówno zmianę w medialnym świecie, jak i rekonstrukcję medialnego języka jako przestrzeń, którą da się klasycznymi sposobami i według klasycznych metod okiełznać i wykorzystać – w oparciu o istniejące rozwiązania prawne, instytucjonalne i rynkowe odnoszące się do własności intelektualnej, kontroli nad ekosystemem informacyjnym, dystrybucji techniki, itd.

Jeszcze inaczej formować się będzie świadomość kondycji postmedialnej. W alfabetyzmie postmedialnym rozmyje się/zniknie powszechna świadomość mediacji – podobnie jak w czasach przedmedialnych nieobecna była świadomość języka, dystans wobec niego, który umożliwiają konkurencyjne formy komunikacyjne. Ostatecznym etapem tego recyklingu i stapiania się medialnych form oraz zanikania formuły i świadomości medium może okazać się, przypomnę, zrównanie ról języka i uniwersum technologii komunikacyjnych, zniesienie kulturowych i organicznych barier między naturalnym sensorium i jego technologicznymi alternatywami (mediami). Obawa o taki rozwój wydarzeń towarzyszy refleksji kulturowej od dawna (McLuhan, Postman), jednak kumuluje się ona głównie w nawiązaniach do twardych rozwiązań technologicznych, maszynowych i elektronicznych protez, które zastąpić mają ludzkie organy i inteligencję. Sądzę, że w obliczu zmiany postmedialnej poprzedzą je rekonstrukcje w zakresie kulturowego języka mediów, ich semiotyczna i techniczna antropomorfizacja. Jednocześnie, tak jak ma to miejsce w porządku ontycznym cyfrowego świata, problemy hardware przesłoni software. To ta sfera może spełnić funkcję społecznie dostępnego i dającego się kształtować (programować) języka nowych mediów i to ona, za sprawą swojej multi- i transmedialności, stać się może w pierwszej kolei alterjęzykiem kultury i najważniejszym uniwersalnym kodem żyjących w niej homo communicans.

Przejdę teraz do wstępnego szkicu postaw, do których przyjmowania i internalizowania mogą ośmielać swoich użytkowników cyfrowe media, nowy alfabetyzm i cyberkulturowe otoczenie. Odwołam się w tym celu w pierwszej kolejności do H. Arendt, przypominając jej filozoficzne rozpoznania kondycji ludzkiej. Filozofka zdefiniowała przemysłową, odtwórczą pracę jednostki jako zniewolenie, przeciwieństwo pełnego życia opartego na nieskrępowanym, kreatywnym działaniu i tworzeniu. Śladem Arendt można uznać, przypomnę, iż animal laborans to figura bliska kształtom medialnego konsumenta, bezmyślnego i manipulowanego elementu masowej publiczności mediów analogowych. Można też powiedzieć, że to postać posługująca się biernym alfabetyzmem czytelnika medialnego tekstu, który nie ma możliwości go zwrotnie mówić/pisać. Przeciwieństwem tej figury jest dla filozofki homo faber. To robotnik emancypujący się z niewoli powtarzalnej, mechanicznej i odtwórczej pracy. Arendt dowartościowuje w nim sferę działania (vita acitva), która w tradycji filozofii i kultury zachodniej została – także na skutek masowej produkcji przemysłowej, fordyzmu i mediatyzacji kultury – zdewaluowana na korzyść refleksyjnego i intelektualnego vita contemplativa [74]. W rezultacie przestrzeń rozciągniętą pomiędzy wyrobnikiem w technopolu a oddającym się jedynie myśleniu intelektualiście zagospodarowuje i odczarowuje świadomy swej roli i kompetentny rzemieślnik. W jego oglądzie i rozumieniu świata nie ma sztywnych, systemowych granic pomiędzy tym, co pomyślane, a tym, co stworzone z materii rzeczywistości, pomiędzy ideą i wyobraźnią a ich materializacją. Homo faber splata refleksyjność i działanie, czyniąc z nich, na powrót, nierozłączny w praktyce codziennego praktykowania życia monolit. Przy okazji neutralizuje homo faber także upolitycznione relacje pomiędzy sferą prywatną i publiczną, tworząc za sprawą swoich holistycznych działań sferę publiczną, bez której kategorie komunikacji społecznej czy mediów społecznych mają ograniczony sens.

Figura homo faber wydaje się modelowym przykładem aktywności inspirowanych w cyfrowym świecie i w dużej mierze już dziś widocznych w jego praktyce. Tę figurę podjęli jako pierwsi artyści pracujący z mediami, dla których łączenie wrażliwości estetycznej i artystycznej z wiedzą inżynierską i matematyczną okazało się zarówno naturalną ścieżką pracy, jak i koniecznością w kontakcie z coraz bardziej skomplikowanymi formalnie technologiami medialnymi, wybranymi przez nich artystycznym tworzywem. Miejsce artysty-romantyka wychowanego w oparach nowoczesności w obszarze sztuki nowych mediów zająć musiał sprawny technicznie artysta-rzemieślnik, osławiony przez mitologię cyfrowej rewolucji programista, inżynier, technolog wyposażony w krytyczną wrażliwość i wyobraźnię estetyczną. Homo faber to historyczna figura porzucona w okresie medialnej konsumpcji i medialnego fordyzmu, którą na nowo wywołuje stan postmedialny. Postmedialność ustawia medialny krajobraz przez wycofanie podmiotu z upolitycznionej i zawłaszczonej ekonomicznie sfery konsumpcji mediów i ich systemowego współtworzenia w ramach projektu mediów społecznościowych, interaktywnych i okoliczności transmedialności. Prowokuje w to miejsce restytucję postaci medialnego rzemieślnika, który łącząc praktyki postprzemysłowe i prosumpcyjne zarówno sensie materialnym (hardware – vita activa) jak i symbolicznym (software – vita contemplativa) struga, lutuje, projektuje, muruje, skręca, zdobi, sieciuje: konstruuje i rekonstruuje medialny świat, na nowo dekolonizując go mimowolnie/świadomie spod wpływu medialnego systemu kultury masowej. Dla homo faber nie mają znaczenia odsłonięte przez C. P. Snowa granice i różnice pomiędzy odseparowanymi przestrzeniami nauki i kultury [75]. Świat mediów cyfrowych to przestrzeń zaludniona przez emancypującego się z podziałów i reguł analogowej epoki technologii i politycznych/ideologicznych systemów medialnych cyfrowego homo faber. Współcześni geekowie, hackerzy, designerzy, programiści nie czynią sztucznych podziałów pomiędzy działaniem twórczym, pracą i kontemplacją życia. Rozłączone dotąd sfery nowoczesnego życia sklejają w codziennej pragmatyce swojego medialnego działania.

W ten sposób po epoce oświeconych specjalizacji i obiektywnych, scjentystycznie wyprowadzanych praw przypisanych do różnych dyskursów, dziedzin życia i dyscyplin naukowych powraca holistyczna wizja działania kulturalnego, której historycznie zawdzięczamy np. wspaniały rozkwit kultury renesansowej. W pierwszych słowach Traktatu o malarstwie Leonardo da Vinci, dziś uznawany za najbardziej emblematyczną i modelową z osobowych ikon renesansu, zalecał młodym adeptom sztuki malarskiej, by rozpoczynali swoją karierę od porządnych i wszechstronnych studiów zasad geometrycznych i praw natury. Jedynie wyposażeni w taką wiedzę i wynikającą z niej wyobraźnię będą w stanie oddać idee i kształty w formie obrazów [76]. Florencki mistrz wyraził na kartach swojego podręcznika ówczesne przekonanie dotyczące charakteru pracy artystycznej i zakresu kompetencji i umiejętności, którymi artysta powinien się cechować. Artysta nie może sobie pozwolić na niestaranną i niepełną wiedzę z zakresu matematyki, fizyki, filozofii, chemii, astronomii – wszystkie te zasoby potrzebne mu są do tego, aby był w stanie wypowiedzieć się kompetentnie w obszarze sztuk wizualnych, ale także architektury, rzeźby, muzyki.

W ten sposób sztukę, kulturę i pracę pojmowali także inni renesansowi wielcy mistrzowie, którzy równie twórczo i kompetentnie realizowali się jako inżynierowie, artyści i naukowcy. Tak działali i żyli Filip Brunelleschi, Rafael Santi czy Michał Anioł Buonarotti. W renesansowej praktyce rozmyty został w ten sposób tradycyjny, antyczny podział na techné i episteme, czyli obszar umiejętności związanych z mechaniką, a zatem i materią, oraz wiedzą, którą dziś określamy najczęściej jako teoretyczną. Zarówno w greckiej, jak i rzymskiej hierarchii wiedza i umiejętności związane z materią i jej mechaniką, czyli rzemieślnicze, oceniane były najniżej. Postrzegano je jako najmniej godne człowieka wolnego. Artyści cinquecento byli jednak z wyboru zarówno filozofami, jak i rzemieślnikami, równie sprawnie pracowali w obszarze idei, jak z materią. Da Vinci i jemu współcześni postawili sprawę jednoznacznie: sztuka to nauka, dzieło artysty jest zarówno ideą do wiedzy dzięki nauce się odnoszącą, jak i jej materialnym przejawem. Sam Leonardo u schyłku życia jednoznacznie definiował siebie samego jako człowieka nauki, niechętnie posługując się w kontekście kategorią „artysta” [77].

Za sprawą sztuki mediów i jej twórców wiedza i nauka na nowo trafiają do świata sztuki. Trudno przecież w obliczu niezwykłego zaawansowania technologicznego mediów uprawiać ich sztukę, kiedy nie dysponuje się wiedzą z zakresu programowania, optyki, fizyki, inżynierii, typografii, itd. Artyści pracujący w tym obszarze są z tego powodu współczesną awangardą sztuki w ogóle. Model artystycznej pracy z mediami powiela się w pracy programistów i inżynierów medialnych, którzy nie posiadając wiedzy z zakresu projektowania graficznego, typografii, psychologii kolorów, antropologii interakcji, nie są w stanie ani przemyśleć, ani realizacyjnie doprowadzić swoich projektów samodzielnie do końca. Homo faber pracujący z nowymi mediami uwikłany/skazany jest na nieustanne odnoszenie się do różnych gałęzi rozproszonej po dyscyplinach wiedzy i jej integrowanie w ramach realizowanych z mediami działań. To rzemieślnik technologicznej, medialnej materii (hardware) i filozof, teolog medialnych idei (software) – artysta, który w swoich dziełach integruje te sfery i nadaje im kulturową, tj. estetyczną twarz. Peter Weibel, jeden z najważniejszych współcześnie artystów medialnych oraz kurator sztuki mediów i jej organizator, podsumowuje, wyrażając przekonanie wielu przedstawicieli tego środowiska, tę bliskość parafrazując znane słowa Erazma z Rotterdamu: artysta mediów nie może być głupi – musi być naukowcem! [78] W tym holistycznym i renesansowym duchu sens projektu cyfrowego postrzega także polski badacz nowych mediów i ich sztuki Piotr Zawojski, który definiując cyberkulturę podkreśla syntopijny związek sztuki, nauki i technologii na nią się składających [79].

Przechodzenie ku kondycji postmedialnej w duchu renesansowych idei potwierdzają także ci badacze cyfrowych technologii i ich kultury, którzy w centrum swojego zainteresowania nie lokują sztuki mediów. Jednym z nich jest Ben Shneiderman, profesor informatyki zajmujący się ewolucją systemów komputerowych. W swoich rozważaniach Amerykanin odnajduje renesansowe inspiracje między innymi w paradygmatycznej zmianie w obszarze komputeryzacji: przejściu pomiędzy old computingnew computing [80]. W starym ekosystemie cybertechnologicznym człowiekowi powierzona została rola ostatniego, dodatkowego ogniwa. Jego zadanie było proste: instruować maszynę odnośnie do wykonywanych przez nią sekwencji, nadzorować poprawność ich kalkulowania oraz odbierać wyniki tego procesu. Funkcjonalnym centrum cybernetycznego świata był w tej fazie komputer: jego rdzenie obliczeniowe, szybkość prowadzonych kalkulacji, zdolność do przechowywania danych, umiejętności łączenia się z innymi maszynami.

Pierwsza ze zmian, której należy dokonać na drodze ku nowej komputeryzacji – sugeruje amerykański wizjoner – to dekonstrukcja tej maszynocentrycznej fazy. Ma ona polegać na przesunięciu inżynierskiego, technokratycznego punktu ciężkości w rozwoju cybernetycznego świata, opierającego się wyłącznie na „racjonalnych” parametrach, w kierunku potencjału człowieka. Nowa komputeryzacja winna odwoływać się do logiki ich docelowych użytkowników, ich wrażliwości, potrzeb, wartości, zdolności i ograniczeń. Druga, paralelna, transformacja miałaby polegać na przejściu od maszynocentrycznych czynności automatycznych do skupionych na użytkowniku modeli dostarczania usług i zasobów – to wizja tzw. universal usability, czyli uniwersalnej użyteczności cyfrowych maszyn. Na potrzeby tego porządku pojawią się już niebawem komputery kwantowe, które zastąpią komputery elektroniczne i dotychczasowe kulturowe kody cyfrowości. W miejsce modelu: 1 plik, 1 odbiorca, 1 przestrzeń, 1 czas pojawi się alternatywa w postaci: x plików, x odbiorców, x przestrzeni i x czasów. Każdy, wszędzie, o każdej porze – oto formuła przyszłości cyfrowej, w której dotychczasowy user zyskuje zdolność do permanentnego zanurzenia w cyfrowych sieciach. Użytkownik przyszłości staje się interfejsem pomiędzy sztucznym światem wirtualnym i realnym. Tym samym, za sprawą usera, światy wirtualny i realny będą się ze sobą przeplatać na tysiące różnych sposobów i będą od siebie nierozerwalnie zależne, a cyfrowe technologie z opartych na elektronach ewoluują do form opartych na fotonach.

Nowa komputeryzacja ma być narracją kulturową, która wyniesioną na piedestał ikonę rewolucji technologicznej maszynę obliczeniową zastąpi nową; dla jej użytkownikaa komputer będzie jedynie narzędziem. Przykładem myślenia o cyfrowym świecie w duchu podmiotocentrycznym jest ruch Do-It-Yourself, czyli środowiska i społeczności, które łączy pasja wspólnego kreatywnego „psucia” i remiksowania już istniejących mediów, ale także idea budowania od podstaw alternatyw dla oficjalnie dystrybuowanych rozwiązań technologicznych [81].

Trudno ten paradygmatyczny zwrot postulowany przez Shneidermana rozumieć inaczej, jak tylko na zasadzie odwrócenia procesów zaobserwowanych przez Arendt. Tak jak niegdyś nowoczesny animal laborens zastąpił w medialnym świecie homo faber, tak dziś, w cyfrowych okolicznościach, dochodzi do emancypacji konsumenta/odbiorcy podejmującego na nowo rolę medialnego rzemieślnika: twórcy i wytwórcy. Laptop Leonarda – taki tytuł dał swojej książce Shneiderman – to komputeryzacja w rękach człowieka renesansu, będącego zarazem artystą i programistą, architektem i elektronikiem, znawcą anatomii i specjalistą od baz danych i wyszukiwarek. Medialny homo faber holistycznie obejmuje praktykowanie technologii cyfrowych i sieciowych jako zarazem artystyczną i techniczną, materialną i ideową, komunikacyjną i poznawczą aktywność. Na obecnym etapie rozwoju sztuki, technologii i kultury mediów cyfrowych najbliżej do tego modelu artystom mediów. Znacznie trudniej w takiej praktyce działania odnaleźć się technologom i technokratom przekonanym o wyższości oświeceniowej wizji techniki i wiedzy. To wyzwanie dla obu postaw, aby w cyberkulturowym pędzie współczesności uzgodnić wzajemne relacje i na nowo zdefiniować kompetencje kulturowe związane z tworzeniem wiedzy i jej relacjami z rozwojem technologicznym i jego cyfrowymi formami. Pozostaje pytaniem otwartym, o ile unikalne rozumienie i konstruowanie świata ludzi renesansu okaże się wartościowe i pożądane dla stymulowanych przez cyfrowe maszyny medialne współczesnych modeli i strategii życia [82].

Postrzeganie postmedialnych okoliczności i doświadczeń w duchu renesansowym wypada zbalansować skrajnie przeciwną tendencją, której wpływ na kształt współczesnego dyskursu humanistyki jest znacznie bardziej uchwytny i zauważalny. Ogniskuje się ona wokół sfery biologicznej i stara się dyskursywnie poszerzyć rozważania na temat człowieka i kultury o obszar biologii, genetyki i ekologii. Chodzi o wywołany równolegle z pojawieniem się technologii cyfrowych, za sprawą odkrycia DNA i badań jego struktury/właściwości, dyskurs poświęcony ontycznej naturze życia i biologicznej, genetycznej charakterystyce człowieka jako gatunku oraz naukowemu definiowaniu życia. W rezultacie coraz większej popularności rozważań o świecie, człowieku i kulturze, dokonujących się w kontekście biologicznej natury życia, wykształcił się dyskurs posthumanizmu (inaczej nazywanego również transhumanizmem, choć to określenie odnosi się bardziej do możliwości technologicznego poszerzania definicji organizmu i jego zdolności [83]). Wraz z nim pojawiły się takie kategorie, jak biomedia, a semiocentryczny (uznający kulturę za komunikację) i cybernetyczny (uznający za komunikację wymianę napięć elektrycznych) model komunikacji uzupełniono o dyskursywne (w polu sciences) konceptualizacje poświęcone problematyce komunikacji genetycznej oraz zachodzącej pomiędzy ludźmi na poziomie niekulturowym (feromony, fale, zapachy), a także komunikacji transgatunkowej: pomiędzy ludźmi a innymi organizmami żywymi (DNA uznany został za kod – do konsekwencji tej decyzji wrócę w kolejnym rozdziale) i wreszcie pomiędzy nimi samymi. Jednocześnie twórców technologii cyfrowych niemal do białości rozpalała wizja sztucznej inteligencji, czyli możliwości stworzenia komputerowych systemów zdolnych do naśladowania ludzkiego myślenia, jego usprawnienie i uniezależnienie, w konsekwencji, od funkcjonowania mózgu, organizmu i człowieka. Systemy te powstać mają jako efekt zaawansowanych badań nad poznaniem ludzkiego genomu oraz tworzenia kognitywistycznych i behawioralnych modeli działania ludzkiego mózgu i systemu nerwowego w ogóle. Zbliżenie projektu cyfrowego z dokonaniami i wiedzą z zakresu biologii zaowocowało syntetycznymi teoriami ojców-założycieli cybernetycznego świata: Turinga, Wienera i wielu innych postępowych cybernetyków.

Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].

Dekadę później ten dyskurs jest już jednak na innym etapie swojej ewolucji. Z jednej strony posthumaniści upewnili się co do swojego przypuszczenia, iż rodzaj ludzki w swej obecnej formie jest dopiero w początkowej fazie rozwoju, zaś szansą dla całego gatunku jest rozwój technologiczny i możliwa dzięki niemu cyborgizacja natury ludzkiej. Z drugiej strony, współcześni posthumaniści coraz śmielej przyglądają się komunikacji transgatunkowej, której rozpoznania i konceptualizacje prowadzą do wniosków, że człowiek nie jest jedynym gatunkiem zdolnym do komunikowania się. Tym samym znaczenie czynnika technologicznego w praktyce tego dyskursu osłabło. Został uznany za jeden z wielu mających wpływ na nową sytuację kultury. W ten sposób z idei i teorii posthumanistycznych wyrósł także transhumanistyczny model komunikacji. Cary Wolfe, amerykański literaturoznawca i kulturoznawca, badacz dyskursu posthumanistycznego, sądzi, że punktem ciężkości transhumanizmu jest podważenie obowiązującego dotychczas w kulturze i nauce antropocentryzmu. Kulturowym wyzwaniem jest dzisiaj tworzenie etyki uniwersalnej, której zasięg obejmie poza ludzkimi zwierzętami także inne gatunki (non-human animals), dzięki niej możliwy ma być demontaż partykularnej, antropocentrycznej etyki tradycyjnej i nowy pluralizm jej form [85]. Wolfe fundamenty swojej teorii lokuje w krytyce derridiańskiej dekonstrukcji, która na długie lata zawładnęła studiami kulturowymi. Kultura i wszelkie jej wytwory są nie tylko tekstem, który można i należy dekonstruować poszukując ukrytych wymiarów, struktur i znaczeń, ale także, a może przede wszystkim, przestrzenią życia biologicznego, którego złożoność wciąż nie jest dobrze rozpoznana i która została w humanistyce przesłonięta przez zwrot lingwistyczny. Miejsce tekstocentrycznego antropocentryzmu winien zająć uniwersalny dyskurs poświęcony uznaniu podmiotowości, która obejmować będzie już nie tylko człowieka, ale i gatunki ujarzmione w jego swojego panowania [86].

Posthumanistyczna retoryka, choć skupiona coraz bardziej na elementach biologicznych i kierująca się w stronę propozycji transhumanistycznych, ma wciąż dużo wspólnego z dyskursem cybernetycznym i innymi związanymi z rozwijaniem i upowszechnianiem projektu cyfrowego. Wiele z posthumanistycznych wizji i hipotez zostało przejętych do powszechnej narracji związanej z rozwojem cyfrowości, co dodatkowo sprawia, że również z tej perspektywy stają się one przedmiotem ogólnokulturowej debaty. Pojawienie się wspomnianych tu pojęć i żywiołowa, budząca kontrowersje debata wokół nich prowadzi do pytań, na które odpowiedzi mogą zmienić nie tylko medioznawczy i humanistyczny stosunek do takich pojęć, jak nadawca, odbiorca, komunikat, kod, medium, ale prowadzić mogą również do redefiniowania uznanej wiedzy o podmiotach działań komunikacyjnych/kulturowych oraz radykalnie przekształcić kulturową przestrzeń mediacji/komunikacji [87]. 7 lipca 2012 roku grupa neurologów, neurofarmakologów, neurofizjologów i neuroanatomów związanych z Uniwersytetem w Cambridge podpisała deklarację potwierdzającą istnienie świadomości u zwierząt i postulującą w związku z tym zmianę podejścia nauki do świata organizmów żywych [88]. Choć to tylko jeden z epizodów, które wyznaczają koloryt tego dyskursu, to można na jego podstawie łatwo zorientować się co do ciężaru gatunkowego całej debaty. Podejście posthumanistyczne rezonuje wzrastaniem pojęć, które stają się także coraz bardziej istotnymi elementami konstytuującymi dyskurs cyberkulturowy i opisującymi dynamikę współczesnego świata w ogóle.

Kategorią, która bodaj najlepiej i najbardziej holistycznie łączy oba te dyskursy jest pojęcie biomediacji i wywołujących ją biomediów. Eugene Thacker, teoretyk mediów zajmujący się biomediacjami, sytuuje je w kulturowym i biologicznym zarazem polu, w którym spotykają się i reagują ze sobą kody życia, czyli zakodowane w genomach „informacje” i instrukcje, z kulturowymi kodami technologii. Biomediacje biorą się z faktu odkodowania informacji zapisanych w genomie, ale jednocześnie z faktu, iż takie odkodowanie interferuje z procesami i zjawiskami kulturowymi. Stają się nową modalnością kultury współczesnej, nowym punktem referencyjnego odniesienia dla takich form kulturowych, jak komunikacja, technologie, polityka [89]. Biomedia to pojęcie, którego semantyka wskazuje w rezultacie na możliwość cybernetycznej manipulacji kodem DNA oraz konstruowania cybernetycznego świata na podstawie matryc i modeli, które odsłaniają badania natury DNA i mechanizmów naturalnego życia. Tworzą informacyjną rekontekstualizację biologicznych zjawisk i procesów, która ma nie tylko znaczenie medyczne, ale wpisuje się także w kulturowe, społeczne, polityczne i naukowe dyskursy i praktyki [90]. To, inaczej mówiąc, postrzeganie biologicznego „kodu” jako bazy danych, którą można zarządzać za sprawą odpowiednio przygotowanego software oraz posługiwanie się wzorami, regułami, „Interfejsami” zawartymi w różnych formach biologicznego życia jako wzornikami form technologicznych, modelami mediacji i komunikacji, ekologii kultury.

Bardziej ogólne rozpoznanie biomediacji i jej kulturowych oraz technologicznych uwarunkowań znajdziemy w filozoficznej antropologii techniki Bernarda Stieglera. Jego zdaniem antropogeneza implikuje technogenezę, co oznacza, że historię technologii medialnych można interpretować jako doskonalenie form technicznych, które naśladują naturę i stanowią protezy wytyczające kształt życia w świecie. Stiegler pisze:

Łapy stają się rękami, kiedy zaczynają posługiwać się instrumentami i narzędziami. Dłoń pozostaje sobą dopóty pośredniczy w dostępie do sztuki, do sztucznego i do tekhné. Stopy mają wymiar ludzki dokąd niosą samodzielnie ciężar człowieka, a jego ręce wypełniają ich przeznaczenie, oferują możliwości manipulowania światem, nowe relacje pomiędzy dłonią i twarzą, mową i gestem… [91]

Oba procesy przebiegają równolegle, a w rezultacie technika i człowiek są ze sobą nierozerwalnie sprzężeni. Człowiek wynajduje technikę, a technika stwarza człowieka. W tej sytuacji trudno pominąć biologiczny aspekt tego zapętlenia i doniosłość sfery organicznej dla kształtu komunikacji. Biomediacje to jeden z naturalnych stanów kultury, a w nowomedialnym języku związek pomiędzy biologią a kulturą można porównać do hybrydy: hardware (biologia) i software (kultura), dla których człowiek jest referencyjnym, naturalnym interfejsem i systemem operacyjnym.

Biomediacjom wiele uwagi poświęcają dzisiaj przede wszystkim artyści mediów. To im nowomedialny dyskurs zawdzięcza sformułowanie i stawianie najważniejszych pytań i krytyczną eksplorację obszaru. Tej problematyce swoją działalność artystyczną poświęcili tacy ważni artyści mediów, jak: Edouardo Kac [92], który eksperymentuje z manipulacjami kodem genetycznym, czy Paul Vanouse, który obnaża kulturową problematykę DNA. Innym tropem idą artyści pracujący z interfejsami i za ich pośrednictwem starający się dotrzeć do biologicznego rdzenia osobowości i organizmu. Chodzi im o omijanie ograniczeń naturalnego ludzkiego sensorium i komunikację za pomocą wyrafinowanych interfejsów bezpośrednio z mózgiem. Tak pracuje np. japoński artysta i teoretyk nowych mediów Kiyoshi Furukawa badający fale mózgowe [93].

Jeszcze inny tag, który od niedawna funkcjonuje w cyberkulturowym dyskursie, wskazuje na potencjał nowych technologii w zakresie redefiniowania znaczenia i postaci życia we współczesnej kulturze popularnej. Tym terminem jest dopełnienie ontycznego dualizmu software/hardware o element wetware lub mindware. Oba wywodzą się z dyskursu cyberpunkowego i futurystycznego i wskazują na pomijany/lekceważony dotąd w projekcie cyfrowym element ludzki, zarówno w sensie biologicznym, kognitywistycznym jak i duchowym. Posługujący się nim używają go, aby zrównoważyć znaczenie technologii cyfrowych, zmiękczyć ich twardą, technologiczną siłę elementami wrażliwości ludzkiej i biologią ludzkiego organizmu. Wetware to kategoria bio-hakerów, czyli społeczności, która za pomocą rozwiązań technologicznych testuje i weryfikuje możliwości ludzkiego organizmu i poszukuje technicznych rozwiązań mających ulepszyć istotę człowieka i przenieść ją w nowy wymiar kulturowy i biologiczny [94]. Jak widać biomedia są także przestrzenią strategii hakingu, które przecież dla projektu cyfrowego mają zasadnicze znaczenie. Mindware to zaś eksperymentalne pojęcie, za którego pomocą badacze, artyści i animatorzy kultury w ramach projektu Mindware. Technologie dialogu[95] starali się objaśniać sprzężenie zwrotne pomiędzy maszynami obliczeniowymi i człowiekiem, ich użytkownikiem. To sprzężenie ma również charakter biotechnologiczny, ale dotyczy przede wszystkim wyobraźni kulturowej i medialnej. Osadzona wewnątrz projektu cyfrowego wyobraźnia zaczyna na niego reagować, przetwarzając cyberkulturowe mitologie, kształty i struktury. W ten sposób konstruowany jest język, którym mówimy w cyfrowym świecie, stąd bierze się przekładanie technologicznym ram na kulturowe oblicza życia – często mówimy o mózgu jako jednostce centralnej, dysku twardym, itd. Jednocześnie wraz z impetem technologii cyfrowych i sieci powstaje zapotrzebowanie na odpowiednie mechanizmy i struktury poznawcze, percepcyjne, logiczne, itd., których zadaniem ma być oswajanie technologii cyfrowych dla ich użytkownika i dla kultury, podporządkowywanie ich już dostępnym mentalnym wzorcom i regułom. Temat ten sytuuje się na granicy kultury i biologii, percepcji i komunikacji, zarówno w obszarze działań komunikacyjnych jak i towarzyszących im refleksji i dyskursów. Dotyka także kategorii miejsca i przestrzeni – można by tu jedynie wskazać na postmedialny charakter trzeciej przestrzeni (kategoria autorstwa Homi Bhabha) [96].

W poprzednim rozdziale naszkicowałem ogólną topografię sytuacji postmedialnej. Rozciągnąłem w niej na obszar komunikacji medialnej diagnozy krytyków i teoretyków sztuki mediów, przekonanych co do faktu, iż w dobie powszechnej cyfryzacji technik medialnych dawne pojęcie medium i zespół desygnatów z nim związanych ulegają dekompozycji. Rzeczywistość zapełniona cyfrowymi mediami uznałem za przestrzeń, w której dotychczas znane kulturze idee, estetyki i gramatyki medialnych form stapiają się i stają się najpierw nierozróżnialne, a z czasem niewidzialne – wypierane są przez strukturę cyfrowego kodu, software i interfejsów.

W tej części pracy zajmę się cyfrowym kodem. Uznaję go za substancję kondycji postmedialnej: jest on zawsze (w różnych software’owych i interfejsowych wcieleniach) samozwrotny i autoreferencyjny; pełni funkcję zarazem instrukcji informującej maszynę i jej interfejs co do logiki i formy potencjalnego działania, jak i jestmaterializującym się w medialnych faktach działaniem cyfrowym. Postmedia zaszyfrowane w kodzie cyfrowym są zarazem nieustannie potencjalne, jak i gotowe na różne, natychmiastowe wywołania i egzekucje. Posługiwanie się nimi oznacza podtrzymywanie tego kodu w stanie nieustannej płynności, niedopowiedzenia – zarówno wybranych jego ciągów zmieniających się na zasadzie update, personalizacji, przykładanych interfejsów, jak i w przeróżnych konfiguracjach środowiskowych, kiedy ciągi kodów napotykają na siebie w działaniu, muszą się ze sobą „uzgadniać” i „współpracować”, być lub nie być kompatybilne. Płynność ta, jednocześnie, w kontakcie z użytkownikiem, maszyną, interfejsem natychmiast się materializuje, zastyga w postaci jakiejś formy komunikacyjnej, powstrzymując na chwilę nieustanny ruch w bazach danych [97].

Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.

Moje rozważania na temat kodu, elektryczności, matematyczności i software poprowadzę w trzech kierunkach. Najpierw, w dwóch częściach, zajmę się samym kodem badając jego hybrydyczna naturę, w której spajają się zjawiska naturalne (fizyczne) zwane ogólnie elektrycznością, oraz prawa logiczne (matematyczne), za sprawą których kultura ujarzmiła i podporządkowała sobie elektryczność. W trzeciej części tego rozdziału przyjrzę się obliczom kodu, który regulując technologiczną materię pozwala nam w kulturze ją formować i komunikować się z nią i za jej pośrednictwem – będzie to wejście na terytorium software.

II.1. Cyfry i matematyczność

Rozważania dotyczące cyfrowego kodu i jego kulturowej sytuacji należy rozpocząć od przywołania historii liczb, matematyki i uznania ich za uniwersalny kod świata. Już starożytni filozofowie, artyści i teologowie rozumieli rzeczywistość jako konstrukcję matematyczną, w której kształty I formy materii regulują wpisane w nie prawidła logiczne, wynikające z zależności liczb i algorytmów odkrywanych później przez matematykę/kulturę. Ta matematyczna wyobraźnia przetrwała i rozwijała się do czasów współczesnych i, za sprawą rozwoju matematyki i pojawienia się technologii, które matematyczność obsługują/wykorzystują, dziś jest jednym z najważniejszych elementów konstytuujących generalny kształt wyobraźni kulturowej i technologicznej. Bez matematycznej wizji świata nie powstałaby nowoczesność: jej racjonalne nauki i ich nadbudowa, technika. Niemożliwy byłby, w konsekwencji, rozwój projektu cyfrowego, a w szczególności zawiadującego nim kodu binarnego i wyrastających zeń języków i systemów programistycznych, software i interfejsów – technicznego i kulturowego spoiwa współczesności.

W starożytności Pitagoras, a za nim Platon jako pierwsi dostrzegli, że cyfry konstytuują każdy istniejący fenomenem i każdą strukturę, odpowiadają za harmonię i symetrię świata. Święty Augustyn w swojej teologicznej teorii świata widział go jako konstrukcję matematyczną, zaś Boga jako wielkiego dysponenta liczb. Pisał:

Przypatrz się niebu i ziemi, i morzu, i temu wszystkiemu, co w ich granicach jaśnieje w górze, pełza na dole, lata lub pływa. To wszystko ma kształty, ponieważ ma liczbowe wymiary. Odbierz je, a nic nie pozostanie z tych rzeczy. […] I ludzie artyści, którzy tworzą przedmioty materialne o wszelkich kształtach, posługują się w pracy liczbami. I tak długo podczas pracy wykonują ruchy ręką i narzędziem, dopóki zewnętrzny kształt dzieła, porównywalny z blaskiem liczb, który jaśnieje wewnątrz, nie osiągnie dostępnej dla siebie doskonałości i nie spodoba się za pośrednictwem zmysłów wewnętrznemu sędziemu, wpatrzonemu w zaziemskie proporcje. Poszukaj następnie siły, która porusza ręce artystów. Będzie nią liczba. [98]

Zrozumienie natury i odkrywanie reguł matematyki oznacza dla tego klasycznego dla kultury europejskiej filozofa zdobycie mądrości, która pozwala na odsłanianie śladów doskonałości boskiego planu. To tradycją filozoficzna, astrologiczna, muzyczna i architektoniczna, którą stworzyli tacy wielcy intelektualiści, jak poza już przywołanymi: Johannes Kepler z matematyczną teorią budowy kosmosu czy Kartezjusz, który cyfry i matematykę uczynił podstawą myślenia naukowego. W siedemnastym stuleciu te liczbowe i matematyczne intuicje dobitnie potwierdził filozof Gottfried Wilhelm Leibniz, formułując swoje słynne zdanie: Cum deus calculat et cogitationem exercet, fit mundur (Gdy Bóg liczy i przemyśliwa, świat powstaje) [99] . W swojej pokartezjańskiej filozofii ugruntował w ten sposób pozycję matematyki i przekonanie o matematycznej naturze świata, wytyczając nowoczesną drogę dla teorii cybernetycznych i towarzyszących im maszyn kalkulujących w postaci teorii mathesis universalis, czyli uniwersalnej metody poznawczej i nauki, za których pomocą da się poznawać (przeliczać) rzeczywistość według reguł matematycznych [100]. Wiarę w uniwersalną matematyczność świata, jak nazywa tę jego cechę współczesny kosmolog i filozof nauki Michał Heller, potwierdzają nie tylko filozoficzne teksty różnych epok, ale i wiele innych kulturowych śladów minionych czasów, takich jak proporcje architektoniczne zawarte w egipskich piramidach czy gotyckich katedrach. Także i współcześnie zadziwia i inspiruje doskonałość matematycznych proporcji wpisana w strukturę bryły Cathédrale Notre-Dame de Chartres czy renesansowych, stosowanych w druku, malarstwie i architekturze poszukiwaniach i interpretacjach złotego podziału (łac. divina proportio). Inaczej mówiąc, wprost lub pośrednio, totalnie lub we fragmentach kultura i świat postrzegane bywają od momentu wynalezienie liczb i matematyki jako ich aplikacja, wcielenie. Wspomniana matematyczność to, obok racjonalności cechy świata pozwalające na jego badanie przy pomocy metody matematyczno-empirycznej, której kultura zawdzięcza oświecenie, nowoczesność i konstytucję współczesnych nauk i techniki.

Teza o boskiej/kosmicznej/pierwotnej/transcendentnej roli liczb i matematyki towarzyszy, jak widzimy, rozwojowi kultury, wiedzy i nauki od dawna i zdążyła na dobre przeniknąć większość znanych nam sposobów myślenia i konstruowania dyskursów i praktyk kultury. Wyrażone w postaci tych różnych form przekonanie o genetycznej i uniwersalnej w zasięgu matematyczności świata – to najbardziej doniosłe dla przedmiotu moich zainteresowań w tej książce przeświadczenie – stało się gruntem, na którym możliwe było uprawianie projektu cyfrowego. Jego fundamentem jest przecież, po pierwsze, przekonanie co do tego, że świat da się zakodować po postaci matematycznego kodu oraz, po drugie, że wartości tego kodu można poddawać matematycznym przeliczeniom, aby w ten sposób odsłaniać i zmieniać rzeczywistość. Projekt cyfrowy przejął w linii prostej ideową i formalną spuściznę tradycji filozoficznej, teologicznej, następnie technologicznej i nowoczesnej, które matematyczność świata uznały za jego referencyjną racjonalność i logikę.

Skoro tak wielka jest rola matematyki i matematyczności, to warto się zastanowić nad ich ontycznym charakterem. Zbadam teraz znaczenie matematycznego kodu oraz jego znaczenie dla rozwoju projektu cyfrowego. Pomimo generalnej dominacji nauk empiryczno-matematycznych i ich niepodważalnej siły eksplanacyjnej, która przyczyniła się do rozbłysku projektu nowoczesnego i wywołała rewolucję przemysłową, natura matematyki i sens liczb wciąż jednak pozostają problemem dla kultury i niektórych dziedzin nauki. Ich interpretacje okazują się skrajnie różne wśród analizujących ten fenomen badaczy. Można mówić o co najmniej trzech stanowiskach w zakresie filozofii matematyki i cyfr. Pierwsze z nich, dominujące i charakterystyczne dla dyskursu nauk wywodzących się z nurtu oświeceniowego (dzisiejsze nauki i metody ścisłe – sciences), precyzyjnie wyraża w swojej kosmologicznej teorii Heller wywodząc z racjonalnej i matematycznej natury świata także obiektywny charakter matematyki jako metareguły nim rządzącej i kształtującej go, wpisanej weń i będącej nim [101]. Drugie stanowisko zawdzięczamy ukształtowanym w wyniku zwrotu lingwistycznego dyscyplinom zaliczanym do ogólnego zbioru studiów kulturowych (nauk humanistycznych – humanities) i polega ono, najogólniej rzecz ujmując, na konstruktywistycznym przekonaniu, że liczby i matematyka są jedynie jednym z wielu języków/kodów, za pomocą których opisujemy świat i rozumiemy go. Jak każdy kod, tak i ten jest, ze swej natury, podatny na dokonujące się w czasie i przestrzeni (kontekst geograficzno-kulturowy) rekonstrukcje semantyczne, strukturalne, przybiera różne oblicza kulturowe pomimo wielu genetycznych podobieństw – jest społeczną konstrukcją, nawet jeśli uznać go za najbardziej abstrakcyjny z języków, za zasadniczy język wiedzy i nauki [102]. Z semiotycznym rozumieniem liczb i matematyki jako kodu kulturowego wiążą się także – to trzecie stanowisko – teorie kognitywistyczne, powstające na styku m.in. psychologii, neurobiologii, antropologii i lingwistyki, które definiują matematyczność jako twór ludzkiego mózgu, czyli strukturalną właściwość procesów myślenia i naturalną skłonność do porządkowania percypowanego świata właściwą gatunkowi, a być może także innym żyjącym gatunkom [103].

Przywołane idee i wydarzenia związane są z historią konstruowania i pozycjonowania matematyki jako dziedziny/dyskursu kultury. Z biegiem lat została ona uznana, jak to przedstawiłem, za uniwersalny kod, w którym został zapisany wszechświat i którego dekodowanie prowadzi do rozpoznania i zrozumienia jego istoty i podporządkowania jej cywilizacji. Taki stan rzeczy stał się najpierw jednym z aksjomatów przyjętych w ramach projektu oświeceniowego oraz w ramach napędzanej osiągnięciami empiryczno-matematycznej nauki rewolucji przemysłowej, a jednocześnie, jak wspomniałem, okazał się polem wywoławczym dla projektu cyfrowego. Na dobre od czasów Kartezjusza, Newtona (Matematyczne zasady filozofii przyrody [104]) i Leibniza kulturze towarzyszą idee i pomysły związane z wykorzystaniem matematycznej własności świata i przekształceniem jej, tu w sukurs przychodzi nabierająca tempa równolegle z projektem cyfrowym rewolucja przemysłowa, w narzędzie służące już nie tylko do czytania struktury wszechświata, ale i do jej konstruowania/pisania.

Taka rola cyfrowego kodu stała się właśnie fundamentalną podstawą maszyn liczących, których powołaniem miało być oparte na uniwersalnych zasadach matematycznych równie uniwersalne przeliczanie zawartości poszczególnych struktur – danych. Najpierw analogowe, a potem cyfrowe: wszystkie operowały na cyfrowym kodzie, mechanicznie kalkulując zadawane w tym „języku” zapytania. Konkurencyjne teorie matematyczności sugerują jednak, iż nie dla wszystkich taki status matematyczności jest akceptowalny. Szczególnie studia kulturowe i wiele dyscyplin bliższych współczesnej humanistyce (nie mylić z humanistyką w rozumieniu historycznym, dla której matematyka i liczby były fragmentami elementarnej filozofii) postrzegają matematykę zgoła inaczej. Niezależnie jednak od sporów o ontyczny, aksjologiczny i w zasadzie jakikolwiek inny wymiar matematyczności projekt cyfrowy możliwy był, jak to już mówiłem, dzięki systematycznemu wcielaniu w życie przekonania o tożsamości struktury świata i reguł odkrywanych przez matematykę. Uznającym wyższość tej teorii nie przeszkodziły nawet tak fundamentalne ustalenia co do charakteru matematyczności, jak to, które zawdzięczamy austriackiemu matematykowi Kurtowi Gödelowi. Austriak ten ostatecznie udowodnił w latach 30. ubiegłego wieku w postaci swojego równie znanego, co kontrowersyjnego, twierdzenia o niezupełności (incompleteness theorem), iż matematyka jest systemem otwartym, którego nie da się sformalizować/ograniczyć żadnymi aksjomatami ani regułami, ani zamknąć pod postacią danego systemu twierdzeń. Z tej reguły wynika dla cyberkultury jedno z najbardziej znaczących ograniczeń: nie można myśleć o doskonałej maszynie obliczeniowej, która byłaby w stanie skalkulować/przeliczyć model świata, całą rzeczywistość [105]. Niemożliwa jest również w związku z tym uniwersalna matematyczna wykładnia wszystkiego, swoisty digitalny „wzór na wszechświat”, ani odpowiadająca jej uniwersalna maszyna zdolna do realizacji uniwersalnego, totalnego zadania matematycznego. Istnieje za to wiele możliwych matematyk i wiele matematycznych prawd częściowych, podobnie jak i pracujących w oparciu o nie maszyn obliczeniowych. Podobnie z cyfrowymi kulturami – możliwe są różne ich odmiany, interpretacje, nieoczekiwane w nich zwroty i paradygmatyczne zmiany. Projekt cyberkulturowy pozostaje zatem otwarty, nigdy nie zakodowany ostatecznie, niesformułowany do końca [106].

II.2. Kod cybernetyczny

Przejdźmy teraz od tych ogólnych rozważań w zakresie rozumienia matematyczności, liczb i matematyki do teorii cybernetycznych, czyli ich najbardziej współczesnych, a jednocześnie konstytuujących bezpośrednie założenia projektu cyfrowego, postaci. Warren Weaver w fundamentalnej dla rozwoju cybernetyki pracy, popularyzującej matematyczną teorię informacji Claude’a Shannona, zatytułowanej Recent Contributions to the Mathematical Theory of Communication, zestawiał ją z fundamentalną dla semiotycznej, linguacentrycznej wizji kultury pracą Course in General Linguistics Ferdinanda de Saussure’a, będącą, dla odmiany, powszechnie uznanym klasycznym wprowadzeniem do językoznawstwa strukturalnego i semiotyki kultury. Zestawienie to ujawniło daleko idące różnice w rozumieniu komunikacji pomiędzy oboma podejściami. Semiotyczne jej definiowanie uwzględniało wiele czynników, które z cybernetycznego punktu widzenia nie miały żadnego znaczenia. Dla de Saussure’a, a także dla całej tradycji badań językoznawczych, a potem, po zwrocie językowym, dla humanistyki i nauk społecznych w ogóle kod (język) osadzony jest i działa przede wszystkim w określonym kontekście, oddziałują na niego znaczenia kulturowe i społeczne, składają się nań langueparole. Tak definiowany kod istnieje jedynie przez odniesienie do innych kodów i znaków, a realizowane za jego pomocą zdarzenia komunikacyjne zawsze pozostają w kulturowym sprzężeniu z wcześniejszymi, równoległymi i przyszłymi podobnymi jego emanacjami. Ważne są tu takie niuanse, jak nastawienie odbiorcy i nadawcy, wieloznaczność znaczeń przypisanych znakom czy fizyczny kontekst zdarzenia komunikacyjnego. Dla cybernetyków liczy się natomiast możliwie bezstratne przesłanie matematycznie zakodowanej informacji z nadajnika do odbiornika, tak aby w tej transmisji przeszkadzało jak najmniej strat (szumów, błędów) i aby miała ona jak najbardziej efektywny technologicznie (elektrycznie) wymiar. W teorii komunikacji Shannona wszelkie aspekty semantyczne związane z przepływem informacji są bez znaczenia – nie mają żadnego wpływu na proces komunikacji. Jak dosadnie stwierdza: semantyczne sensy komunikacji są bez znaczenia dla jej technologicznych form [107]. Informacja ma dla niego jedynie znaczenie wymierne matematycznie: określona ilość bajtów stratnie, lub bezstratnie (straty są mierzone w liczbach), jest komunikowana przez określony kanał komunikacyjny. W tym sensie cybernetyki nie interesuje i interesować nie może, co i w jakim celu jest komunikowane, jak również w jakich okolicznościach komunikat powstał i jak został zinterpretowany, ani też co się dzieje w jego kulturowym otoczeniu. Interesuje ją natomiast możliwie najbardziej dokładne (bezstratne i niezaszumione) przekazywanie sygnału, czyli impulsów elektrycznych, pomiędzy nadajnikiem i odbiornikiem [108].

Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.

Kilka lat później innemu matematykowi i cybernetykowi, Johnowi von Neumannowi, udało się urzeczywistnić wizję Turinga w postaci konkretnych rozwiązań technologicznych. Von Neumann obmyślił architekturę obliczeniowego jądra systemu cyfrowego, które przetwarzało jednocześnie dane proceduralne (algorytmy) i dane do analizy. Rozwiązania zaproponowane przez inżyniera nazywa się dzisiaj architekturą von Neumanna. Także i współcześnie stanowią one rdzeń funkcjonalny każdego ze znanych procesorów, procesów i układów elektronicznych przetwarzających elektrycznie cyfrowe dane. W matematycznym sensie von Neumann po prostu wcielił w życie koncept Turinga, udowadniając, że za pomocą matematyki można nie tylko odczytać konstrukcję rzeczywistości, ale i próbować ją cyfrowo/elektrycznie konstruować.

Matematyczna wyobraźnia i jej cybernetyczna translacja do wewnątrz maszyn i automatów tworzą wspólnie zręby projektu cyfrowego w jego obecnej postaci. Zdolność do zarządzania pracą maszyn za pośrednictwem szyfrowanych cyfrowo poleceń to fundament leżący u podstaw całej cywilizacji informacyjnej późnego kapitalizmu.

Przywołałem jedynie kilka spośród wybranych epizodów z wielowiekowej historii form, idei i wyobrażeń odwołujących się do matematyczności świata, uniwersalności matematyki jako metody jego poznania i tworzenia zdeterminowanych przez nie sytuacji kulturowych. Nie sposób w tym miejscu odwołać się do wszystkich ważnych dla tej historycznej prawidłowości punktów w czasie, idei, dyskursów i materializujących je w formie rozwiązań technicznych ludzi. Moim zamierzeniem było jedynie ogólne nakreślenie kształtującej się w duchu matematyczności wyobraźni i form technologicznych, które zmaterializowały się ostatecznie w dyskursie cybernetycznym i formach technologicznych zrealizowanych i planowanych w ramach projektu cyfrowego.

Z powyższych odniesień wynika, iż cyfry i matematyka stały się uniwersalnym kodem (niezależnie od sposobów jego definiowania), w który wyposażona została cyfrowość – posługują się nim jej technologowie, którzy informują maszyny co do sposobów działania (np.: BIOS, protokoły internetowe); programiści, którzy w oparciu o te instrukcje wykonawcze tworzą mniej lub bardziej zaawansowane aplikacje, systemy operacyjne, języki kodowania; projektanci interfejsów, którzy czynią te ciągi cyfrowego kodu zrozumiałymi dla użytkowników cyfrowych maszyn. W roku 2003 najważniejszy na świecie festiwal mediów cyfrowych i ich sztuki ARS Electronica zatytułowany został CODE – The Language of our Time. Kurator festiwalu w jego tytule zawarł wtedy pytanie natury zasadniczej: o to, czy w okolicznościach cyfrowej rewolucji jej digitalny kod można uznać za współczesną postać lingua franca? W jego przekonaniu, które wyraził w postaci potrójnego równania: Code=Law, Code=Art, Code=Life, cyfrowy kod i zasady jego wykorzystania stały się czymś jeszcze bardziej doniosłym i powszechnym. Kod i kodowanie osiągnęły nie tylko status uniwersalnego języka komunikacji medialnej, który programuje medialne formy i wytycza zasady gramatyki komunikacji w cyfrowej współczesności. Także i współczesna sztuka staje się funkcją cyfrowego kodu, a myślenie w jego duchu i działanie zbliżone do kodowania cyfrowego obserwować możemy w biologii w zakresie kodu genetycznego [111]. Stocker pisze:

Sformułowana przez Stockera teza to jedna z wielu podobnych konstatacji i deklaracji, które w ostatnich kilkunastu latach podnoszone są w obszarze sztuki, inżynierii, edukacji – kultury w ogóle. Tymi tropami myślenia do obiegu kultury popularnej przeniknęły intuicje, które pojawiać się zaczęły wraz z niezwykłym impetem rozwoju projektu cyfrowego w owym czasie. Festiwal jako pierwszy spośród dyskursów w obrębie sztuki, teorii mediów i analiz socjologicznych wyniósł cyfrowy kod i software na szczyt medialnej piramidy form i postrzegł je jako najważniejsze historycznie medialne narzędzie. Diagnozę tę dobitnie potwierdził pięć lat później Lev Manovich, deklarując, iż software, który na tym etapie rozważań można uznać za interfejsy kodu, przejmuje kontrolę nad kulturą mediów (Software Takes Command). Amerykanin poszedł jeszcze dalej, wysnuwając z zaobserwowanego stanu rzeczy radykalne wnioski dla statusu wiedzy o mediach: zasugerował konieczność przejścia od tradycyjnych metod i paradygmatów stosowanych w ich badaniach do nowej formuły software studies. Software nie tylko rządzi światem mediów; świat mediów poza software odchodzi do analogowego lamusa. Hardware jako centrum wydarzeń w historii komunikacji musi podzielić się władzą z domeną kodu i jego wewnętrznej gramatyki: składni, semantyki, ontologii i aksjologii.

Ducha debaty, która wciąż jeszcze nie zdobyła właściwego miejsca w dyskursie humanistyki, mogę bez ryzyka wykorzystać we własnej narracji dotyczącej sytuacji postmedialnej. To właśnie natura cyfrowego kodu i jego centralna pozycja w przestrzeni cyfrowych bytów i aktów medialnych powoduje, że postmedialność można innymi słowami określić jako stan, w którym wszystkie dotychczasowe formy i języki medialne poddają się cyfrowemu kodowaniu i jego wymogom. Tym samym (medioznawcy mają na to wiele określeń – cyfryzacja mediów, konwergencja, remediacje, mediamorfozy) stają się emanacjami, wersjami cyfrowej gramatyki, powielają jej reguły wcześniej dopasowując się do nich. Taki stan rzeczy oznaczać może rzeczywiste unieważnienie medialnego stanu rozplenienia medialnych języków, gramatyk i form, który jest technologicznym echem mitycznej sytuacji wieży Babel. Przekonanie co do tego jest oczywistością pośród twórców nowych mediów, dla których poszukiwanie uniwersalnej formuły kodu i programowania maszyn jest czymś w rodzaju poszukiwania świętego Graala, czyli zestandaryzowanego, zdolnego do wyrażenia wszelkich możliwych idei, wyobraźni i wrażliwości kulturowych na wszelkich dostępnych poziomach kodowania maszyn obliczeniowych. Idąc tropem tych rozważań automatycznie napotkamy pytanie o to, jak sytuacja postmedialnego ujednolicania języków i gramatyk medialnych wpłynie na kształt ich premedialnych pierwowzorów, czyli jakie są i jak się zmieniają relacje pomiędzy kodem cyfrowym a kodami lingwistycznymi? Jak ma się uniwersalny i wielowarstwowy kod komunikacyjny, tj. kod binarny i wszystkie zrealizowane w oparciu o niego warstwy software, do języków, i jego medialnych wcieleń, a pośród nich przede wszystkim pisma, którymi się na co dzień posługujemy? Skoro rozwój cyfrowości powtarza etapy ewolucji kultury, choćby te, które opowiada historia wieży Babel, to czy kod cyfrowy można uznać za budową nowej, technologicznej wieży Babel i czy taki projekt ma szansę powodzenia oraz czy karą za jego kontynuację będzie ponowne pomieszanie języków? [112]

Programowanie można porównać do pisania powieści: pomimo iż język, w którym powstaje jest skończonym systemem (na przkład niemiecki, francuski czy angielski), to kreatywność jego wykorzystania zależy od wyobraźni autora [113].

Z ich doświadczenia, które można uznać za miarodajne w praktykowaniu cyfrowego kodowania, wynika, iż posługiwanie się kodem bliskie jest mówieniu językiem naturalnym. To, oczywiście, założenie natury ogólnej, które należy obostrzyć dodatkowymi warunkami z zakresu teorii lingwistycznych, antropologicznych i kulturowych. Jednak już z tak ogólnej perspektywy widać, że w grę wchodzą tu podobne do tych warunkujących posługiwanie się językiem czynniki sprawcze i regulacyjne, jak emocje, wyobraźnia kulturowa, wrażliwość sensomotoryczna i estetyczna, kontekst kulturowy. Ich obecność sugeruje, iż sprawne programowanie za pomocą cybernetycznego kodu nosić może znamiona holistycznej ekspresji bliskiej innym, już antropologicznie i kulturowo oswojonym formom ekspresji i komunikacji, jak muzyka, język, dotyk (do tego wątku w szczegółach wrócę w ostatnim rozdziale) [114].

Jednocześnie, jak wspomniałem, wśród programistów panuje powszechne dążenie do powołania do życia „kodowej wieży Babel”. W swojej pracy mierzą się oni z różnymi systemami, językami, protokołami, hardware, interfejsami, odbiorcami, które zostały opracowane pod kątem różnych funkcjonalności oprogramowania, różnych jego użytkowników, środowisk wyższego rzędu, w których funkcjonują, i w rezultacie niemożliwe okazuje się programowanie totalne, uniwersalne, które za sprawą posługiwania się jednym programistycznym językiem w ramach jednego z informatycznych systemów daje możliwość tworzenia rzeczy powszechnych, uniwersalnych. Wystarczy spojrzeć na przypadkiem wylosowany spis dostępnych języków programowania, wskazujący na kilkaset dostępnych standardów i języków, a przecież wszystkie one odwołują się do tej samej infrastruktury hardware i ostatecznie przekładają się na prymitywne z tego punktu widzenia wartości kodu binarnego. Do podobnych wniosków prowadzi także analiza dowolnego zestawienia dostępnych w cyfrowym świecie formatów plików, które są końcowym efektem pracy z konkretnym software. Amerykański programista i artysta Casey Reas komentuje ten stan rzeczy w następujący sposób:

Tak jak wiele jest ludzkich języków, tak i wiele jest języków programowania. Tak jak w różnych językach ludzkich określone koncepty przybierają unikalne formy, tak i różne języki programowania umożliwiają programistom tworzenie różnych struktur wypowiedzi.Niektóre wypowiedzi nie dają się przekładać z jednego języka na drugi i analogicznie niektóre fragmenty zaprogramowanego kodu nie dają się uruchomić na niektórych maszynach [115].

W obliczu rozplenienia języków, dialektów i gwar w software’owej praktyce kodu cyfrowego, której wciąż daleko do uniwersalności i totalności cyfrowego lingua franca, można postawić także pytanie ile syntagma tego kodu układa się w formę tekstu, o ile bliska jest pierwszemu medium/medializacji komunikacji, za jaką należy uznać pismo. To pytanie o ile ciągi cyfrowego kodu można pisać i czytać jak tekst kultury, o ile emanują typograficznie, w obszarze designu (estetycznie) i poetycko? Czy ciągi kodu są tekstem w dosłownym tego pojęcia znaczeniu, czy są jedynie gruntem/alfabetem, na którym piszą się cyfrowe „teksty” kultury, takie jak software’owe interfejsy, interakcje, narracje i bazy danych? Wyrazicielem pozytywnej odpowiedzi na te pytania jest, dla przykładu, Loss Pequeno Glazier, który w artykule pod sugestywnym tytułem Code as Language dowodzi, że kod cyfrowy jest technologiczną formą ekspresji, za którą stoją czynniki podobne do stanowiących o formie języka i pisma. Kod jest w tym podobny do pisma i języka, że powstaje na skutek działania wzorców i wyobrażeń komunikacyjnych, które wykorzystujemy w konstruowaniu wypowiedzi i komunikowaniu się. Kod i kodowanie, podobnie jak alfabet i jego pisanie, wykorzystują płaską przestrzeń ekranu (odpowiednik analogowego nośnika – tabliczek kamiennych, pergaminu, papieru), na której w czasie pisania utrwalane są znaczenia nadawane kombinacjom znaków. Usytuowana w takich warunkach antropologiczna zasada cyfrowości wydaje się czymś bliskim tradycyjnym gestom i poetyce pisma [116].

John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].

W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].

W odczytaniu Kittlera kod ma nie tylko znaczenie „językowe”, związane z szyfrowaniem informacji. Chodzi mu przede wszystkim o zwrócenie uwagi na kulturowe kody/języki samych mediów, a zatem ich wpływ na sposób postrzegania rzeczywistości, konstruowanie komunikacji i zdarzeń medialnych przy udziale konkretnych medialnych maszyn. Wszystkie one narzucają kulturze własne gramatyki, przekształcają rzeczywistość według własnego „kodu” (programu). To właśnie na tym poziomie, na którym rozważania Kittlera wpisują się w deterministyczny styl myślenia uprawiany wcześniej przez McLuhana (medium is the message) czy Flussera (filozofia aparatu), kod staje się zjawiskiem wykraczającym poza matematyczną formułę szyfru. Ich regułą jest nie tylko bycie interfejsem pomiędzy wyobraźnią i kulturą a maszynami, ale i działanie przeciwne polegające na szyfrowaniu według określonych założeń także rzeczywistości poza zamkniętym układem twórca-kod-maszyna. W przypadku kodu cyfrowego chodzi o unifikację kodów wcześniej istniejących mediów w ramach uniwersalnego języka cyfrowości. Różnice pomiędzy tym, co wizualne, audialne czy posiadające postać pisaną, istnieją w domenie cyfrowej tylko dla nienadążających za rozwojem technologii potrzeb kulturowych ludzi, mają znaczenie operacyjne i wynikają z natury naszych zmysłów, sposobów rozumienia świata i tradycji kulturowych. W rzeczywistości technologia nie mówi językiem ludzkim, kieruje się swoją własną, wewnętrzną logiką, której przejawy coraz silniej oddziaływają na świat kultury i jego tradycyjne języki. Powstają w ten sposób sieci dyskursów (discourse network), które umożliwiają na danym etapie rozwoju kultury i życia społecznego budować systemy, instytucje, reguły prawne, by w pożądany sposób kodować, przechowywać i wykorzystywać określone zasoby (Kittler 1990: 369). Jeśli uznać, że cyfrowy kod ma zdolność do wchłonięcia wszystkiego, co jest kulturą, transmisji wszystkich danych w ramach uniwersalnego języka/kodu komunikacyjnego, to w konsekwencji uznać należy także, że kultura zatoczyła koło. Antyczne systemy komunikacyjne, czyli systemy znaków, reguły pisma oraz transmitujące je/poddane im instrumenty (interfejsy), takie jak lira, usystematyzowały wedle zasad matematycznych i alfabetycznych wiedzę o muzyce, a sposoby jej wykonywania i percepcji z czasem stały się funkcjami tej systematyzacji. Dziś podobnie uniwersalną i totalna rolę odgrywa matematyczny kod i jego emanacje, czyli wszelkie projekty software. Kittler przeciwny jest jednak optymistycznej antropocentryczności mediów w wydaniu McLuhana, uważa ją za iluzję. Technologie nie są zwykłym przedłużeniem, protezą człowieka, ale prowadzą jego systematyczne wymazywanie i rozmywanie. Wszystko, co pozostaje po człowieku myślącym w kategoriach cyfrowych i posługującym się cyfrowymi maszynami, to abstrakcyjne kody i materialne zasoby medialnej pamięci zakodowanej w postaci danych i formy ich wykorzystywania – interfejsy i software [119].

Różnice w pojmowaniu natury cyfrowego kodu lapidarnie podsumować można w sposób następujący: kod cyfrowy można postrzegać jako specyficzny język, który przekłada się na w bezpośredni sposób na działania. Żadna inna forma językowych opisów, gramatyk, pojęć czy semantyk nie jest w stanie poruszyć świata materii [120].

Bywają jednak sytuacje, kiedy kod może okazać się tekstem, a tekst kodem – zarówno kiedy brać pod uwagę tekstualne znaczenie tekstu, a także kiedy postrzegać go szerzej, jako różne w kulturze wypowiedzi i ich różne formy. Takie przenikanie kodów cyfrowych i analogowych, medialnych i digitalnych, objawia się, co prawda, w większości jako próbkowanie, impresje artystyczne wynikające z potrzeby uzgadniania obu podobnych do siebie formatów komunikacyjnych, lub celowym działaniem programistów, którzy ponad skierowanymi do maszyn ciągami poleceń wyposażają swój software w warstwę skierowaną do użytkownika. Jednak w przypadku domeny cyfrowej działania przekraczające naturę kodu, zmieniające jego kontekst i redekonstruujące zaszyfrowane w nim znaczenia, stały się także jedną z najważniejszych strategii działania w ogóle – zarówno twórczego/projektowego, jak i w powszechnej skali użytkowej. Przedostawanie się technologii cyfrowych ze światów militarnego, naukowego i merkantylnego do obszaru powszechnego użytkowania możliwe było w dużej mierze dzięki subwersywnym działaniom środowisk, które z czasem zaczęto nazywać hakerskimi. Sytuująca się na pograniczu świata sztuki i inżynierii cyfrowej domena hakingu właśnie z artystycznej wrażliwości i krytycznego działania uczyniła rdzeń swego etosu. Hakerski sposób patrzenia na cyfrowy świat stał się jednym z najbardziej popularnych nurtów myślenia o wczesnych stadiach kultury cyfrowej – był on i wciąż pozostaje związany ze strategiami i taktykami, które biorą się z krytycznych sposobów używania cyfrowego kodu, programowania i budowania cyfrowych zdarzeń komunikacyjnych. Hakowanie kodu, czyli obnażanie niedoskonałości technologicznych (bug, glitch), ale i wyszukiwanie w nim celowo umieszczonych ciągów, które spełniają zadania ideologiczne, mitologiczne, związane z panoptyczną obserwacją używających go – to postawy, które mają w rezultacie czyścić kod, poszukiwać jego najdoskonalszej (najprostszej, wolnej od manipulacji, bezpiecznej) formy.

Przenikanie, obnażanie i hakowanie cyfrowego kodu mediów jest także jedną z najważniejszych strategii artystycznych podejmowanych w domenie sztuki mediów cyfrowych. Cyfrowy kod i software postrzegane są przez kulturę cyfrowości z jednej strony jako domena nieustannego konstruowania i projektowania designerskiego, interfejsów, języków komunikacji, a z drugiej – tu pojawiają się subwersywne wrażliwości pracujących z tymi mediami artystów – jako obszar nieustannej pracy krytycznej, dekonstruowania zaszytych w kodzie znaczeń, polityk, estetyk, mitologii.

Niezależnie od takiego odsłaniania tekstualności kodu i cyfrowości pisma oba porządki jedynie z pozoru są wymienne i kompatybilne. Cyfrową gramatyką, syntagmą, jej potencjalną/przygodną estetyką, czy estetyzacją, rządzą reguły wyznaczone przez zjawisko elektryczności i odczytujących jej zasady fizyków oraz inżynierów zajmujących się ich technologiczną translacją wobec wymogów materiałowych, systemowych i innych związanych z hardware. W obliczu kondycji postmedialnej można uznać, że najlepszym dostępnym dziś paratekstualnym interfejsem łączącym gramatyki technologii z gramatykami kultury lingwistycznej i tekstualnej pozostaje wciąż matematyka, a w szczególności logika, geometria i algebra.

Analogiczna wobec sytuacji językowych i piśmiennych intuicji w obszarze kodu cyfrowego jest sytuacja muzyki i jej nutowego zapisu. Muzykę jako taką znamy przecież prymarnie jako przestrzenną i czasową aranżację dźwięków. Odkąd istnieje muzyczny kod, język muzyki, czyli zapis nutowy, także i ta sfera kultury stała się przestrzenią manipulacji kodem. Nuty zdobyły w niej rolę instrukcji wykonawczych, które trudno porównać z pismem – ich układy wyznacza bowiem kulturowy duch piśmienności (wytyczający formę zapisu nutowego), ale i matematyczna gramatyka innego rodzaju, odwołująca się do zjawisk takich jak harmonia, skala, itd. Podobnie jak cyfrowe, tak i muzyczne kody nutowe można postrzegać jako teksty i tak je czytać/pisać, jednak to działania praktykowane głównie przez obnażających paradoksalność takich strategii artystów i intelektualistów, takich jak Takehisa Kosugi, Sylvano Bussotti, Iannis Xenakis, John Cage czy Randy Raine-Reusch.

Próby tradycyjnej implementacji zapisów kodu, które zostały zestetyzowane przez designerów czy artystów nieograniczających się do bieżących reguł spełniają przede wszystkim funkcję eksperymentu, poszukują nowych możliwości transgresji i kontekstów dla istniejących kodów, starają się przekraczać ich formalne ograniczenia i kulturowe naleciałości. Estetyzowane wizualnie partytury nie przekładają się na łatwostrawną, „przyjemną dla ucha” muzykę – są za to inspirujące na poziomie ideowego dyskursu muzyki współczesnej, otwierają przed nim nowe pola eksploracji, takie jak sonoryzm, czy sytuacjonizm.

Podobne do odbywających się w polu akustycznym eksperymenty z kodami prowadzone są w obszarach języka innych medialnych form i ich kodów. Takie działania podejmowane są zarówno w polu wizualności cyfrowej, jak i dotyczą kodu binarnego i różnych postaci wynikających zeń warstw i języków software. W przypadku eksperymentów i poszukiwań wizualnych za przykład wybrać można projekt fotografii cyfrowych Susan Collins, która manipulując softwarem i hardwarem aparatów cyfrowych, tworzy fotografie „rozciągnięte” w czasie. Powstają one stopniowo, co jakiś czas matryca światłoczuła reaguje na światło z otoczenia, ale aktywizując na tę okoliczność jedynie fragment swojej powierzchni. Dopiero suma fragmentów sfotografowanych w różnym czasie, choć przedstawiających tę samą scenę, tworzy pożądaną kompozycję. Na zdjęciach Collins, takich jak powstałe w ramach projektu Glenlandia, przenikają się dni i noce, różne warunki atmosferyczne, ruch światła i epizodyczne zmiany krajobrazu – czasoprzestrzeń ulega załamaniu w taki sposób, aby poddać się technologicznemu kodowi postrzegających ją medialnych maszyn. Widać na tych fotografiach upływający czas, choć ich percepcja wymaga stosownej wiedzy i dystansu wobec kodów medium fotografii [121].

Upiśmiennianie kodu czy jego wizualne porządkowanie to praktyki, które obejmują jedynie fragment rozległego terytorium cyfrowości. Wraz z upowszechnianiem się mediów cyfrowych i kolejnymi software’owymi nadbudowami na pierwotnej postaci kodu maleje technologiczna kultura, wiedza o „gramatyce” posługiwania się kodem. Software, szczególnie ten, który pisany jest amatorsko, jest często niepoprawny, zawiera podstawowe błędy składniowe, jest nieelegancki, wymaga daleko posuniętych korekt, by dało się go uruchomić na maszynie. Taki stan software’owego tekstu powoduje, że jego egzekwowanie przez komputer staje się sprawą zarówno obciążającą, jak i ryzykowną, zawierającą luki i mało wydajną. Software nie piszą już wyłącznie wirtuozi, którzy dbali o higienę kodu, ale także, a może przede wszystkim, najbardziej spektakularne dziś sekwencje kodu, które zdobywają popularność i publiczny poklask, stają się rozwiązaniami wyrażającymi ducha pokolenia, okazują się bloatware – oprogramowaniem niewydajnym, powolnym, zawierającym w sobie przestarzałe sekwencje. Upowszechnienie kodowania powoduje upadek etosu „sztuki kodowania”, która z kodeksu kodu uczyniła jedną z najbardziej abstrakcyjnych dyscyplin logicznych i matematycznych. Bardziej od radykalnej czystości i piękna prostoty kodu liczą się dzisiaj jego zdolności aplikacyjne w różnych środowiskach, pożądane reakcje na jego obecność wywoływane w różnych interfejsach, bazach danych i środowiskach. Ważniejsza niż matematyczna i logiczna perfekcja abstrakcyjnych rozwiązań okazuje się w praktyce software skuteczność danego rozwiązania, jego interfejsowa poetyka, a nie wewnętrzna składnia i syntagma. Najbardziej powszechnym kontekstem takiego myślenia o kodzie i jego wcieleniach są gry wojenne odbywające się w przestrzeni kodu, w których biorą udział wszelkiej maści złośliwe aplikacje – malware, wirusy czy różnego rodzaju antysystemowe algorytmy. Ich rola da się sprowadzić do doraźnego rozbiciu jednolitości kompilacji kodu i wykorzystania powstałych w ten sposób luk do przeprowadzenia ataku, wykradania danych czy blokowania zainfekowanych maszyn.

Dążenie do matematycznej i logicznej spójności, prostoty i efektywności zdań wypowiadanych za pomocą digitalnego kodu to idee, które, choć powszechnie uznane i stanowiące centralny z rzemieślniczego punktu widzenia punkt odniesienia w software’owym etosie pracy, nie są jedynymi drogowskazami dla kodujących, podobnie jak nie stanowią jedynego odniesienia dla funkcjonowania różnych wcieleń software. W obliczu bloatware i poetyki mediów taktycznych, a także wszelkich innych kulturowych gier z kodem cyfrowym, dokonujących się za pomocą różnych interfejsów i zadań bazodanowych, sens matematycznej doskonałości kodu staje wobec konkurencyjnych paradygmatów.

Najważniejszym z nich jest dziś domena biomediów i związany z nią dyskurs poszukujący w prawidłach ewolucji materii ożywionej, a także w kształtach i regułach dających się zaobserwować w naturalnym rytmie i formach życia, odpowiedzi na zasadnicze pytania związane z technologią, komunikacją i kulturą. Jednym z najbardziej fundamentalnych założeń tego nurtu, które jest jednocześnie jego najbardziej kontrowersyjną tezą, jest uznanie za kod sekwencji informacji genetycznych DNA i postrzeganie ich w duchu teorii cybernetycznych i praktyk inżynierskich. Uznanie DNA za kod w takim rozumieniu oznacza dopuszczenie wszelkich jego software’owych, protokołowych i algorytmicznych modyfikacji, których działanie wobec żywej materii trudno nawet wstępnie oszacować. Spotkanie digitalnej inżynierii i jej matematycznej poprawności już jest, a w przyszłości z pewnością będzie coraz bardziej kontrowersyjne, będzie domagać się renegocjacji podstawowych ustaleń aksjologicznych, ontologicznych, prawnych i politycznych. Rozdzielone za sprawą Kartezjusza i oświeceniowej logiki myślenia nowoczesnego ciało i duch, myśl i materia zyskują w postaci inżynierii kodu genetycznego swoją najbardziej wyrafinowaną formę. Nie będę jednak wchodził szczegółowo w tę tematykę, jest zbyt pojemna i wejście takie wymagałoby zupełnie innego rozłożenia akcentów. Skupię się natomiast na jednym z wątków, który sytuuje się nieco na uboczu cywilizacyjnych rozważań o biomediachbiomediacji, a dotyczy bezpośrednio biologicznych inspiracji kodowania cyfrowego i sztuki mediów cyfrowych.

Studia biologii życia, rezultaty analizy reguł i postępów ewolucji stają się – na skutek uznania tajemnicy rozwoju życia za kod – referencyjną matrycą dla cyfrowego świata. Problemy, które napotkało przez miliony lat życie, i sposoby radzenia sobie z nimi są dla podejmujących ten wątek myślenia o cyfrowym świecie otwartą księgą wypełnioną samoistnie zaszyfrowaną wiedzą, której charakter nie sposób przecenić. Odpowiednio przygotowane wejrzenie w genetykę i jej procesy przypominać może zastosowanie się do reguł podręczników stylu i gramatyki. Czytanie genetyki to sięganie po gotowe, sprawdzone już w najlepszych/najtrudniejszych warunkach testowych rozwiązania strategiczne i taktyczne. Tak jak kosmos/Bóg napisał kod genetyczny, tak i my, dzisiejsi koderzy cyfrowego świata, możemy pisać swoją cyfrową rzeczywistość. CTRL+C i CTRL+V z kodu absolutu – oto jest wyzwanie rzucone przez biomediabiomediacje w obszarze cyfrowego świata! Stan natury jest przecież czymś dalece bardziej złożonym i inspirującym niż poziom zaawansowania matematycznego, technicznego i kulturowego cywilizacji ludzi. Natura jest ponad zdefiniowane w tych dyskursach kategorie piękna, wyobraźni, racjonalności, logiki, kreatywności, adekwatności, itd.

Trzymając się tej biomedialnej metaforyki kodu pójdźmy jeszcze dalej w nasączaniu nią cyfrowego myślenia. Podejmując się takiego poetyckiego i jednocześnie racjonalnego zadania P. J. Bentley, artysta mediów cyfrowych i ich krytyk, tak te dwa światy zestawia:

Ewolucja to główny programista systemów naturalnych. Geny są kodem wykorzystywanym w tym programowaniu. Ewolucja samosteruje się przez dobór najlepszych wersji software, które na bazie tego kodu udaje jej się wygenerować. […] Te najlepsze wersje poddaje nieustannym adaptacjom i poprawkom […] To, co działa, zostaje na stałe zaszyfrowane w genetycznym kodzie życia, a co nie, zostaje odrzucone. […] W taki brutalny sposób kod pilnuje swojej życiodajnej wydolności i zabezpiecza przetrwanie wszystkiego, co żyje. […] Natura jest systemem autoprogramującym i samodesignującym się [122].

Zdaniem Bentleya kolejne generacje systemów informatycznych powinny pracować właśnie w oparciu o te zasady rządzące ewolucją. W przyszłości mamy powierzać komputerom zadania takie, jak np.: zoptymalizuj model elementu turbiny silnika odrzutowego, które maszyny rozwiążą na drodze eliminacji niedostatecznie wyrafinowanych, nie dość skutecznych i/lub nieopłacalnych ekonomicznie propozycji. Nowy typ komputerowego kodu to kod samoorgranizujący się, samoewoluujący i homeostatycznie się korygujący. Aby mógł takim się stać i w „naturalny” sposób pracować, należy jednak wcześniej znacznie lepiej i dokładniej poznać mechanizmy rządzące naturą – to właśnie zadanie, które staje przed przestrzenią biomediów, ich sztuki, inżynierii, aksjologii. Na horyzoncie tego cywilizacyjnego wyzwania rysuje się nagroda, której wartości przecenić się nie da: jest nią zdolność do sterowania ewolucją, wyznaczanie przed nią zadań i korzystanie z dobrodziejstwa pozyskiwanych w ten sposób rozwiązań.

Marzenia o samosterującym się cyfrowym świecie stoją jednak wobec ograniczeń technologicznych projektu cyfrowego w obecnej postaci – nie mówiąc o sporach natury etycznej ich dotyczących. Fundamentalna z zasad rządzących cyfrowością: podział na software i hardware, w naturze nie występuje. Hardware jest zazwyczaj formułą zamkniętą, stanowi sztywną ramę strukturalną, na którą nakładać można płynny i elastyczny software. Kod genetyczny, choć zmienny w czasie, jest w naturalny sposób wpleciony w „hardware’owy” kształt bytów żyjących. W oderwaniu od naturalnych nośników, czyli od swojego naturalnego kontekstu, DNA przestaje być kodem – traci zdolność kreacji życia, przestaje komunikować. Dopiero rozmycie twardych granic pomiędzy software i hardware dawałoby możliwość nawiązywania pomiędzy nimi „organicznych” relacji. W takim kontekście kod stawałby się zarazem hardwarem, znajdowałby naturalne „ucieleśnienie” i nie tracił jednocześnie swojej miękkiej natury. Powstać mogłaby z takiego zatarcia/zbliżenia maszyna autodekonstruująca się i nieustannie „myśląca” o sobie samej, autogenerująca się w czasie rzeczywistym.

Dziś te i podobne pytania biomediacjom zadają przede wszystkim artyści mediów, tacy jak Edouardo Kac, Paul Vanouse. Ich kontrowersyjne i pionierskie zarazem prace wydają się wybiegać daleko w przyszłość kultury, natury i techniki – jeśli jednak zestawić je z dokonaniami przemysłu farmakologicznego, chemicznego, medycyny czy wojska, to widać, jak bardzo teraźniejsze problemy wchodzą tu w grę [123].

II.3. Elektryczność i informacje

Mobilność technologii medialnych, o której pisałem wcześniej, oznacza nie tylko decentralizację hierarchicznego systemu komunikacji masowej. Umożliwia także decentralizację i rozproszenie systemu przesyłania i magazynowania energii elektrycznej, a to oznacza dalece większe konsekwencje dla współczesności również poza obszarem komunikacji. Bez stałego dostępu do źródła zasilania w energię elektryczną żadna cyfrowa technologia medialna nie funkcjonuje – staje się martwym hardware. Podobnie z maszynami i systemami cywilizacyjnymi w ogóle. Bez elektryczności cywilizacja zachodnia nie istnieje.

Nasz zachodni sąsiad, Niemcy, już od jakiegoś czasu przygotowuje się na Energiewende (an energy turn, czyli zwrot energetyczny), który ma polegać na poszukiwaniu i eksploatacji niekonwencjonalnych, odnawialnych i ekologicznych źródeł energii, oraz na gruntownej zmianie sposobu pracy infrastruktury energetycznej, tj. na decentralizacji całego systemu jej przesyłu, wykorzystania i magazynowania. Zwrot energetyczny miałby w konsekwencji charakter zbliżony do zwrotu społecznościowego (liberalnego) dokonującego się w medialnym świecie. Zmiana ta miałaby spełniać rolę przejścia od hierarchii nadawczej systemu mediów masowych do ekosystemu mediów społecznościowych. Czyż elektrowni nie odpowiada elita produkująca treść kultury, czy nadajniki to nie to samo, co słupy i sieci przesyłowe? I czy sieci społecznościowe, aktywizm społeczny i kulturowy dokonujący się za pośrednictwem technologii sieciowych i cyfrowych to niewcielone w życie założenia przyświecające twórcom Energiewende? W rezultacie Energiewende to społeczności użytkowników-producentów energii miałyby decydować o wykorzystaniu jej źródeł, zaś same źródła zmieniłyby swoją formę z pojedynczych dostawców-gigantów (tradycyjne elektrownie) w rozproszoną sieć mniejszych, uruchamianych w zależności od potrzeb i konfiguracji, generatorów [124]. Energiewende to nie tylko przestawienie gospodarki i systemu politycznego na energię ze źródeł odnawialnych, to przede wszystkim decentralizacja wytwarzania energii, społeczne zarządzanie jej zużyciem, dystrybucją i powstawaniem. To wywłaszczenie energii z rąk państwa, systemu ekonomicznego, itd., i społeczne uwłaszczenie się w tym zakresie, które doprowadzi do dekonstrukcji polityki energetycznej i jej rozbrojenia–dekonstrukcji do formy sieciowej, społecznościowej alternatywy.

Elektryczność (energia) ma dla projektu cyfrowego, jak to już wielokrotnie podkreślałem, zasadnicze znaczenie. Bez Energiewende niemożliwa jest dalsza emancypacja medialnych konsumentów i ich przeistaczanie się w medialnych wytwórców, remikserów i hakerów. Projekt technologicznego rozproszenia i uspołecznienia mediów, czyli wyjścia poza hierarchiczny i polityczny system kultury masowej, możliwy jest jedynie w ograniczonym zakresie bez analogicznych zmian w systemie energetycznym oraz, w konsekwencji, w innych podobnych systemach politycznych, ekonomicznych i technologicznych. Tam również oznaczać będzie radykalne przesunięcia i demontaż istniejącego układu sił i struktur. Tak jak uderzające jest podobieństwo technologicznej i kulturowej infrastruktury mediów masowych i infrastruktury energetycznej, tak równie zbliżone są do nich kształty systemów edukacji publicznej, pomimo wielu daleko idących zmian (system organizacji produkcji i dystrybucji on-demand Toyoty) organizacji produkcji i dystrybucji dóbr, władzy i administracji, religii. W tym duchu niezależność energetyczna związana z medialną mobilnością i statusem uzależnionych od tradycyjnych systemów energetycznych sieci wydaje się tematem zasadniczej wagi dla współczesnej, kultury poddanej mediatyzacji i digitalizacji. Kształt medialnej mobilności/mobilnej medialności zależny jest tym samym od sposobów pozyskiwania, zużycia, magazynowania energii potrzebnej do zasilania maszyn medialnych. Elektryczność i jej kulturowe usytuowanie to obszar, który w medialnym krajobrazie wyłania się dzisiaj na pierwszy plan – jednocześnie winien zyskać sobie właściwe miejsce, historycznie praktycznie nieobecny w studiach kulturowych oraz poświęconych mediom i komunikacji.

Cyfry i matematyczność to kulturowa część natury mediów cyfrowych. Dla perspektywy studiów kulturowych, które zdefiniowały tożsamość teorii mediów i w dużej mierze generalne oblicze humanistyki w kilku ostatnich dziesięcioleciach, stanowią one zakodowany szyfr będący jednym z wielu obecnych w kulturze kodów komunikacyjnych. Matematyka – przypomnę – jest gramatyką tego kodu, na który składa się zespół symboli-znaków o składni poddającej się kulturowym (logicznym) konstrukcjom i negocjacjom. Cyfry podlegają działaniu czynników etnicznych, społecznych, antropologicznych, politycznych, komunikacyjnych, tak jak litery i tworzone z nich słowa w kodzie językowym. Kod cyfrowy ma jednak szczególne, nadrzędne znaczenie dla kultury współczesnej. Pełni funkcję kodu kodów kultury, metakodu wiedzy oraz jej najważniejszego narzędzia: nauki – wspomniałem o tym przedstawiając usytuowanie matematyczności w historii nowoczesnych idei.

W takiej pozycji dodatkowo utwierdza matematyczność jej związek ze zjawiskiem elektryczności. To za sprawą matematycznego zakodowania elektryczności, czyli cyfrowego regulowania jej stanów: 1 = prąd, 0 = brak prądu, udało się tę naturalną właściwość świata w wyrafinowany sposób podporządkować potrzebom rozwijającej się technicznie cywilizacji w postaci projektu digitalnego i sieciowego. Matematyczność dzięki elektryczności rozpoznajemy współcześnie, w związku z tym jako cechę świata (w tym sensie podobna jest elektryczności a w zakresie maszyn cyfrowych niemal z nią tożsama), a nie jego kulturową interpretację (Heller). Elektryczności zaś przypisujemy właściwości i role kulturowych kodów (stąd, to uwaga na marginesie, koncept rzeczywistości wirtualnej jako zjawiska symbolicznego, kulturowego – to różnica budująca wiele treści dyskursu jej poświęconych). Relacje matematycznego kodu i zjawiska naturalnego elektryczności tworzą matrycę, w której zakotwiczony został projekt cyfrowy. Przenikając przez poziom wizualnych, intuicyjnych interfejsów przeznaczonych dla użytkownika – takich jak GUI w systemach operacyjnych, przy dużym zbliżeniu zobaczymy w cyfrowych mediach zmiany napięcia elektrycznego, którymi w procesorach sterują tranzystory posłuszne matematycznym komendom 0 i 1.

Takich relacji pomiędzy matematycznością i elektrycznością doszukał się i wykorzystał w sensie komunikacyjnym chyba jako pierwszy Samuel Morse, amerykański artysta i prekursor telegrafii. Morse, przypomnę, opracował system komunikacji korzystający z właściwości światła, dźwięku lub elektryczności, których kontrolowanym obecnościom i nieobecności nadał symboliczne znaczenia. Tak zwany alfabet Morse’a polega na wykorzystaniu natury tych zjawisk fizycznych na zasadzie powiązania z nimi znaków odnoszących się do poszczególnych liter alfabetu łacińskiego – innego, wcześniej istniejącego kodu komunikacyjnego. Metodyczne zapalanie światła, przerywanie dźwięku czy obiegu elektrycznego w zgodny z zaszyfrowanymi w alfabecie znakami czyni ze zjawisk naturalnych komunikatory kulturowe, bowiem stwarza wrażenie kulturowej dominacji nad siłami przyrody, ich ujarzmienia i wykorzystania. Morse’owskim tropem podążyli matematycy, którzy poszukiwali symbolicznych formuł pozwalających połączyć kodowanie elektryczności z koncepcjami maszyn obliczeniowych i w ten sposób narodziła się idea cyfrowego kodu, który stanom naturalnych żywiołów (elektryczności) przypisał wartości matematyczne. Ogólnie rzecz ujmując można powiedzieć, że idea elektrycznej (obecnie elektronicznej) cyfrowości to nic innego, jak multiplikowane i zapętlone na miliony różnych sposobów w postaci skomplikowanej formalnie i zminiaturyzowanej materialnie architektury hardware (procesory z milionami elektrycznych półprzewodników-tranzystorów o wielkości jedynie mikronów każdy) proste matematyczne operacje (wyrażone jedynie za pomocą 1 i 0) na elektryczności, jej przewodzenie lub jego brak. W taki sposób zapisane są choćby dane na płytach CD, DVD czy BD.

Algorytmiczne instrukcje tworzone na różnych poziomach cyfrowego kodu kontrolują działanie milionów krzemowych bramek, które w odpowiedzi na komendy 0 lub 1 zamykają się, czyli nie przewodzą w danej chwili energii elektrycznej, lub też na chwilę się udrażniają komponując pożądaną strukturę obwodu elektrycznego. Odbywające się w ułamkach sekund – za sprawą fizycznych cech zjawiska elektryczności, jego naturalnej prędkości bliskiej prędkości światła – elektryczne transmisje lub ich braki układają się wewnątrz hardware we wzorce, których sumą stają się wyniki zadanych softwarem hardware’owi zapytań i wydanych w ten sam sposób instrukcji wykonawczych.

Ponad tym bazowym poziomem spotkania matematyki i elektryczności (kultury i natury) nadbudowane są warstwy software, których zadaniem jest „ukulturalnianie” pierwotnego zapisu 1 i 0, nadawanie mu bardziej wyrafinowanych matematycznie, a więc także i kulturowo, form kodowania. Jedną z nich jest choćby ASCII (American Standard Code for Information Interchange) – 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom alfabetu łacińskiego, cyfrom, znakom przestankowym i innym symbolom oraz poleceniom sterującym. Dla przykładu litera „a” jest w ASCII kodowana liczbą 97 (w zapisie binarnym będzie to: 0110 0001), a znak spacji jest kodowany liczbą 32 (w zapisie binarnym będzie to: 0010 0000). Wysiłek twórców obu splecionych warstw nowych mediów, software i hardware, polegający na przygotowaniu takich wersji cyfrowego projektu kulturowego, które będą najbardziej możliwie proste w obsłudze dla przeciętnego użytkownika, intuicyjne antropologicznie, zmierza ku całkowitemu odseparowaniu go od elektryczności, a jej samej uczynieniu niewidzialną, przezroczystą kulturowo, ukrytą wewnątrz struktury maszyny. Automatyczną, zakodowaną wcześniej kontrolę nad elektrycznością przejmują zaimplementowane w maszyny i systemy operacyjne protokoły i oprogramowanie niskiego rzędu (BIOS, instrukcje zapisane w czipach składających się na architekturę hardware), a użytkownik nie ma wielu użytkowych powodów, możliwości ani sposobów, aby ją dla siebie odzyskać. Najbardziej tajnym, skrywanym fizycznie i software’owo szyfrem projektu cyfrowego pozostaje zjawisko elektryczności w całej swej prostocie pojawiania się i znikania, otwierania i zamykania mikroobwodów [125].

Niewidzialna elektryczność projektu cyfrowego to zagadnienie, które można rozważać w kontekście teorii mediów. Francuski filozof techniki, Bernard Stiegler, mówiąc o przezroczystości i znikaniu technologii, posługuje się terminem mętności (deep opacity). Nie jesteśmy w stanie w prosty sposób i szybko zrozumieć, na czym polega właściwy sens technik, którymi się posługujemy w naszym życiu – twierdzi. Nie rozumiemy zarówno tego, w jaki sposób działają one same, jak i tego, jaki mają wpływ na to, jak działamy my, pomimo iż nieustannie podejmujemy ważne decyzje odnoszące się bezpośrednio do działania techniki jak i w oparciu o jej kulturowego ducha. Powstające w ten sposób kulturowe niezrozumienie powoduje, że techniki definiujemy jedynie w zarysie, w sposób przybliżony. Bardziej za sprawą naszych intuicji i odczuć niż racjonalnych przesłanek [126].

W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].

Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardwaretweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Pomimo centralnej lokacji wewnątrz projektu cyfrowego elektryczność nie stała się dotąd przedmiotem pogłębionych studiów kulturowych, dyskurs jej poświęcony skonstruowały i podtrzymują nauki ścisłe i coraz częściej społeczności domorosłych i profesjonalnych inżynierów pracujących z maszynami cyfrowymi i elektroniką [135]. Pora najwyższa, aby elektryczności i energii w ogóle dedykować szeroko zakrojone studia humanistyczne i kulturowospołeczne. W połowie XIX wieku, a więc w okresie, kiedy dopiero odkrywano użytkowy potencjał elektryczności, Michael Angelo Garvey w futurystycznej książce zatytułowanej The Silent Revolution. Or, the Future Effects of Steam and Electricity upon the Condition of Mankind wyrokował: elektryczność stanie się najważniejszym kanałem, po którym będziemy transmitować i komunikować naszą inteligencję. Elektryczny telegraf dysponuje w tym zakresie wspaniałymi właściwościami: pomija czas i miejsce[136]. I choć tę intuicję potwierdziła współczesna kultura, to krytyczna wiedza o elektryczności wciąż sięga niewiele głębiej niż do wyobraźni Garveya czy Morse’a. Chyba tylko McLuhan pisząc o globalnej wiosce, w której elektroniczne media zastępują kulturę wizualną i gutenbergowską kulturą wtórnej oralności tworząc kolektywną inteligencję, docenił wagę elektryczności w medialnym pejzażu współczesnego świata. Po nim elektryczność zamknięta w szczelnych obiegach krzemowych płytek i tranzystorów stała się tak naturalna, że nazbyt oczywista. McLuhan pisał:

Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].

Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].

Mimowolne rozpoznawanie kontroli nad zjawiskami naturalnymi jako kodów kultury stawia przed analitykami cyfrowej komunikacji i pośredniczących w niej maszyn problem, który określiłbym mianem potrzeby „humanistycznej teorii elektryczności”. Poddanie tego zjawiska kulturowej analizie, konstruowanie jego teorii, jawi się jako jedno z najważniejszych – obok teorii hardware, kulturowej teorii matematyki, badań nad HCI (Human-Computer Interfaces) czy software studies – zadań badawczych dla współczesnej komunikologii i medioznawstwa. Potrzebę taką umacnia dodatkowo istnienie rozbudowanej teoriopoznawczej tradycji cybernetycznej, która rości sobie prawa do wchłonięcia/zastąpienia teorii kulturoznawczych.

Wspomniałem już o dystansie i różnicy pomiędzy zapisami kodu binarnego w ciągach wartości 0 i 1, które mają bezpośredni wpływ na strukturę pracy elektryczności wewnątrz cyfrowego hardware, a kolejnymi poziomami użytkowymi kodu, na które składają się protokoły, asemblery, systemu operacyjne, języki i środowiska programistyczne oraz oprogramowanie użytkowe, z którym przeciętny użytkownik cyfrowych mediów ma kontakt na co dzień, czyli domeną software. Układ tych zapisów jest warstwowy, co oznacza, że kolejne warstwy kodu pokrywają/przesłaniają wcześniejsze. Pośród nich istnieją różne reguły programowania i różne dla niego zastosowania. Najbliżej użytkownika, a w zasadzie najbliżej interfejsowej, użytkowej powierzchni cyfrowych maszyn znajduje się warstwa aplikacji użytkowych, które stanowią funkcjonalną i personalną bramę dla najbardziej popularnych zastosowań maszyn. Pod tą widoczną w pierwszym kontakcie są także warstwy umożliwiające przepływ danych w systemach i pomiędzy nimi, takie jak np. protokoły TCP; warstwa sieciowa, którą reguluje np. protokół IP, czy warstwa regulująca fizyczną wymianę impulsów elektrycznych, jaką jest np. popularny Ethernet. Każda warstwa jest środowiskiem dla kolejnej, która się nad nią pojawia – staje się dla niej matecznikiem, kodeksem i regulatorem. W ten sposób budowane są kolejne piętra cyfrowej kodyfikacji, kolejne poziomy cyfrowego świata. Typowym przykładem warstwowego współdziałania kodu jest, dla przykładu, sytuacja komunikacji internetowych. Większość z nich regulowana jest za sprawą protokołów TCP i IP, następnie kontrolowana jest za sprawą protokołu HTTP i wtedy dopiero pojawiają się języki kodowania internetowych stron i aplikacji, takie jak HTML, JAVA, czy CSS.

Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualneparawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.

Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.

Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].

Stwierdziłem wcześniej, że kod cyfrowy to jednocześnie znaki, którymi w przypadku zapisu binarnego są cyfry 0 i 1, oraz łącząca je w różne formy gramatyka, w tym przypadku matematyka. Bez określonej metody operowania znakami niemożliwe byłoby budowanie na ich podstawie złożonych wypowiedzi, co w kontekście technologii cyfrowych oznacza, że bez logicznie poprawnych matematycznych formuł, algorytmów i protokołów nie można by zmusić maszyn kalkulujących do poprawnego działania. Ich funkcje odpowiadają podstawowym zasadom regulującym formy języka – konstrukcjom zdaniowym, leksykalnym, relacjom pomiędzy elementami słownika, bez których język przypominałby bezładne, sylabiczne guganie. W przestrzeni cyfrowej protokoły są regulatorami wszelkiej wymiany, transferów, łączenia się ze sobą urządzeń w sieciach. Działają jako organizatorzy i zarządcy cyfrowego świata. W mojej postmedialnej perspektywie ich działanie jest ważne o tyle, że powstały i funkcjonują nie tylko jako wyrażenia matematyczne i reguły elektryczne, są także instrukcjami (rozkazami), którym cyberprzestrzeń jest posłuszna na najgłębszym poziomie swojego istnienia. W takim sensie cyfrowy kod i elementy systemu hardware można postrzegać jako kodeks, zaś protokoły jako wcielone w technologiczne formy jego przepisy i paragrafy. Tym razem idzie tu jednak o społeczną funkcję kodyfikacji prawa, a nie o jej medialną formę, o której pisałem analizując językowe afiliacje kodu cyfrowego, o polityczną ekonomię kodu, a nie jego semantyczną naturę.

W powszechnym doświadczeniu protokoły pozostają niewidocznymi siłami, które implikują założone konsekwencje/limity regulujące kształt cybernetycznego świata hardware i software. Zamiast świadomości tego działania i wiedzy o jego skutkach mamy, jako użytkownicy cyfrowego świata, raczej intuicje i podejrzenia związane z takim stanem rzeczy. Zarówno jedne, jak i drugie wyraziła Ellen Ullman już ponad dekadę temu, pisząc:

Lubię myśleć o komputerach jako neutralnych narzędziach […] ale jest coś w systemach cyfrowych, w formalnej logice działania obliczeniowego i pracy baz danych, co nie pozwala nam na poczucie pełnej nad nimi kontroli, co tworzy ich własny, nieprzenikniony świat […] przychodzi taki moment w kontakcie z komputerem, kiedy jego wewnętrzna, tajemna logika przejmuje kontrolę nad spotkaniem człowieka z cyfrowym światem [144].

Aby zrozumieć regułę funkcjonowania protokołu, przywołam klasyczny, turingowski, model struktury maszyny kalkulującej, w której dostarczone sygnały (input) podlegają zadeklarowanej obróbce, są kalkulowane w określony sposób, by następnie w tej przeliczonej formie stać się stanem na wyjściu z systemu komputerowego (output). W takiej strukturze dane przechodzą przez przeliczenia pod kontrolą protokołów. Niemożliwe jest działanie systemu z ich pominięciem, a zatem mitologiczna wolność w obszarze cyfrowym jest właśnie w tym momencie wystawiona na oddziaływanie polityk i systemów kontroli ze strony tradycyjnych graczy systemów społecznych: aparatu władzy politycznej, podmiotów gry ekonomicznej i gospodarczej, wojska. Protokoły są prawem systemów informacyjnych wtłoczonym w genetykę cyfrowego świata właśnie przez tych tradycyjnych dysponentów władzy politycznej, prawa i regulatorów sfery komunikacji społecznej. Za pośrednictwem protokołów ci gracze nadzorują i regulują kształt cyfrowego uniwersum, sankcjonują i inspirują transfery i zasobność baz danych, a także wytyczają strukturalne zasady i oblicza użytkowych interfejsów. Internet sam w sobie, na poziomie architektury informacyjnej, a nie semantycznym czy interaktywnym, jest takim właśnie politycznym (technopolowym) kodeksem użytkowym. Zbiorem reguł, praw i zasad, których przestrzeganie nadaje mu określoną formę, której wszystkie znajdujące się powyżej języki programowania, implikacje w postaci stron www, serwery z danymi, wyszukiwarki czy interfejsy software’owe, są projekcjami, emisjami i interpretacjami.

Natura protokołów jest szczególna nawet na tle dosyć efemerycznej, wciąż jeszcze niewynegocjowanej w dyskursie humanistyki, tożsamości ontologicznej cyfrowych światów. Protokoły są jednocześnie kodem i softwarem, bowiem przybierają postać instrukcji wyrażanych za pomocą cyfrowego kodu i to na jego najbardziej podstawowym, binarnym, poziomie gramatycznym, jak i hardwarem, bo, w odróżnieniu od większości aplikacji software’owych, zostały na stałe wpisane w hardware maszyn; nie podlegają, w większości, możliwościom reprogramowania, remiksu tak jak to możliwe jest w przypadku software. To zarazem praxis cyfrowego świata jak i metaforyczna jego powłoka.

W swojej gramatologii dysku twardego Matthew Kirschenbuam wskazuje na reguły postępowania z danymi wpisane we współczesne oprzyrządowanie cyfrowych maszyn. Te reguły stanowią jeden z przykładów kodeksów wmontowanych w architekturę cyfrowych maszyn i sprawnie nią zarządzających poniżej widocznego dla użytkownika poziomu software i interfejsów. Są to: przypadkowy dostęp, czyli natychmiastowy dostęp do dowolnego elementu bazy danych, co w kontekście rozważań postmedialnych oznacza możliwość wywołania dowolnego fragmentu dowolnego zdigitalizowanego medium; cyfrowo-analogowe przetwarzanie sygnału, czyli nieustanne tłumaczenie cyfrowego na analogowe i odwrotnie; różnicowość, czyli odczytywanie przez głowice czytające/zapisujące danych z talerzy dysków według zasad mechaniki, a nie wartości merytorycznej danych; trójwymiarowość zapisu danych na współczesnych nośnikach; racjonalizacja zapisu, czyli sterowanie pracą dysku przez protokoły podporządkowujące ich pracę zdolności do mapowania zawartości dysku (według sektorów, tracków, headów); zależność od prędkości odczytu; sterylność i precyzja samego nośnika; wreszcie także wariacyjność zapisu na terytorium bazy danych, w której rządzą zasady pierwszeństwa dla danych najczęściej wykorzystywanych przez maszynę, nieustanne nadpisywanie wersji różnych danych, pamięci podręcznych, itd [145].

Szczególnym, wystawionym na oddziaływanie polityczne, przykładem funkcjonowania cyfrowych technologii według reguł wytyczanych przez protokoły jest sieć. Spotykają się w niej autonomiczne maszyny cyfrowe, które wyposażone są przez protokoły ITC IP we własną „podmiotowość” i dzięki niej zdolne są do nawoływania się (ping, przydzielanie adresów w sieci), nawiązywania połączeń między sobą oraz konstruowania trwałych relacji sieciowych, a pośród nich także i hierarchii zależności i władzy odzwierciedlających istniejące kształty analogowego społeczeństwa i sposoby zarządzania nim z poziomu władzy politycznej. Protokoły są matrycami (Thacker), diagramami (Deleuze) istniejącymi zarówno na poziomie rozwiązań kodowych, jak i materialnymi koordynatorami elektryczności zasilającej cyfrowe maszyny.

Sieci i przede wszystkim sieć sieci – Internet, właśnie przez pryzmat polityki i ideologii realizowanej za pomocą protokołów postrzegają w swojej teorii sieci amerykańscy teoretycy Galloway i Thacker [146]. Internet, szczególnie po wydarzeniach terrorystycznych z roku 2001, jest dla nich areną dynamicznego utrwalania relacji władzy i przestrzenią nasilającej się kontroli. Odwołując się do Foucaultowskiej, biopolitycznej koncepcji władzy i obserwacji Deleuze na temat społeczeństwa kontroli, definiują protokoły wychodząc daleko poza ich technologiczne desygnaty. Widzą w nich zarówno aparaturę, za pomocą której fizycznie spinana są węzły sieci, ale i polityczne narracje (programy, kody), które wpisane są w hardware’owe formy umożliwiające protokołom działanie [147].

Postrzegany w kontekście protokołowych regulacji kod jest domeną w pełni kontrolowaną przez polityczno-technokratyczne i militarno-ekonomiczne mechanizmy działające w społeczeństwach liberalnych – ich strategie, by powiedzieć to za pomocą klasycznego pojęcia studiów kulturowych autorstwa Michela de Certeau. Strukturalna siła oddziaływania protokołów jest tak znacząca, że cyfrowy kod sam w sobie jak i we wszystkich swoich aplikacjach użytkowych znaczy jedynie tyle, na ile zezwala mu kontekst sieci, w której funkcjonuje. Można wyobrażać sobie cyfrowe światy i interakcje tylko w takim zakresie, na jaki pozwalają negocjacje protokołów. Dla nasilających się działań strategicznych przeciwwagą są aktywności podejmowane w sferze mediów taktycznych. To twory software’owe, które starają się negocjować reguły i siłę protokołów i przybierają wspomnianą przez mnie już wielokrotnie formę mediów Do-It-Yourself. Są zatem mniej lub bardziej wyrafinowanymi/poprawnymi formalnie i technicznie, zrealizowanymi na różnym poziomie celowości/przypadkowości, z różną zawartością krytycyzmu i kulturowego dystansu, z odniesieniem do działania mieszczącego się w poetyce hakingu, projektami komunikacyjnymi realizowanymi przez przeciętnych użytkowników w odpowiedzi na ich różne codzienne, polityczne, kulturowe i społeczne potrzeby wedle amatorskich zasobów, wiedzy i możliwości.

Media taktyczne to media kryzysu, krytyki i opozycji […] ich typowymi bohaterami są: aktywista, nomadyczny wojownik mediów, pranxter, uliczny rapper, kamikadze podręcznej kamery wiecznie działający na ulicy, nieustannie szukający wroga [148].

Wokół poetyki kontestacji i psucia kumuluje się kodowa opozycja szukająca swojej szansy na inną, alternatywną wobec zarządzanej przez polityczno-społeczno-kulturalny system cyfrowej i sieciowej rewolucji. Kodowanie sieci jest dla mediów taktycznych i ich twórców najważniejszym orężem w walce przeciwko centrom władzy; zarówno tym zaszyfrowanym w protokołach i software, jak i tym istniejącym w tradycyjnych formach instytucji, regulacji prawnych, technologii. Cyfrowa przestrzeń, która z jednej strony okazuje się podatna na systemowe przekształcenia w kierunku panoptycznego narzędzia nadzoru i kontroli społecznej, jest jednocześnie rozumiana przez siły społeczne i kulturowe jako przestrzeń konstruowania wielorakich taktyk alternatywnych i opozycyjnych. Wyrafinowanymi przykładami działania w duchu mediów taktycznych są akcje podejmowane przez amerykański kolektyw artystyczny The Yes Men. W roku 2003 podczas kampanii towarzyszącej wyborom prezydenckim w USA grupa sklonowała stronę internetową G. Busha i zamieściła na tej „pirackiej” wersji materiały krytyczne wobec tego kandydata, pozorując oficjalne doniesienia medialne. Innym razem we współpracy z organizacją Greenpeace za pomocą uruchomionej pod adresem ArcticReady.com parodystycznej strony grupa pokusiła się o prześmiewczą krytykę polityki korporacji Shell związanej z wydobyciem ropy na terenach arktycznych, pozorując oficjalny serwis internetowy naftowego giganta [149].

Jak stwierdziłem, protokoły są także, poza ich natywną funkcją zarządzania relacji software/hardware/Network, technologicznymi wcieleniami/przedłużeniami władzy politycznej i towarzyszącej jej ideologii, szyfrem i mechanizmem przenoszącym analogowe struktury i hierarchie do cyfrowego świata. Spełniają rolę regulacji prawnych wszytych na stałe w technologiczną postać cyberprzestrzeni. Prawa te tworzą, implantują do wewnątrz maszyn i kulturowych przestrzeni cyfrowych technokratyczni specjaliści, którzy ustanowili swoją społeczną pozycję i zabezpieczyli wpływy dzięki wiedzy na temat logiki funkcjonalnej techniki oraz kontroli nad sposobami jej wykorzystania. W połowie lat 90. Arthur Kroker, jeden z najgłośniejszych krytyków cyberkultury i jej technologii, w książce Data Trash: The Theory of the Virtual Class wystąpił z kulturoznawczą krytyką rozwoju technologicznego uwikłanego w tego typu rynkowe, ekonomiczne, polityczne i związane z globalnymi grami gospodarczymi mechanizmy i struktury [150]. Sugerował wówczas narodziny „klasy wirtualnej” towarzyszącej coraz bardziej powszechnej obecności cyfrowych maszyn w życiu publicznym. Władza tej nowej klasy rządzącej polegać miała na realizowanej za sprawą standardowych mechanizmów ekonomicznych i politycznych (Kroker odwołuje się do klasycznych diagnoz krytycznej teorii kultury jako ideologii) kontroli nad społecznym sensem cyfrowej rewolucji. „Klasa wirtualna” w przestrzeni cyfrowej szuka kolejnego terytorium kulturowej kolonizacji według starych, dobrze już w życiu społecznym rozpoznanych mechanizmów przemysłu kulturowego. Wirtualna klasa zyskała społeczną i kulturową władzę dzięki regulowaniu rozwoju sfery high-tech i ustanawianiu dla niej stosownych kontekstów społecznych uwikłanych w mechanizmy kontroli własności intelektualnej (debaty wokół redefinicji praw własności intelektualnej i praw autorskich), sposoby tworzenia i cyrkulacji cyfrowych zasobów (polityki digitalizacji), reguły konstruowania i podtrzymywania interakcji i wymiany w sieciach (protokoły, infrastruktura przesyłowa). Władza także i w cyfrowym świecie pilnuje, aby narzucane przez nią autorytarnie reguły technologicznego bycia pozostały skuteczne i trwałe – zabiega o to, aby użytkownicy technologii informacyjnych nie stali się świadomi i krytyczni wobec dostępnych dla nich cyfrowych maszyn, a pozostawali jedynie ich nieświadomymi, biernymi konsumentami. Wirtualne zasady dotyczą np. bezkrytycznego zanurzenia ciała w cyfrowy świat oraz dokonującej się przy tej okazji dekompozycji podmiotowości. Wydaje się, że protokoły – choć to tylko czubek góry lodowej kryjącej pod powierzchnią oceanu technologicznego podobne mechanizmy – to najbardziej radykalne dziś reguły wpisane w konstytucję cyfrowego świata. To kulturowy kodeks pisany przez technokratyczną klasę wirtualną.

Protokoły pilnować mają zrębów międzynarodowej ekonomii informacyjnej [151], która, najpierw pod amerykańskim szyldem propagandowym information highway, a następnie jako mitologiczne narracje poświęcone popularyzacji Internetu i komputeryzacji, ma spełniać rolę wytycznej rozwoju gospodarek kapitalistycznych opartych na przetwarzaniu informacji. W gospodarce tak pomyślanej środki produkcji w coraz większym stopniu zależą od nauki i technologii oraz od jakości dostępnych informacji i jakości zarządzania nimi w procesie produkcji, konsumpcji, dystrybucji i handlu (rola wiedzy stosowanej). Dokonuje się w niej przejście od produkcji wytworów materialnych do aktywności polegających na działaniach związanych z obrabianiem informacji. Widać to zarówno we wzroście udziału tego typu produkcji w skali PKB, jak i w przełożeniu na ilość zatrudnionych w powiązanych z informacjami profesjach i sektorach rynku. W gospodarce tej następują głębokie transformacje w zakresie organizacji produkcji i generalny wzrost aktywności ekonomicznej. To zmiany, które widać w przejściu od standardowej produkcji na masową skalę do elastycznej produkcji na mniejsza skalę, produkcji wertykalnej. To także wzrost roli średnich i małych przedsiębiorstw (sektor MSP) na niekorzyść zbiurokratyzowanych megakorporacji. Nowa ekonomia ma charakter globalny. Kapitał, produkcja, zarządzanie, rynki, siła robocza, informacja i technologie przenikają tradycyjne granice narodowych państw i ich gospodarek. Chociaż narodowe państwo wciąż pozostaje wiodąca narracją polityczną, militarną i administracyjną, to ekonomia informacyjna wymknęła się spod jego kontroli. Zmiany ekonomiczne i organizacyjne w światowym krajobrazie gospodarczo-finansowym dokonują się w trakcie cyfrowej rewolucji technologicznej. Jądrem tej rewolucji są wszelkiego rodzaju technologie informacyjne oraz zasilająca je politycznie rola USA [152].

Odpowiedzią na nasilającą się kontrolę społeczną, odgórne regulacje komunikacji społecznej i dążenie do rozszerzania pola relacji technologicznego podporządkowania i zależności w cyberprzestrzeni może być restytucja krytycznej teorii kultury rozumianej jako krytyka ideologii. Krytyczna teoria klasy wirtualnej (obejmująca także krytyczną teorię wirtualności i mediów cyfrowych) miałaby, według Krokera, polegać na odszukiwaniu i nazywaniu miejsc niszczonych/zagrożonych przez autorytarne dążenia do technoutopii o określonym profilu politycznym, gospodarczym i społecznym. Kroker wskazuje precyzyjnie na mechanizmy takiego działania. Są nimi następujące projekty ideologiczne: utożsamienie tego, co wirtualne z tym, co dobre i progresywne w opozycji do tego, co tradycyjnie polityczne i ekonomiczne; podważenie reguł estetycznych i dążenie do zaniku solidarności w społeczeństwie pożądającym liberalnych relacji sieciowych i interakcji; wywołanie kryzysu demokracji i upłynnienie zasad ekonomicznych mające zmiękczyć wiedzę i wrażliwość na mechanizmy globalnego rynku i konsumpcjonizmu; semiotyczne osłabianie i maskowanie realiów politycznych i ekonomicznych, takich jak bezrobocie, wykluczenie, rozwarstwienie.

Jednocześnie Kroker, kontynuując w tym zakresie tradycję myślenia mcluhanowskiego, pozostaje optymistą w ocenie nowych technologii i ich kulturowego wpływu. Jest przekonany, że niezbędny w kontakcie z nimi dystans możliwy jest jednak jedynie z pozycji wirtualnego zanurzenia w cyberkulturę i jej technologie. Przymus dostosowywania się do reguł wpisanych w technologie przez rządzących ich rozwojem technokratów musi być zrównoważony społecznym oporem wynikającym z oddolnej demokratyzacji, pluralizacji i dywersyfikacji – już od Marksa wiemy przecież o możliwych alternatywnych losach technologii, kiedy napędzane są one inną niż dominująca w danej chwili politycznie siłą społeczno-kulturową. W praktyce o taką w pełni krytyczną postawę trudno – wyprzeć starają się ją rynkowe narracje komercjalizacji, militarystyczne narracje cyberwojny czy technoutopijne opowieści o emancypacji za pośrednictwem techniki. Sprzeciwiają się zaś jej wspomniani już wcześniej twórcy mediów taktycznych posiadający jednak zupełnie inną pozycję systemową. Chyba największe sukcesy na tym polu odnoszą środowiska skupione wokół idei wolnego dostępu do kodu i swobodnego jego przekształcania w otwarty społecznie sposób. Dokonali oni radykalnego przesunięcia w zakresie ekonomiczno-politycznego myślenia o możliwościach kontroli nad rozwojem projektu cyfrowego – złamali żelazne zasady kapitalistycznej wymiany rynkowej, proponując heretycką darmową wymianę kulturową bez konsekwencji finansowych, prowadzoną na zasadzie dobrowolnego unieważnienia istniejących zasad dotyczących: definiowania własności intelektualnej i jej społecznego definiowania; sposobów wykonywania kreatywnej i zaawansowanej, specjalistycznej pracy wymykających się tradycyjnym relacjom instytucjonalnym i organizacyjnym, itd. Na skutek działań społeczności otwartego kodu i software jasne stało się, że rozwijanie projektu cyfrowego może odbywać się niezależnie od działań korporacyjnych i sytuacji podważonych zasad prawnych, w ukryciu przed politycznym i wojskowym monitoringiem i kontrolą, w kontekście radości uprawiania wiedzy, tworzenia techniki oraz artystycznych/artystowskich metod wymiany, współpracy, integracji społecznościowej [153]. Taką interpretację wydarzeń trudno było i wciąż jest zaakceptować tradycyjnie funkcjonującym korporacjom, nawet tym utrzymującym się z tworzenia software; administracji politycznej, która straciła możliwość kontroli wydarzeń i wpływu na ich rozwój, lobby wojskowemu i ideologicznemu, których znaczenie w środowisku otwartym zostało podważone i zminimalizowane.

Bliskoznacznie a nawet wymiennie pojawiają się w dyskursie studiów nad nowymi mediami, cyfryzacją i sieciami kategorie pojęciowe kodu i software oraz wszelkie ich pochodne, takie jak kodowanie, oprogramowanie, aplikacje, programowanie, itd. Także w niniejszym tekście czytelnik wielokrotnie stawał wobec wymienności obu rodzin pojęć – pisząc o kodowaniu odnosiłem się do programowania, analizując warstwy kodu zwracałem się ku strukturom i reżimom oprogramowania. Kod binarny to alfabet, w którym napisane jest oprogramowanie – software rozumieć należy jako reguły gramatyczne cyfrowego kodu i ich emanacje na bazie określonego hardware i interfejsów. Takie relacje pomiędzy wymienionymi pojęciami i ich semantykami uznać można za zupełnie naturalne dla większości ich aktualnych wywołań, także tych związanych z budowaniem humanistycznych i społecznych teorii poświęconych specyfice cyfrowego świata. Jednakże nieuchronnie, wraz z rozwojem miękkich mediów – czyli software i wszelkich jego wcieleń i zastosowań – oraz powiększającym się dystansem pomiędzy pierwotną formułą binarnego kodowania elektryczności a software oddalającym się od tego poziomu ku antropomorficznym i kulturowo pożądanym wcieleniom, dzisiejsza bliskość tych kategorii będzie musiała ulec erozji. Już teraz tę rosnącą przestrzeń pomiędzy kodem a software funkcjonują protokoły, architektury obliczeniowe czy języki programowania.

Pozostawiam tu kategorię software bez precyzyjnej definicji. Uznaję ją za częściowo wyjaśnioną przy okazji moich rozważań, a jednocześnie za zbyt obszerną, aby możliwe było tu rzetelne konstruowanie wielowymiarowej semantyki tego jakże pojemnego pojęcia. Nie wchodzę także w różne spory dotyczące tego zasięgu ani różnice zdań co do zasadności jej rozciągania na kolejne obszary mające miejsce w dyskursie studiów medialnych. Wrócę natomiast do przywołanych już przeze mnie stanowisk wpływowych konstruktorów nowomedialnego dyskursu, którzy wskazują na dokonującą się obecnie ewolucję tego typu studiów zmierzającą w kierunku zunifikowanej i transdyscyplinarnej formuły software studies. Radykalny postulat koncentracji aktywności poznawczej nauk humanistycznych na sferze software i jego kultury zaproponowali fundatorzy nowej dyscypliny Matthew Fuller i Lev Manovich. Podobnie wypowiadają się tacy autorzy, jak David Berry, Douglas Rushkoff czy Adrian McKenzie [154]. Wszyscy oni, jaki i wielu innych, także u nas, widzą w nowej formule szansę na update studiów kulturowych, nowy program dla studiów nad mediami i komunikacją, których powinnością ma być tworzenie teorii software jako teorii kultury i wielowymiarowa analiza soft­ware jako kultury.

W tym kontekście powtórzę prowokacyjną tezę Kittlera: there is no software. Software jest kategorią metaforyczną, bowiem opisuje jedynie kulturowe, przyjazne użytkownikowi operacje dokonywane na płynącym wewnątrz cyfrowych maszyn napięciu elektrycznemu. Software to kod kultury służący do wydawania poleceń i kontroli ich wykonania przez cyfrowe i sieciowe maszyny. Niejako na przekór tej radykalnej tezie, której uzasadnienie jest zarówno techniczne – software to nic więcej ponad system poleceń dla elektryczności w maszynach, oraz kulturowe – to jedynie kod kulturowy, który nigdy nie osiągnie statusu języka, to właśnie sfera otwierająca się pomiędzy tymi ograniczeniami powinna stanowić najważniejszy problem studiów kulturowych, związanych z mediami i komunikacją, kulturą wizualną, językoznawstwem i wielu innymi podobnymi. Software uobecnia sens mojej tezy o sytuacji postmedialnej – to przestrzeń działań transmedialnych, hybrydycznie łącząca materialność elektryczności z abstrakcją/wirtualnością kodu matematycznego, sieci z aktorami w nich funkcjonującymi oraz medialne materie z reżimami semantycznymi kultury. Podobnie jak przywołani badacze tak i ja uznaję ten kierunek działania za właściwy i zasadny. Uznaję, że zarówno medialny świata, jak i wszelkie dyskursy i teorie, sposoby nazywania i analizowania go, stoją dzisiaj u progu software turn. W tym tekście jedynie wskazuję na ten ogólny problem i związany z jego pojawieniem się i siłą kierunek poznawczy dla studiów komunikacyjnych, uznając jednocześnie, że krokiem poprzedzającym jego podjęcie jest konieczność weryfikacji sytuacji medialnej (zarówno na poziomie technologicznym społecznym, jak i dyskursywnym). Stąd w moich rozważaniach software postrzegam jako stan późniejszy, docelowy, przed którym należy rozliczyć się z sytuacją medialną i wejść w poprzedzającą software culture sytuację postmedialną.

Najbardziej istotnym dla moich rozważań problemem obecnym w przedstawionej rekonstrukcji namysłu nad mediami i kulturą jest interferencja cyfrowego kodu, który przecież na bazowym poziomie dysponuje tylko dwiema wartościami: 01, onoff, jestnie ma, z praktyką software, która stworzyła wiele różnych języków i systemów w oparciu o te dwie zasadnicze wartości. Czy i jaką kulturową semantykę i systematykę przypisać do cyfrowego kodowania w ogóle i jak się ona zmienia w różnych obliczach software? Jakie skutki kulturowe ma powiększający się dystans pomiędzy kodem a software? To problemy, które optyka software studies wnosi do teorii postmediów i postmediacji.

Z wyrafinowaną propozycją sytuującą się w przestrzeni odpowiedzi na te pytania wystąpił dekadę temu Scott Lash w książce zatytułowanej tak jak jego program teoretyczny: Information Critique [155]. Według Lasha kluczem do zrozumienia nowej ontologii medialnej jest kategoria informacji i jej krytyka, które czerpią z sytuacji danych, kodu i software. Lash podobnie jak wcześniej wymienieni propagatorzy jest przekonany, że nauki humanistyczne i społeczne wyczerpały swój potencjał wyjaśniający wobec zmieniającego się pod wpływem rewolucji informacyjnej świata. Opierają się one przede wszystkim na filarach teorii krytycznej, która najpierw przyjęła postać niemieckiej „Ideologiekritik” w odczytaniach Adorna, Habermasa i innych marksistów, a następnie oparła się o diagnozy wynikającą z rozwijanej w perspektywie europejskiej i amerykańskiej teorii krytycznej. Nie są one w takiej postaci zdolne do miarodajnego oglądu i reakcji w sytuacji, kiedy to, co symboliczne (a zatem ideologiczne, związane z dyskursem, władzą, manipulacją), staje się jedynie informacyjne, staje się zjawiskiem jednocześnie fizycznym (elektryczność) i cybernetycznym (matematyką regulującą działanie elektryczności)? Krytyka ideologii winna ustąpić miejsca „Informationkritik”, czyli krytycznej teorii informacji oraz towarzyszącej jej kulturowej krytyce kodu cyfrowego, która może i powinna przybierać postać software studies, ale także mierzyć się z wyzwaniami praw fizyki dotyczących elektryczności oraz na powrót zająć się kulturowym „dekodowaniem” matematyki rozumianej jako system informacyjny, komunikacyjny. Chodzi w gruncie rzeczy o ustanowienie mostu łączącego tradycję krytycznego badania kultury medialnej ze sferą kultury nowych mediów. Krytyczny namysł nad światem cyfrowej informacji miałby za zadanie czytanie go jako tekstu kultury, wynajdowanie i obnażanie w nim, przede wszystkim, semantyk różniących informacyjność od dezinformacji i mis informacji, które powstają, kiedy perspektywie semantycznej (ideologicznej) teorii kultury i mediów przyjrzeć się na bazie myśli cybernetycznej komunikacji cyfrowej. Według Lasha informacja i dezinformacja to naturalne, dopełniające się stany cyfrowego uniwersum, a popadanie jednego w drugi jest wielokrotnie niezauważalne. Można traktować je jako kategorie przeciwstawne jedynie z punktu widzenia kulturowej, semiotycznej krytyki systemu komunikacyjnego działającego w oparciu o cybernetyczny system technologii komunikacyjnych.

Niemożliwe jest już spojrzenie na rzeczywistość kultury z krytycznego dystansu oferowanego w ramach teorii krytycznej. Globalny porządek informacyjny wymazał wszelką transcendencję, stając się systemem autoreferencyjnym – nie ma już innej przestrzeni niż przestrzeń informacyjna, a czas uległ radykalnej kompresji. Ze względu na te przetasowania konieczne jest przyglądanie się informacji z wewnątrz jej samej, wejście w świat kodu i przyglądanie mu się od środka. Klasycznie pojęte i krytykowane w ramach perspektywy teorii krytycznej ideologie są tworami uniwersalnymi, rozciągającymi się w czasie i przestrzeni, dążą ku metanarracyjności. Tymczasem informacja jest skompresowana w czasie i przestrzeni, immediuje, czyli oferuje bezpośredniość i natychmiastowość. W porządku informacyjnym wszelkie narracje sprowadzone są do postaci punktu, linie zamieniają się w punkty. Zdaniem Lasha ten informacyjny porządek różni się radykalnie od takich konstrukcji kulturowych, jak Chrześcijaństwo czy nawet Oświecenie. Poprzez swoją natychmiastowość (przekazu, reakcji, generowania danych) stwarza kondycję dyktatu chwili – natychmiastowej percepcji, adaptacji, reakcji, ograniczając/wyłączając możliwość zdystansowanej refleksji. Krytyka informacji musi, reasumując, spełniając założenia teoriopoznawcze krytyki kultury jako krytyki ideologii i semantyki, zasadzać się wewnątrz cybernetycznej natury cyfrowego kodu i jego cyberkulturowych implementacji. Lash przedstawia to zwięźle następującymi słowami: Information critique must come from inside the information itself [156].

Bardzo podobne stanowisko co do zmian paradygmatycznych i metodologicznych w zakresie badania kultury mediów cyfrowych i ich samych prezentują analitycy cyfrowego kodu i jego software’owych implementacji. Proponują oni nową medioznawczą formułę Critical Code Studies, w której centralnym punktem odniesienia ma być ontologia cyfrowego kodu[157]. Zdaniem jednego z propagatorów tego stanowiska badawczego, M. C. Marino, jego formuła miałaby odsuwać na drugi plan myślenie o kodzie jako metaforycznej, poetyckiej i estetycznej paraformie tekstu i tekstualności. Trzeba zacząć analizować go jako tekst w sensie dosłownym, jako system znaków wyposażony we własną syntagmę, retorykę oraz funkcjonalność wybiegającą poza stricte maszynową użyteczność jako kodyfikację instrukcji wykonawczych. Takie studia nad kodem to praca dla nauk humanistycznych, których podejście różni się od cybernetycznych perspektyw i analiz. Humaniści mają niezbędny bagaż doświadczeń i odpowiednie narzędzia, aby na bazie ustaleń cybernetyków i inżynierów, skupiających się na technologicznych i scjentystycznych analizach, rozpocząć kreślenie semantycznej geografii kodu, czytając/dekodując go przez osadzenie w kontekście kulturowym, społecznym, ideologicznym. Marino proponuje, aby krytyczne studia kodu stały się nowym, hermeneutycznym językoznawstwem, literaturoznawstwem i krytyczną teorią kultury.

Taka krytyka kodu i informacji to wstęp do kulturowej krytyki software. Oba nurty współczesnego medioznawstwa i studiów kulturowych odwołują się do historycznej debaty o naturze informacji, którą już wcześniej streszczałem, oraz do informacyjnych mitologii, które na przestrzeni historii cyfrowych mediów i ich społecznych zastosowań stawały się powszechnymi narracjami im towarzyszącymi. O mitach związanych z informacją i jej politycznym wykorzystaniem pisali już ojcowie-założyciele projekt cyfrowego, tacy jak np. Langdon Winner [158]. Amerykański cybernetyk krytykował najpopularniejsze we wczesnej fazie zachwytu nad możliwościami technologii mity o informacyjnym wyzwoleniu. Mit o liberalizującej sile rewolucji cyfrowej, demokratyzacji życia społecznego i wzroście kreatywności i innowacyjności za sprawą dostępu do technologii cyfrowych opiera się na następujących fałszywych przesłankach: ludzie są uzależnieni od informacji; informacja to wiedza; wiedza to władza; upowszechniający się dostęp do informacji sprzyja rozwojowi demokracji, wyrównuje społeczną strukturę władzy. Pierwsze z tych założeń autor obala na podstawie analizy systemu dystrybucji wiedzy i edukacji w społeczeństwach. Nie jest on idealny, ponieważ wciąż poza jego oddziaływaniem pozostaje wiele środowisk, grup społecznych i innych wykluczonych z powodów ekonomicznych, geograficznych, kulturowych, cywilizacyjnych. Co do drugiego to nie ma żadnego dowodu na to, że wiedza oznacza automatycznie wynikającą z niej władzę. Kolejna sprawa to mitologizowanie cyfrowej informacji – nie jest ona oczywiście wiedzą w tradycyjnym znaczeniu, domaga się intelektualnej obróbki, translacji z postaci danych binarnych do formy kulturowo czytelnej informacji.

Potwierdzenie wagi tego zwrotu ku kodowi i software znaleźć można także u historyków cyfrowości, którzy pisząc jej dzieje coraz częściej rezygnują z maszynocentryzmu, w ramach którego to wytwarzanie hardware i wszelkie związane z tym okoliczności polityczne, militarne, ekonomiczne, itd. miałyby odgrywać w powszechnej historii mediów cyfrowych decydującą rolę [159]. W tych dyskursywnych i teoriopoznawczych figurach – krytycznej teorii protokołów, kodu i soft­ware, widać przesunięcia, które dokonują się analogicznie w tkance samego ich przedmiotu, czyli cyfrowego świata technologii. To, co określiłem jako sytuację postmedialną w obszarze zmieniającego się krajobrazu technokulturowego, w praktykach i teoriach naukowych przybiera postać zwrotu ku software i jego krytycznej kulturowej teorii jako uniwersalnym wyjaśnieniom medialnej kultury współczesności.

II.5. Cyfrowe kody kultury

Cyfrowemu kodowi, pomimo wielu podobieństw, nie udaje jak na razie przejąć funkcji języka i daleko mu do centralnej pozycji w uniwersum komunikacyjnym. Nie osiągnął także jeszcze kulturowej roli porównywalnej z przypisaną mitycznej wieży Babel: uniwersalnego, totalizującego sposobu komunikacji. Obecna pozycja postrzegana w ramach różnych porządków kultury pozwala jednak przypuszczać, że taki kierunek jego kulturowego pozycjonowania należy uznać za wiodący. Jego potwierdzeniem, poza przywołanymi już przykładami szczegółowymi, są także zjawiska o charakterze bardziej ogólnym. Pierwsze z nich dotyczy wewnętrznej dynamiki rozwoju uniwersum technologii medialnych, które w medioznawczym dyskursie kryje się pod pojęciem konwergencji. Nie będę tu wchodził w znaczenie tego pojęcia szczegółowo, bowiem już na dobre zagościło ono w medioznawczym słowniku. Chciałbym natomiast zwrócić uwagę na fakt, że to właśnie natura kodu cyfrowego umożliwiła radykalne przyspieszenie tego procederu w okresie cyfrowym. Konwergencja to stapianie się już istniejących form mediów, wchłanianie jednych przez drugie. Telewizja powstała jako konwergencja radia i kina, telefon komórkowy jako połączenie telefonii kablowej z radiem, itd. Obecność cyfrowego kodu – to właśnie okoliczność postmedialna – sprowadza wszystkie istniejące gramatyki mediów i ich formy do wspólnego mianownika. Wszystkie one, o ile chcą być obecne w cyfrowym świecie, muszą dać się przekonwertować do postaci digitalnego alter-ego. Tracą w ten sposób wiele swoich fizycznych przymiotów, ale zyskują miejsce i szansę na przetrwanie wewnątrz cyfrowego uniwersum. Telewizja w wersji cyfrowej godzi się na ograniczenie jej (to geny kina) linearności i masowości, ale w zamian zyskuje na interaktywności i otwarciu. Książka traci papierowy format (który dorobił się już w kulturze własnej mitologii), a zyskuje elektroniczną intertekstualność i nawigowalność/bazodanowość. Podczas translacji na wartości binarne wszystkie dotychczas istniejące media odrzucają swój tradycyjny hardware, by stać się bazami danych z przypisanymi sobie, naśladującymi starszych krewnych, interfejsami. Jednocześnie ta adaptacja wprowadza je w środowisko egalitarne, w którym potencjalnie wszystkie są sobie równe w formie zapisów kodu. Dzięki temu otwierają się na kulturę i świat: stają się programowalne, mogą być na różne sposoby wywoływane i przetwarzane. Ich technologiczne i kulturowe dziedzictwo staje się przedmiotem oddziaływania wszelkich możliwych algorytmów, protokołów i hardware’ów. Wystarczy spojrzeć na losy filmu, który w cyfrowych okolicznościach zyskał tak wiele niestosowanych czy stosowanych w ograniczonym zakresie w jego analogowej wersji sposobów wyrazu, estetyk, takich jak time-lapse, slow-motion, remiks (piszę o tym więcej przy okazji bazodanowej analizy kina w następnym rozdziale). Podobny los spotyka techniczne reprodukcje i formaty audialne, tekstualne, wizualne.

Zjawisko drugie można zaobserwować wśród artystów i teoretyków sztuki mediów, a także wśród badaczy obu tych sfer, dla których – pod naporem cyfrowości – prześwietlanie i odsłanianie cyfrowego kodu stało się zwieńczeniem tradycji krytycznej pracy z mediami w ogóle. Obecność cyfrowego kodu w domenie cyfrowej, w której spełnia funkcję kodeksu operacjonalizującego działanie medium, stała się powszechnie łatwo namacalnym dowodem na obecność unikalnych kodeksów i gramatyk wewnątrz technologii komunikacyjnych. Co prawda już od McLuhana mamy świadomość, że the medium is the message, ale dopiero strukturalne wyodrębnienie kodu binarnego i nakładanych na niego warstw wyższego rzędu, czyli software, obnaża taki układ mediacji. Cyfrowy kod stał się w oczach sztuki mediów i wiedzy o nich elementem, który domaga się krytycznej analizy oraz estetycznego obnażania. W związku z tą jego autonomią jednym z najbardziej frapujących kierunków rozwoju krytycznej wiedzy o mediach, jak i sztuki mediów cyfrowych stało się podglądanie i obnażanie kodu mediów tej sztuki. Chodzi tu o działanie podwójne, które, z jednej strony, ma na celu objaśnianie, odszyfrowanie unikalnej gramatyki kulturowej medium, jego specyficznego języka, który decyduje o tym, jak wygląda komunikacja za jego pośrednictwem, oraz, z drugiej strony, zestawienie tego „języka” zasadami kodu binarnego, który ten „język” wchłonął. Na skutek konwergencji technologicznej wszelkie wcześniejsze formy artystyczne, które zostały zdigitalizowane, dostały się we władanie software, stały się programowalnym kodem i weszły w reakcje z logiką hardware, interfejsów, baz danych, sieciowych przesyłów i interaktywnych wywołań. Ta samo prawidło cechuje perspektywę teorii mediów, które w cyfrowości odnajdują ślady dawnych mediów. Tym samym krytyka kodu to zarazem krytyka tożsamości medialnych „języków” i technik jak i ich matematyczno-elektrycznego alter-ego, ich binarnych szyfrów i kodyfikacji [160]. Zarówno sztuka, jak i nauka stają przed sytuacją, w której to kod i jego reguły (protokoły, systemy operacyjne, software) dyktują dalsze warunki ich uprawiania, stają się przestrzenią dla ich uprawiania i odniesienia [161]. Można powiedzieć, że cyfrowy kod stał się w ten sposób metakodem medialnego uniwersum, a jego zasady prawem medialnego świata w domenie cyfrowej.

Dotychczas rozważałem matematyczność jako wyrafinowaną, abstrakcyjną zasadę myślenia o świecie, porządkującą go wedle logicznych zasad i ich liczbowego kodowania. Przywołałem także, za Michałem Hellerem, wynikające z tego faktu postrzeganie i rozumienie rzeczywistości na kształt konstrukcji matematycznej – matematyczność świata. W tym podwójnym sensie matematyczności osadziłem kod cyfrowy, który uznałem za uniwersalną dla kultury współczesnej, zanurzonej w cyfrowe technologii i sieci, gramatykę komunikacji i konstruktora modeli świata. Idąc dalej tym tropem, przyjrzę się teraz kulturowej implementacji kodowania matematycznego – dającej się „programować” i „kodować” wyobraźni kulturowej i wyrastającym z niej kompetencjom komunikacyjnym. Iloczyn obu pojęć daje w rezultacie terminy, które w dyskursie krajowej humanistyki nie zadomowiły się jeszcze. Chodzi o „nowy alfabetyzm” (new literacy) i „media wyobrażone” (imaginary media)[162]. To właśnie kod cyfrowy, ze względu na swoją bliskość wobec tradycyjnego kodu kultury, języka, jest dla form tej nowej wyobraźni najważniejszym z budulców, a dla medialnego krajobrazu przez nią inspirowanego naturalnym medium wypowiedzi i konstruowania świata za jego pomocą. W definiowaniu nowego alfabetyzmu i mediów wyobrażonych skojarzenia z wyobraźnią i wyobrażeniami są i dla mnie niezwykle istotne. Zaproponowane tu czytelnikowi rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób na wartości analitycznej obecnego od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali w dyskursie wspomnianych nauk Benedict Anderson wraz ze swoją głośną pracą Imagined Communities oraz Charles Taylor w swojej równie głośnej Modern Social Imaginaries [163]. Ja kategorię tę w oparciu o możliwości dwukierunkowego posługiwania się kodem cyfrowym, służącym zarówno do swobodnego czytania jak i pisania medialnych kształtów i treści, dopasowuję do warunków światów medialnych, w których przybiera ona postać medialnych i komunikacyjnych wyobraźni [164] .

Związek efemerycznego pojęcia „alfabetyzmu” z cyfrowym kodem polega na konstruktywistycznym uznaniu kulturotwórczej siły technologii medialnych, które funkcjonują w powszechnym obiegu. Ta współzależność kodu i kultury polega, ogólnie rzecz ujmując, na dwóch przeciwważnych procesach. Najpierw kultura preparuje technologie i pisze dla nich kody i kodeksy (to historia kilku tysiącleci cywilizacji i tworzenia kodów abstrakcyjnego myślenia – matematyki), by równolegle za ich pośrednictwem zmieniać samą siebie. Kultura tworzy narzędzia, techniki i ich kody/konteksty/wyobraźnie, poddając się jednocześnie ich potencjałowi, wrażliwościom, wyobraźniom i dyskursom, które wzbudzają.

Cyfrowa konfiguracja kultury to jednak zjawisko szersze i głębsze niż trajektorie poszczególnych narzędzi i technik epoki analogowej, takich jak pismo, obrazy, dźwięki i poszczególne ich medialne technologie. Cyfrowość – odwołam się po raz kolejny do mojej ogólnej tezy o sytuacji postmedialnej – sprowadza wszystkie dotychczasowe języki mediów, ich kulturowe gramatyki i konteksty do wspólnego mianownika. Wchłania je, digitalizuje i zamienia na układ, w którym rozparcelowane są pomiędzy software, bazy danych i interfejsy użytkowe. W ten sposób obok wielu dostępnych języków/kultur medialnych, które wspólnie składają się na „alfabetyzm” epoki analogowej, pojawia się także nowy, cyfrowy alfabetyzm. Powstaje on na zasadzie kulturowych negocjacji już istniejących obyczajów i wyobrażeń komunikacyjnych zderzonych z nowym środowiskiem technologicznym, w którym funkcjonują. Przejawia się jako nowy zbiór komunikacyjnych zasad i mitów, takich jak usieciowienie, programowalność, remiks i transmedialność. Nie będę wchodzić głębiej w definiowanie samego alfabetyzmu ani też rozważać wszystkich jego cech. Skupię się jedynie na tych jego aspektach, które wynikają z obecności cyfrowego zakodowania komunikacji i logiki działania software. Są nimi programowalnośćwyobraźnia sztucznego.

Najważniejszą z cech nowej medialnej wyobraźni, związaną z kodem i software, jest odczucie programowalności (programmability). Bierze się ono z uznania software’owej płynności cyfrowego świata i ekstrapolacji jej sensu na inne komunikacyjne wyobrażenia i działania, które podejmują zanurzeni w cyfrowy świat. Tę cechę cyberkulturowej wyobraźni podkreśla Wendy Hui Kyong Chun, autorka książki Programmed Visions: Software and Memory, rozszerzając ją na obszar życia społecznego i politycznego zachodnich społeczeństw [165]. Programowalność to, w tym ogólnym sensie, przeświadczenie o dającej się w racjonalny sposób projektować i zarządzać neoliberalnej infrastrukturze społecznej charakterystycznej dla rozwiniętych rynkowo, gospodarczo, technologicznie i politycznie państw zachodnich. Społeczeństwo i kulturę postrzegać można w tym duchu jako sieci, w których obok różnych aktorów i różnych ”hardware” (infrastruktury technicznej, instytucji, itd.) istnieją także logiki pozwalające na wieloraką, wielopoziomową aktywność i połączenia w ramach sieciowej struktury. Programowalność to, z jednej strony, wykształcona przez kulturę reguła technologiczna odpowiadająca na zapotrzebowanie liberalnych społeczeństw, oraz, z drugiej, stan technologiczny, który tę potrzebę uosabia i utrwala za sprawą praktykowania używania i pisania rozwiązań software’owych.

Nowy alfabetyzm, a zatem społeczne praktyki i wyobrażenia dotyczące pisania i czytania [166], czy inaczej mówiąc kulturę komunikacji, komunikacyjną wrażliwość, kompetencje i wyobraźnię, można zdefiniować także w relacji do społecznego konstruowania praktyk dyskursywnych, budowania i podtrzymywania dyskursów [167]. W tym nowym alfabetyzmie obecność kodu cyfrowego i jego form matematycznych, ale także jego społecznych praktyk, takich jak digitalizacja zasobów kultury czy dyskurs programistyczny (języki, instytucje, formy działania) wprowadza alternatywę dla jednowładztwa najważniejszego z analogowych kodów – tekstu. Otwierający się na nową wyobraźnię nie tylko zyskuje wejście w świat tekstu i jego kultury – tekstualności, epoki Gutenberga, i stosowny wobec nich dystans poznawczy ale i – tu objawia się programowalność – dopuszcza programowalność/płynność tekstualności. Tym samym wchodzi w dyskurs rozpoczęty już w obszarze literatury i liberatury, kontynuowany w cyfrowości jako dyskurs hipertekstu i cybertekstu, i podejmuje wyzwanie bycia współtwórcą, programistą, operatorem i współkonstruktorem jego formy i treści. Linearność tekstualną, która stała się także linearnością kultury analogowej, poddaje w cyfrowej wyobraźni różnego rodzaju remiksom, personalizacjom, update’om, wariacyjności. Czytając i pisząc kulturę-tekst posługuje się innymi, oderwanymi od gutenbergowskich, narzędziami i sterującymi nimi wyobrażeniami, bardziej ją programując, budując skojarzenia i konstruując mentalne modele i reprezentacje świata w oparciu o znane mu aplikacje i interfejsy software.

Niemiecki teoretyk software Florian Cramer jest wręcz przekonany, że znacznie większa część desygnatów pojęć kod i software w kontekście ich cyfrowych wcieleń odnosi się do przestrzeni wyobraźni kulturowej i alfabetyzmów. Definiowanie software i kodu w obszarze kulturowej teorii mediów należy oprzeć na kulturowych praktykach a) algorytmów, w powiązaniu z b) istniejącymi lub imaginacyjnymi maszynami, które je w kulturowym otoczeniu implementują, z c) powiązanymi z nimi na różne sposoby ludzkimi interakcjami w najszerszym możliwym sensie, oraz d) fundującą je i spinającą wyobraźnią. Historia software, kalkulatywności (matematyczności) i cyfrowego kodu to zatem przede wszystkim historia kulturowego rozwoju intelektu i form (kulturowych interfejsów), które przybierał/generował [168]. Trzeba przyznać, że takie ujęcie kodu i software wybiega nie tylko poza ogólnie przyjęte inżynierskie, technologiczne i matematyczne definicje. To także wyjście poza utarte tropy studiów kulturowych i teorii mediów, które postrzegają wyobraźnie i kompetencje komunikacyjne jako efekt (determiniści) i/lub przyczynę (instrumentaliści) technologicznych formuł tych cyfrowych bytów. Cramer widzi ten obszar niezwykle szeroko, stawiając znak ontycznej równości i rysując sieci sprzężeń i zależności pomiędzy kulturą a formami techniki. Nie ma software bez wyobraźni kulturowej, ale i wyobraźnia kulturowa staje się w takim układzie software’owa, otwarta na programowalność. Posługuje się nią jako prymarną metodą czytania i pisania świata. Softwarem, kodami można nazwać także obecne w historii literatury, malarstwa czy kultury w ogóle „algorytmy” przetwarzające istniejące gramatyki, formy, stylistyki [169]. Biorąc pod uwagę tak szeroko nakreślone pole definicyjne, trzeba uznać, że kulturowa historia kodów i „software” z nich wynikających dopiero czeka na napisanie. Jej początki oferują dzisiaj teorie mediów ektronicznych i cyberkultury, archeologia medialnych form. Historia kodowania kultury, obecności w niej wyobrażonych i wcielonych algorytmów, ich różnych relacji ze środowiskiem tekstualności, wizualności i audialności dopiero zaczyna się tworzyć. Będzie ona musiał uwzględnić język jako kulturowy kod, a za podobny/równoważny uznać status matematyki, tekstualności. Reguła tego sprzężenia wydaje się oczywista: niemożliwe są żadne kody technologiczne, które nie są zakorzenione w kodach kulturowych, w historii semantyk i ich społecznych systemów/interfejsów. Dlatego software, podobnie hardware, istnieją o tyle, o ile osadzone są w kontekście kultury. Nie byłyby możliwe, gdyby nie ich osadzenie w języku, symbolach wizualnych (alfabecie), matematyczności.

Drugą z najważniejszych cech nowego alfabetyzmu, reagującego na obecność kodu i programowalności, jest wpływ wyobraźni sztucznego (the imaginary of artificial). Pomimo iż komputer jako projekt cywilizacyjny (interfejs kultury) został pomyślany w taki sposób, aby swymi funkcjami naśladować działanie człowieka, powstał na jego obraz, to jednak obcowanie z nim i programowanie go prowadzi w innym kierunku. Jest nim poszukiwanie tradycyjnych przymiotów ludzkiego intelektu, takich jak kreatywność, zdolność do budowania skomplikowanych, złożonych skojarzeń i dedukcji, w czynności struktur sztucznych (sztuczna inteligencja), które działają automatycznie i mechanicznie w logice rewolucji informacyjnej. Radykalne założenia wczesnej cybernetyki (ujmę to szerzej: wyobraźni w duchu pokartezjańskiego dualizmu) polegające na konstruowaniu matematycznej paraleli pomiędzy komputerem a człowiekiem sugerowały, że możliwe jest osiągnięcie przez maszyny obliczeniowe stanu autoświadomości, maszynowej autokreacji i samodzielności w definiowaniu własnego rozwoju, nieustannym autoremodelowaniu i poddawaniu się działaniom algorytmów. Miałaby ona polegać na zdolności do prowadzenia takich kalkulacji, które wygenerują kolejne kalkulacje oraz ich poziomy i przejmą kontrolę nad procesami wykonywanymi przez maszynę, co w rezultacie doprowadzi do powstania maszynowej, automatycznej auto-wyobraźni. Z zetknięcia wyobraźni kultury, obejmującej projekt maszyny kalkulującej sztuczną rzeczywistość i nieustannie go projektującej/programującej/renderującej, oraz rozrastającej się i zarazem emancypującej tożsamości tego projektu bierze się daleko posunięta we współczesności (nie tylko w dyskursach cyberkultury) fetyszyzacja zdolności maszynowych/automatycznych. Wyobraźnia sztucznego wycenia nieustanny, samozwrotny remiks i loop algorytmów, bardzo wysoko dopatrując się (projekcja odwrócona) w takiej obietnicy konstytuowania się siły, którą wykorzysta we własnej kulturowej, społecznej i antropologicznej emancypacji [170].

Inne cechy nowego alfabetyzmu biorą się z wyobraźni kulturowych, które za sprawą technologii cyfrowych przesuwają akcenty z porządku, totalności, linearności i centralnie zarządzanej dystrybucji ku fragmentacji i rizomatyczności – od linearnej tekstualności ku bazom danych; z uporządkowanej odgórnie totalności ku syntezowaniu dostępnych elementów; ku logice analitycznej z pozycji dekodowania; z jednolitości form i treści medialnego świata ku postmedialnej regule hardware + software + interfejs; z regulowanej syntagmy ku semantyce i semantyzowaniu [171].

Wyobraźnia sztucznegoprogramowalności przekłada się na formy technologiczne cyfrowych mediów, takie jak choćby te, które powstają w ramach projektów DIY, działań medialabowych, czy wszelkich na różną skalę zakrojonych przedsięwzięć o charakterze ekonomicznym – mam tu na myśli olbrzymi ruch start-up’ów wsparty za sprawą propagandy „dot com”, działalność NGO’s na polu edukacji medialnej (media laby) i szeregu innych medialnych i kulturalno-społecznych akcji niemieszczących się w obszarze zarezerwowanym dotąd dla tradycyjnych praktyk i instytucji medialnych, systemów politycznych i prawnych, itd. Można generalnie powiedzieć, że na skutek wcielania w życie elementów tej wyobraźni dotychczasowa jednokierunkowa logika „download”, obowiązująca w domenie mediów analogowych (głównie masowych, zinstytucjonalizowanych), ustępuje pod naporem nowej logiki „upload”, która obok czytania i konsumowania mediów obejmuje pisanie ich scenariuszy i wykorzystanie ich potencjału niemieszczące się w dotychczasowych opowieściach kulturowych. Trwająca sekretna wojna uploaddownload (to metafora Petera Lunenfelda) i przejście od medialnej epoki konsumpcji do nowej rzeczywistości medialnie zapośredniczonej komunikacji zwrotnej zupełnie zmienia medialny i komunikacyjny krajobraz społeczeństw i kultur rozwiniętych technologicznie i dysponujących zaawansowaną, specjalistyczną wiedzą inżynierską [172]. Sekretny wymiar tej wojny polega na kształtowaniu i upowszechnianiu się właśnie wyobrażeniowych przesunięć i rewolucji, których fizyczne formy dopiero zaczynają się materializować. Pisanie mediów i za ich pośrednictwem nowej kultury to taktyka, która dokonuje się dzisiaj przede wszystkim w medialnej wyobraźni objawiającej się w postaci zapisów cyfrowego kodu. Trzeba będzie więcej czasu i zmian w materialnych systemach i logikach kultury, aby stosowne dla nich mechanizmy komunikacyjne mogły zaistnieć. Pisany w wyobraźni kulturowej medialny software wyprzedza swoją hardware’ową bazę.

W roku 1973 w wykładzie z okazji odbioru nagrody Turinga, jednej z najważniejszych i najbardziej prestiżowych w informatycznym świecie, Charles W. Bachman, współtwórca idei baz danych, wielu ich historycznych prototypów i zastosowań, wypowiedział następujące słowa [173]:

Kopernik zupełnie przewartościował naszą wiedzę o astronomii kiedy odkrył, że to ziemia kręci się wokół słońca. Narasta we mnie poczucie, że komputeryzacja to domena, która domaga się równie radykalnego zwrotu. Chodzi o wyzwolenie się z myślenia o centralnej roli jednostki obliczeniowej w procesach informatycznych i dowartościowanie strategii wolnego wyboru i nawigacji w przestrzeni bazy danych. (…) Można je osiągnąć przez odejście od podejścia komputerocentrycznego na rzecz orientacji bazodanocentrycznej. Takie nowe rozumienie komputeryzacji (…) pozwoli na lepsze komputerowe modelowanie złożonej natury świata.

W tej części książki zajmę się zmieniającym się w duchu opisanego przez Bachmana bazodanowego zwrotu ekosystemem cyfrowego świata i jego kulturowego otoczenia. Będę się wywołanym wraz z obecnością baz danych zmianom i zależnościom przyglądać szeroko, osadzając je w kontekście ogólnych zmian społeczno-kulturowych, diagnozujących je dyskursów i mitologii, jak i starać się zrozumieć kulturową energię, którą ta technologia emanuje zmieniając naszą codzienność i nasze o niej wyobrażenia. Sądzę, że opisany przez Bachmana zwrot wewnątrz cyfrowego uniwersum jest tożsamy z najważniejszymi kulturowymi przemianami dokonującymi się w kulturze współczesnej. Bazy danych wpisują się w klimat decentralizacji, stawania się kultury mniej opresyjną, homogeniczną, a za to oddaną we władanie przeciętnym użytkownikom/twórcom, otwartą formalnie i semiotycznie na ich potrzeby i zależną od podejmowanych przez nich działań. Bazodanowe środowisko sprzyja rozumieniu świata i kultury jako zbiorów elementów podatnych na przeróżne scenariusze zarządzania i porządkowania. Wchodzącemu weń/z nim w kontakt oferuje pozycję rzemieślnika i artysty, który projektuje układy architektoniczne, zarządza relacjami pomiędzy poszczególnymi elementami, reguluje przepływy znaczeń i ładunków elektrycznych pomiędzy nimi. To reguły bazy danych umożliwiły kulturę uczestnictwa, kulturę użytkownika czy Web 2.0.

Tak jak i pozostałe elementy ekosystemu [174] technologii cyfrowych, tak i bazy danych uznaję za fenomen zarówno technologiczny, jak i kulturowy. Stąd tak szeroka perspektywa patrzenia na ich społeczno-kulturowe osadzenie. Przyjmuję założenie konstruktywistyczne: technologie medialne nasiąkają kulturową energią, by potem kulturę wedle zakodowanych w sobie reguł zmieniać. Nie jest moim zamiarem orzekanie, o ile technologiczna energia baz danych odmienia rzeczywistość kulturową i społeczną, a o ile jest baza danych jedynie nasączonym kulturowo instrumentem, dzięki któremu społeczeństwa wyrażają swoje wyobrażenia i wspierają wyznawane wartości. To spór, który od lat toczą między sobą przedstawiciele różnych medio- i kulturoznawczych dyscyplin w debacie na temat prymatu w relacjach technika-kultura. Jedni sekundują w niej teoretycznemu stanowisku determinizmu technologicznego inni, przeciwnie, teorii instrumentalizmu technologicznego. Wartość tego sporu jest dzisiaj według mnie głównie historyczna, odnosi się bowiem do kondycji w relacjach kultura-technika, a wytyczyło go tempo rewolucji przemysłowej i wewnętrzna prędkość funkcjonalna i ewolucyjna jej analogowych, masowych technologii. O ile w ramach tej formacji cywilizacyjnej wzajemne relacje techniki i kultury (mediów i kultury) dawało się rozważać i modelować w świetle związków przyczynowo-skutkowych, historycznych następstw i przełomów, o tyle nie jest to w ten sam sposób możliwe w odniesieniu do obecnej, digitalno-sieciowej fazy rozwoju. Cechuję ją syntopiczne, permanentne sprzężenie pomiędzy nauką, techniką i kulturą/sztuką. Cyberkulturowy konglomerat rodzi się z nieustannego sieciowania energii kulturowej i społecznej wpuszczonej w obieg cyfrowych narzędzi, zdolnych do natychmiastowej i wielowątkowej ich kalkulacji.

Dlatego temu syntopicznemu, nieustannie się zmieniającemu, wariacyjnemu i morfującemu środowisku warto przyglądać się wedle założeń wspomnianej perspektywy konstruktywistycznej. Podejmując taką decyzję pozostawiam przywołany powyżej spór bez rozstrzygających odpowiedzi, zyskuję natomiast możliwość przyjrzenia się bazom danych w sposób integralny, łączący ich technologiczne reguły z polem kultury. Tak jak nie da się w prosty sposób współcześnie rozwikłać sporu o prymat w relacjach technika-kultura, tak i nie ma sensu w bezprecedensowym progresie technologicznego uniwersum doszukiwać się tradycyjnych rozgraniczeń i podziałów. Zamiast tego zależy mi na tym, aby uchwycić i pokazać bazodanowe otoczenie w jego naturalnej kondycji: przez pryzmat powiązań kultury i techniki, przenikania technologicznych form i kulturowych wartości, logik komunikacyjnych i medialnych interfejsów.

Bazodanowa ekologia to w tym dualnym kontekście emblematyczna dla postmedialnej kondycji sytuacja: bazy danych heterogenizują medialne i technologiczne środowisko; oferują konsumentowi mediów nową poetykę, estetykę i władzę (wariacji i remiksu) przyćmiewając dotychczasowe uzurpacje autorów i tekstów (nadawców, kontrolerów, gatekeeperów i samych mediów w ich technologicznych gramatykach i instytucjonalnych i społecznych platformach). Victoria Vesna, znana nowomedialna artystka i teoretyczka, wstęp do redagowanej przez siebie antologii poświęconej sztuce danych i estetyce baz danych zatytułowała Zobaczyć świat w ziarenkach piasku. Bazodanowa estetyka wszystkiego (Seeing the world in the grain of sand: the database aesthetics of everything [175]) i myślę, że ten tytuł dobrze oddaje klimat towarzyszący kulturoznawczemu dyskursowi, który podejmuje temat wpływu elementów konstytuujących świat nowych mediów na przestrzeń kultury i życia społecznego. Rzeczywistość (kultura, natura, my sami) konstruowana w podobnych odczytaniach składa się z atomów (i odpowiadających im bitów), czyli metaforycznych ziarenek piasku. Na różne sposoby możemy nimi – zarówno w sensie fizycznym jak i przede wszystkim metaforycznym – zarządzać, tworząc mniej lub bardziej trwałe/unikalne/powtarzalne kompozycje, układy i kształty. Świat z ziarenek piasku jest elastycznym tworem gotowym przyjąć dowolny kształt, który mu nadaje ręka budowniczego.

Myśleć bazodanowo znaczy uznać atomistyczną konstrukcję wszechświata, życia i kultury jako stan naturalny, w którym dokonują się nieustanne rekonstrukcje, w którym atomy/bity są w nieustannym ruchu poddane coraz to nowym zarządzeniom, przybierają nieustannie nowy kształty, i nauczyć się w nim żyć. Myśleć bazodanowo o kulturze i komunikacji oznacza więc, że o ich składowych, czyli zasobach informacyjnych, myśleć należy w taki sam sposób, w jaki myślimy o cyfrowych bitach. Informacje, a na nie składają się przecież wszystkie kulturowe znaczenia, znaki, reguły komunikacyjne, podobnie jak atomy materii, ta wyobraźnia rozpoznaje w nieustannym ruchu – są jak ziarenka piasku w dalekowschodnich mandalach, częściami nigdy nieokrzepłej kompozycji, którą kultura ustanawia/odbudowuje/podtrzymuje wciąż na nowo.

Bazodanowa percepcja i wyobraźnia odwracają się od narracyjnego i hierarchicznego porządku epoki linearnych mediów analogowych, służących głównie zideologizowanej i jednostronnej komunikacji na skalę masową. Dopuszczają w jej miejsce przygodność, płynność, otwartość i akceptują stan permanentnej gry i wiążącego się z nią ryzyka. I taka właśnie, płynna, związana z ryzykiem, otwarta, przygodna jest współczesna kultura w ogóle, jak o tym zgodnie przekonują jej współcześni diagności [176]. Usytuowana w niej, za sprawą triumfalnej siły kolonizacji domeny cyfrowej, baza danych staje się przy naszym udziale elementem naturalnego status quo; fundamentalną regułą i referencyjnym wzorcem strukturalnym myślenia o świecie, komunikowania się w nim i postrzegania wszelkich jego fenomenów. Podchwyconą wraz z pieśnią buntu kulturowego melodią wyzwolenia z ucisku przemysłu kultury, technopolu i uprzedmiotowiającego uniwersum mediacji analogowych.

Mówiąc o postmedialnej sytuacji baz danych mam zatem na myśli technologiczne obiekty, będące zestawem reguł dotyczących postępowania z zasobami cyfrowego kodu. To jednocześnie software’owy stan otwartych, płynnych w czasie i kształcie, znajdujących się pod kontrolą użytkowników procesów wykraczających poza analogowe rozumienie medialnej materialności hardware’owych obiektów. To wreszcie także wyobrażone figury i logika działania w środowisku cyfrowym, jego symboliczne i komunikacyjne modelowanie. Ten trójwarstwowy konglomerat ma swoje kulturowe preteksty i projekcje; bazy danych narodziły się fuzją scjentystycznych i technokratycznych dokonań rewolucji przemysłowej i naukowej w ramach projektu nowoczesności, ale nie byłoby ich, gdyby nie poszukiwania artystyczne, kondycje kulturowe i społeczne inicjujące/podtrzymujące technologiczną dynamikę. Podobnie rzecz ma się w odniesieniu do pochodnych baz danych. Są nimi zarówno rozszerzenia technologiczne, jak i komunikacyjne i kulturowe reakcje, mniej lub bardziej bezpośrednie czy trwałe. Do poszczególnych z nich będę się odwoływać w trakcie niniejszej analizy.

Podróż przez bazodanowe terytoria rozpocznijmy od ustalenia, czym są dane oraz magazynujące je bazy. Etymologia słowa dane (data) odsyła do łacińskiego datum, które oznacza coś, do czego można się odnieść, na czym można się opierać podczas prowadzenia obliczeń. Dane to, w tym tradycyjnym sensie, pożywka dla działań matematycznych, surowe zasoby abstrakcyjnego świata, które matematyka wykorzystuje jako materię w swojej kalkulacyjnej/wyobrażeniowej egzystencji. Z poprzedniego rozdziału, który poświęciłem kodowi cyfrowemu, wynika, że matematyka bez danych jest tak samo niepełna/niemożliwa jak i cyfrowość, w której dla cyfrowych maszyn dane są zarazem funkcjonalnymi (materialnymi, przez fakt regulowania fal elektrycznych płynących wewnątrz kalkulującej maszyny) jak i symbolicznymi zasobami (fale są zarazem poinformowane, czyli zakodowane, jak i informują/kodują – zgodnie z zasadami fizyki i termodynamiki, które mówią o bilansie energetycznym na wejściu do systemu i na wyjściu z niego), w które zamienia się elektryczność płynąca wewnątrz hardware cyfrowych technologii i które podporządkowują elektryczność kodom semantycznym, tj kulturowym. Danymi na poziomie elektryczności są pojedyncze elementy o wartościach 0 i 1, czyli on/off, tak/nie, jest/nie ma oraz ich ciągi, które przybierają różne interfejsy i kody wyższego poziomu – pikseli, bitów, bajtów, pingów, plików, katalogów, itd.

Ustrukturyzowana w postaci baz danych cyfrowość ma w konsekwencji trudny do jednoznacznego zdefiniowania status, bo dane i ich bazy to jednocześnie medialne obiekty i procesy. Ta specyfika jest w ogóle cechą charakterystyczną epoki postmedialnej – nie ma w niej jedynie materialnych obiektów, które nie są jednocześnie procesualnie „ożywionymi obiektami”; tak jak nie ma w niej procesów, które istnieją jedynie wirtualnie, bez zakorzenienia w materii maszyn i zjawisk fizycznych. Taki hybrydowy stan baz danych bierze się z przywołanej już powyżej natury samej matematyki i stworzonych na jej podstawie wszelkich działań kalkulatywnych, które nie istnieją, dopóki nie materializują się w odniesieniu do surowca, czyli danych. Podobnie jest z całym technologicznym krajobrazem cyfrowości, którym rządzi następująca zasada: hardware jest w nim nierozerwalnie związany z software, jedno bez drugiego nie istnieje.

Zrozumieć sens cyfrowych danych można tylko wówczas, kiedy weźmie się pod uwagę różnicę pomiędzy nimi a informacjami, tj. zasobami o charakterze semiotycznym, które wykorzystujemy w postrzeganiu, rozumieniu i konstruowaniu rzeczywistości. Różnica między matematycznie spreparowanym surowcem elektrycznym a informacjami jest mniej więcej taka, jak pomiędzy głoskami i literami (alfabetem) a słowami i zdaniami (językiem). Język uznać można za jeden z najdoskonalszych mechanizmów kulturowych radzenia sobie z bazą danych, czyli głoskami i literami właśnie. Na podstawie kilkudziesięciu elementów w tej bazie danych człowiek jest w stanie stworzyć tysiące możliwych ich kombinacji i sprawnie wykorzystać je w komunikacji. W oparciu o dane dopiero tworzymy informacje, choć trzeba jednocześnie pamiętać, że dane występują w wielu wymiarach funkcjonalnych, które nadają im różne właściwości informacyjne (to m.in. zagadnienie metadanych, do którego niebawem powrócę). Informacje to dane przetworzone w taki sposób, że nabierają poznawczego znaczenia. Dane informują, kiedy zostają wykorzystane semiotycznie [177].

Jednak analogia pomiędzy językiem i alfabetem a uniwersum danych nie przystaje do stanu faktycznego, kiedy się jej głębiej przyjrzeć. W przypadku języka jako kultury, najpierw posługiwaliśmy się kodem, a dopiero później pojawiła się potrzeba opracowania jego pojedynczych wartości – wyodrębnienia i nazwania językowych „danych”. W cyfrowym świecie jest odwrotnie: najpierw powstają dane, a dopiero potem stają się one przedmiotem cyrkulacji kulturowej, są pożywką dla różnych kulturowych gatunków i rodzajów. W wersji historycznej informacje z czasem doczekały się swoich pre-struktur, czyli danych alfabetycznych – zostały przez kulturę zdekodowane i skodyfikowane. W wersji cyfrowej dane powstają głównie wcześniej/równolegle wobec mechanizmów (algorytmy, interfejsy, software) służących ich rozumieniu, a zatem porządek cyfrowy jest porządkiem kulturowego kodowania danych [178].

Istnienie danych to efekt nowoczesnego kultu wiedzy ścisłej, wspierającej się na regułach matematycznej składni. Kod cyfrowy powstał jako język scjentystyczny, w którym znaki miały być domyślnie pozbawione semantyki i wartości (jaki sens w odwrotnym przypadku miałaby matematyka?) – dopiero próby jego kulturowego okiełznania, wymuszone chęcią upowszechnienia nowego porządku technologicznego, spowodowały uznanie semantyki za równoprawnego partnera w cyfrowym świecie. Dziś wciąż najbardziej fundamentalny poziom technologicznego uniwersum cyfrowego opiera się wpływom kulturowym. W cyfrowym jądrze silnie pobrzmiewają echa kartezjańskie; jest modernistyczne przez odwołanie do dziedzictwa nauk ścisłych i wiedzy; upatruje w matematycznym porządku jedynego i doskonałego kodu świata.

Co oznacza ta odwrotna kolejność cyfrowego porządku, w którym to danym trzeba przypisywać wartości kulturowe? Jej skutki są podwójne. Po pierwsze, dane i bazy danych domagają się gigantycznej pracy poznawczej i metodologicznej: refleksji kulturowej, artystycznej, perceptualnej, wynajdywania zdolnych do ich okiełznania interfejsów i form, nowych gramatyk, itd. (wrócę do tego wątku niebawem). Drugim skutkiem jest tu niekontrolowany kulturowo przyrost danych. Ich ilość rośnie w stopniu dalece wyprzedzającym co do tempa i przewyższającym co do skali wszelkie tradycyjne kulturowe możliwości ich poznawania i wykorzystywania – wszelkie kultury, estetyki i logiki wiedzy, edukacji i komunikacji. Jeszcze do niedawna wydawało się, że to tempo ewolucji technologii komputerowych jest najbardziej zaskakującą kulturową prędkością współczesności. Wzór na obliczanie tej prędkości podał jeden z inżynierów pracujących dla producenta układów scalonych – Moore. Według niego prędkość obliczeniowa i zdolności do przechowywania danych podwajają się co kilkanaście miesięcy. Dzisiaj wiemy, że to hardware’owe tempo ewolucyjne, które uznać można za życiowy parametr rozwoju cyfrowego świata, jego puls, choć tak niezwykle prędkie, nie jest w stanie równać się z równolegle pracującą szybkością przyrostu danych. Ich liczba rośnie w tak niewiarygodnym tempie, że nawet jakiekolwiek próby szacowania jej tempa okazują się, jak do tej pory, jedynie bardzo przybliżone.

Jak wspomniałem, w zależności od poziomu technologicznego i użytkowego, na jakim podmioty posługują się danymi lub na jakim przewidziano dla nich określone zadanie funkcjonalne, dane różnią się od siebie. Inaczej mówiąc różne dane mają różny potencjał informacyjny. W naturalny sposób w zależności od punktu (poziomu) dostępu do określonego miejsca w cyfrowym ekosystemie te same dane mogą pełnić różne funkcje. Te zróżnicowane relacje infrastrukturalne można by opisać stosując się do popularnej w nowoczesnej matematyce reguły fraktali – niezależnie od miejsca/stanu, w którym się wobec danych znajdujemy możliwe jest wchodzenie głębiej wewnątrz nich i wychodzenie poza nie. Ten fraktalny układ danych to model mający jednak zastosowanie jedynie wobec energii semantycznej, która jest do nich przypisana. Fraktalność danych nie odnosi się do ich elektrycznej, materialnej natury. W tym przypadku podróżowanie w głąb danych kończy się na poziomie właściwości elektryczności jako zjawiska świata materii (jest tak przynajmniej w zakresie naszej obecnej wiedzy na temat fal elektrycznych i sposobów ich ujarzmiania). Te dane, które znajdują się w określonym wywołaniu bliżej, są lepiej dostępne, spełniają nadrzędną rolę funkcjonalną, przykrywają/udostępniają inne, ukryte, nazwać można najogólniej rzecz ujmując metadanymi. W innej konfiguracji, zgodnie z zasadą naturalnej jedności wszystkich ciągów cyfrowego kodu składających się zawsze na pewnym poziomie jedynie z dwóch wartości – zero i jeden, a w zasadzie z jednej lub jej braku, te same dane mogą mieć znaczenie podrzędne lub nie mieć go w ogóle. Dla przykładu: dane zawarte w elektronicznym ebooku – dla czytelnika ważny jest zakodowany elektronicznie tekst, kiedy ma ochotę na jego lekturę, dla interfejsu użytkownika i wyszukiwarki większe znaczenie będą mieć ogólne informacje o formacie pliku, jego układzie strukturalnym, zakodowanym layoucie, tagach opisujących tekst, itd.

Wobec takiego charakteru danych stosujemy coraz częściej metodę zoom znaną z wcześniejszych, optycznych mediów służących do rejestracji obrazu – aparatu i kamery. Dane, które wizualizują dla nas graficzne interfejsy, poddają się zbliżaniu i oddalaniu, a przebywanie w cyfrowym ekosystemie staje się dzięki temu nieustannym wyzwaniem lokacyjnym – ze względu na możliwości poruszanie się w tej przestrzeni w „dół, górę, boki” nasz kontakt z nimi jest doświadczeniem podróży i mapowania (do tego wątku wrócę bardziej szczegółowo w kolejnej części tego rozdziału). Danowa lokalizacja ma charakter podwójny – polega zarówno na lokalizowaniu pozycji użytkownika wobec rizomatycznej przestrzeni danych, jak i nieustannej hierarchizacji i porządkowaniu przez niego napotykanych danych.

Zapożyczone z języka fotografii, kina i telewizji gesty i metafory związane z poruszaniem się po medialnej przestrzeni (przywołany zoom właściwy dla kamer filmowych i telewizyjnych czy przewijanie strony naśladujące czytanie zwojów) to tylko namiastka możliwości operacyjnych, które wywołać można w środowisku bazy danych. Współcześnie to inne praktyki infrastrukturalne związane z nawigowaniem pośród danych stanowią o zasadniczej różnicy pomiędzy analogowym i cyfrowym ekosystemem informacyjnym. Mam tu na myśli indeksowanie danych – czyli nadawanie im znaczeń i symbolik kulturowych za pomocą tagów, katalogowania, znakowania, geolokalizacji, kontekstualizacji. Indeksowanie realizowane za pomocą tych i innych działań otwiera dane na znaczenia wykraczające poza ustanowione przez twórców konkretnych baz podziały i mapy technologiczne. Wprowadza alternatywne porządki zawartości cyfrowych magazynów i sieciuje ich zawartość z innymi tego typu bazami. Dla indeksowania nie ma wielu pierwowzorów i ekwiwalentów w gramatykach mediów analogowych i w ich kulturze. Przekształcanie danych w znaki i teksty to kulturowy rewanż za semantyczną jałowość technologicznej formy cyfrowego kodu – przypisywanie znaczeń wartościom 0 i 1 oraz ich cyfrowo-kulturowa ekonomia to świadectwo przejmowania kontroli nad matematyczną naturą technologii i kodu przez kulturę, dowód na semantyczną chłonność, płynność i otwartość cyfrowego świata. Hermeneutyczne informowanie danych wobec surowych: abstrakcyjnych, matematycznych kalkulacji elektryczności to pogranicze, na którym trwa spór o panowanie w cyfrowym świecie.

Baza danych to technologiczna forma magazynowania, porządkowania i udostępniania cyfrowo zakodowanych informacji (to semiotyczna cecha danych) / instrukcji dotyczących komputerowych operacji na elektryczności zarazem (to materialna, fizyczna cecha danych). Zadaniem bazy danych jest przechowywanie spreparowanych sekwencji kodu cyfrowego w taki sposób, aby możliwy był dostęp do nich na wiele różnych sposobów: za pomocą różnych algorytmicznych zapytań i różnych podłączanych do nich interfejsów. W ten sposób bazy są magazynami nominalnie otwartymi wobec różnych mechanik i logik wchodzenia w dane i gotowymi na oddziaływanie różnych modeli ich przetwarzania, projektowanych i wykonywanych za pomocą różnych narzędzi i estetyk wywoławczych. Wewnętrzny układ większości z baz jest płynny, co oznacza, że ich ustalona pierwotnie struktura może podlegać nieograniczonym rekonfiguracjom i przybierać nieograniczone kształty na bazie dostępnych zasobów – zależy to ostatecznie od konfiguracji hardware, co w tym przypadku oznacza przede wszystkim techniczny rodzaj pamięci, na której zostały zmagazynowane. Pamięć read-only umożliwia jedynie przyglądanie się wcześniej utrwalonej kompozycji danych; natomiast pamięć read-and-write pozwala na odczytywanie i manipulowanie danymi w ramach jednej bazy, ale zależy także od strukturalnego układu samej bazy: mogą one być hierarchiczne, sieciowe, relacyjne i zorientowane na obiektowość [179].

Na przestrzeni ostatnich kilkudziesięciu lat technologicznego i przemysłowego rozwoju baz danych pojawiły się różne koncepcje dotyczące ich wewnętrznej struktury. Rozumiane i projektowane były m.in.: jako układy hierarchiczne, sieciowe, relacyjne, obiektowe, warstwowe i mieszane [180]. Ewolucję tych form można opisać w duchu założeń cyfrowego przewrotu kopernikańskiego, o który w latach 70. apelował Bachman. Te zmiany układają się w następującą prawidłowość: od predefiniowania i technologicznego utrwalania zależności pomiędzy danymi w ramach modeli hierarchicznych, sieciowych czy relacyjnych (CD-ROM, klasyczna strona www w html) bazy danych przeszły ewolucję w kierunku otwartości na wiele możliwych rozwiązań strukturalnych i dostępności dla większej ilości zarządzających nimi administratorów/użytkowników (tagowanie, indeksowanie, html5, playlisty, logika wiki). Jakże bliska jest linia tej formalnej ewolucji baz danych wydarzeniom, które kultura dwudziestego stulecia „zaprogramowała” wobec innych swoich form: dzieła sztuki (literackiego, malarskiego dzieła otwartego jak je nazywa Umberto Eco, a za nim cała humanistyka [181]) czy liberalnej emancypacji społecznej podmiotu oraz takim procesom jak demokratyzacja czy postkolonializm. Systematyczna ewolucja rozwiązań software’owych i hardware’owych w tym kierunku to fakt, którego kulturowe i społeczne znaczenie jest nie do przecenienia. Potwierdza, dużo szerszy w skali, proces społecznej liberalizacji i dehierarchizacji technologii komunikacyjnych oraz społecznych cyrkulacji informacji. Świadczy o uspołecznianiu technologii, podważeniu transmitowanych przez nie kodów władzy, ideologii, technokracji, otwieraniu ich na wariacyjność użytkowania/wykorzystywania. Do tych wątków powrócę w kolejnych częściach rozdziału, kiedy będę analizować społeczne praktyki indeksowania danych.

Wspomniałem o trudnościach związanych z oszacowaniem wielkości danowych zasobów istniejących w cyfrowym świecie. Ilość danych i ich przyrost to zjawisko bez kulturowego czy społecznego precedensu. W cyberkulturowej nowomowie pojawiło się nawet dedykowane temu problemowi określenie – big data, które i ja przyjmuję jako właściwy tag do dalszej analizy problemu danych. Czy i jak można zjawisko big data oszacować? Jak zmierzyć i zważyć kryjący się za nim danowy ocean i jak zastosowane do takiego pomiaru jednostki mają się do znanych kulturze kwantyfikatorów świata? Tę kulturową arytmetykę danych zacznijmy od poziomu jednostki zanurzonej w cyfrowy świat. Lingwiści szacują, że w ciągu swojego życia przeciętny człowiek wchodzi w kontakt, czyli wypowiada i słyszy, ilość słów, która przy obecnych metodach kodowania cyfrowego i przechowywania tekstu w elektronicznej pamięci przekłada się na około 1TB danych tekstowych. Ta wielkość daje nam wyobrażenie o skali zjawiska, z którym borykamy się na co dzień zarządzając transferami, odczytaniami i przetwarzaniem danych, które dalece tę liczbę przewyższają – przy zastrzeżeniu, że nieuprawnione byłoby stawianie na równi cyfrowej wersji tekstu z zakodowanym w ten sposób komunikatem audio czy wideo. Popatrzmy także na inne niesamowite wielkości związane z obecnością danych: w roku 2010 ludzkość przechowywała ilość danych wystarczającą do wypełnienia 60000 Bibliotek Kongresu. Na świecie mamy już 4 miliardy użytkowników telefonów komórkowych, pośród których 1200000000 to użytkownicy smartfonów, którzy nieustannie pobierają i wysyłają dane, wykorzystują już istniejące i tworzą własne. YouTube chwali się, że na jego serwerach co minutę przybywają 24 godziny materiału wideo. Liczba smartfonów rośnie o 20% rocznie, a liczba różnego typu sensorów i czujników, które automatycznie generują dane i ich sieciowy ruch wzrasta każdego roku o jedną trzecią, zaś liczba krótkich wiadomości umieszczanych na Twitterze ma przekroczyć 500 mln dziennie do końca 2012 roku [182]. Analitycy IBM twierdzą, że 90% istniejących danych powstało w okresie ostatnich dwóch lat [183].

Pojedyncze bazy są fragmentami oceanu cyfrowego świata, w którym łączą się ze sobą za pośrednictwem podejmowanym przez ich dysponentów działań i rozwiązań strukturalnych i wymieniają między sobą zasobami. Szacuje się, że obecnie (pierwsza połowa 2012 roku) objętość danych w skali globalnej oscyluje wokół liczby 3 tysięcy zettabajtów [184]. Dalszemu wzrostowi tej liczby sprzyjają taniejące i coraz bardziej dostępne i pojemne nośniki danych, rozwijające się sieci, a także podejmowane przez różnego rodzaju podmioty decyzje o upublicznianiu i udostępnianiu zbieranych przez lata danych.

Po fali mniej lub bardziej dramatycznie brzmiących ostrzeżeń przed zalewem, potopem, smogiem danych (informacji), pojawiających się zarówno w dyskursie naukowym jak i codziennej debacie społecznej, pojawiało się wiele racjonalnych i profesjonalnych narzędzi i strategii zarządzania danymi, które pozwalają w mniej lub bardziej udany sposób żeglować po wodach i głębinach informacyjnego oceanu. Do nadmiaru danych jak i do ich samych zaczynamy podchodzić coraz bardziej świadomie, postrzegając ich zasoby jako elektroniczne surowce naturalne, w które bogate są cyberkulturowe lokalizacje. Uczymy się także systematycznie ich ekologii i ekonomii. Instytucje ekonomiczne, wojsko, biznes, rozrywka już tę dziejową zmianę zaczęły sprawnie do swoich potrzeb wykorzystywać. Biznes świetnie radzi sobie z generowaniem wiedzy handlowej na bazie ruchu sieciowego i zarządzania danymi przez użytkowników – wystarczy tu wspomnieć o sugestiach zakupowych amazon.com, podpowiedziach wyszukiwarek czy serwisów społecznościowych. Wiedza i nauka właśnie wchodzą w ten obszar, powoli zdając sobie sprawę jak wielki oferuje on potencjał poznawczy, ale jednocześnie stąd biorą się najważniejsze środowiskowe opory, jak bardzo będą się musiały zmienić sposoby budowania wiedzy, dostępu do niej i jej trwałość/adekwatność kiedy badania naukowe zaczną wyglądać dokładnie tak, jak wyglądają dzisiaj działania analityczne podejmowane na ogromną skalę przez przedsiębiorstwa, państwa, wojsko [185]. Przy okazji powstaje pytanie o wspomniane kulturowe mechanizmy radzenia sobie z nadmiarem danych i zarządzania big data. Rozmiar danowej lawy zwiastuje kryzys indywidualistycznego doświadczenia medialnego świata charakterystycznego dla dziecięcgo okresu cyberkultury i jej emancypacyjnej mitologii. Obok prywatnego charakteru nowomedialnego zaangażowania potrzebne będą także zbiorowe mechanizmy – jednostki najprawdopodobniej nie będą w stanie radzić sobie w tak obszernym świecie zasobów do przetworzenia i wykorzystania.

Big data to z jednej strony wyzwanie dla kultury, która dopiero tworzy scenariusze poruszania się w środowisku danych i nas samych stawia wobec ich przytłaczających ilości. Z drugiej strony to przestrzeń wyścigu technologicznego i cywilizacyjnego, w którym stawką są nowe formy, metodologie i pragmatyki wiedzy, w coraz szybszym tempie oddalające się od swoich analogowych pierwowzorów. Wraz z regułami baz danych i w oparciu o danowe zasoby powstaje nowy infosystem. Zrozumienie jego struktury, tworzenie narzędzi do jego obsługi i zdolność eksploatacji jego odnawialnych, nigdy nietracących energii, zasobów to wyzwania, których zasięg przekracza komunikacyjne i medialne możliwości większości istniejących rozwiązań prawnych i praktycznych. Przytłaczająca ilość danych zarówno w skali doświadczenia indywidualnego jak i w skali zjawiska kulturowego to specyficzne, dromologiczne (Virilio) potwierdzenie procesualnej natury baz danych – o tej ilości trudno myśleć w kategoriach obiektu, bardziej pasują do nieustannej erupcji i potoku danych kategorie procesu, płynności. Big data upłynnia kulturę.

Przejdę teraz do analizy wspomnianej potencjalnej konkurencji, jaką dla świata nauki stanowią „świeckie” sposoby i narzędzia pozyskiwania i analizy danych. W roku 2008, Chris Anderson w jednym ze swoich felietonów na łamach „Wired”, krytycznie pisał o dotychczasowych sposobach uprawiania nauki i konstruowania wiedzy, twierdząc, że nadchodzi koniec ich modelu w obliczu big data. Prowokacyjnie obwieszczał koniec teorii, który będzie miał miejsce w zderzeniu z Petabyte Age (to dla niego synonim big data) i bazodanową logiką cyberkultury [186]. Publicysta dowodził wyższości matematycznych i statystycznych działań – trudno nie dostrzec w takiej optyce mającego korzenie w projekcie modernistycznym konfliktu pomiędzy „prawdziwymi” sciences a „nonszalanckimi” humanities – realizowanych w oparciu o olbrzymie, wielowątkowe bazy danych nad tradycyjnym instrumentarium i metodyką pracy naukowej. Przekonywał, że wyrafinowana technicznie analiza danych jest metodą oferującą niegraniczone możliwości poznawcze; bazom danych możemy zadawać nieograniczoną ilość pytań ,a same pytania mogą być niezwykle złożone, wielowymiarowe (wielowariantowe). Jednocześnie dostęp do danych i ich olbrzymia ilość to dzisiaj elementy natywne w środowisku cyfrowym, dostępne w większości dla każdego zainteresowanego i otwarte na wszelkie potencjalne zapytania. Właściwie zapytane bazy danych nie potrafią kłamać ani manipulować informacjami, oferują odpowiedzi w trybie natychmiastowym, pozwalają na nieustanne zmienianie hipotez badawczych, na procesualne zachowanie badającego algorytmu, update nowymi danymi i algorytmami pytającymi, ich przenikanie i remiksowanie, itd. Innymi słowy: wewnątrz baz danych znika potrzeba spekulacji i tworzenia modelowych wizji, wystarczy, mając dostęp do konkretnych danych, pozwolić kalkulującym maszynom działać w oparciu o zdefiniowane przez badacza zapytania/algorytmy.

Jaka, w świetle tych oskarżeń wobec tradycyjnej nauki i obietnic związanych z potencjałem nauki wykorzystującej dane, może być bazodanowa wiedza i jakie naukowe reguły można w oparciu o nią budować i wykorzystywać? Do obu sfer przenikają z coraz większą efektywnością wspomniane wcześniej strategie pracy z danymi, które wykorzystywane są w biznesie i innych sektorach rynku. Nauka wchodzi w nową fazę operacyjną, który Amerykanie okrzyknęli już mianem data science [187]. W obliczu dostępnych danych działania naukowe wpisują się w praktyki takie, jak data mining (przeszukiwanie danych i ich analiza) czy wizualizowanie danych (graficzne interpretacje wielkich baz danych – data visualisations).

Zanim przejdę do omówienia tych nowych metod działania, które łączą pracę naukową z innymi sposobami generowania wiedzy dostępnymi w kulturze i pokażę ich relacje, sięgnę do pracy Bena Fry poświęconej nowym kompetencjom, potrzebnym w epoce informacji badaczom chcącym korzystać w swojej pracy z cyfrowych zasobów. Fry dowodzi jak bardzo wieloma „skilami” musi dysponować w cyfrowym świecie jego analityk, jak wiele pragmatyk, semantyk, logik musi brać pod uwagę poszukując odpowiedzi na zadawane informacyjnemu uniwersum pytania. Według Amerykanina, choć to w coraz większym stopniu także i powszechne odczucie związane ze zmieniającym się światem nauki, współczesny badacz musi mieć kompetencje w zakresie informatyki, aby sprawnie pozyskiwać i technicznie organizować dane; matematyki i statystyki, aby był w stanie tworzyć zaawansowane modele abstrakcyjne, które będą zdolne do przekładania skomplikowanych semantycznie zapytań na skomplikowane zapytania bazodanowe; projektowania graficznego i design, aby móc otrzymane wyniki badań przedstawić w prostej, zrozumiałej dla laików formie; wreszcie winien mieć także kompetencje w zakresie projektowania informacji i rozwiązań interfejsowych, aby sprawnie eksportować wyniki badań do przestrzeni naukowej i publicznej [188]. Fry w gruncie rzeczy zgłasza postulat, który i ja w tym tekście zdążyłem już sformułować – w nowych, cyfrowych okolicznościach potrzebne są kompetencje i postawa właściwe dla homo faber.

W podobnym kierunku zmierza generalnie humanistyka. W jej środowiskach coraz chętniej przebijają się głosy mówiące o konieczności cyfrowej reformy tego konglomeratu dyscyplin i metodologii, o nowej logice badawczej digital humanities [189] jako sposobie wejścia w dane i korzystania z nich na rzecz badań nad kulturą, życiem społecznym, itd. Niezależnie od tego, w jaki sposób i o ile nauka (sciencehumanities) zrozumie i wykorzysta cyfrową rewolucję i jej wpływ na sposoby i strukturę generowanej wiedzy, pewne jest już dzisiaj, że jej monopol na poznanie i społeczna status z nim związany zostaną podważony, a być może także przełamane [190]. Wciąż wpisana w genetykę nauki i wiedzy w ogóle jest przecież obawa o przedostawania się ich zasobów poza naturalny, pierwotny nośnik – ludzką pamięć. Już w starożytności swoje obawy wobec takiego kierunku jej rozwoju wyraził Platon w krytyce medium pisma [191]. Środowisko bazodanowe rozbija integralność wiedzy faktograficznej i interpretatywnej w ramach naturalnie holistycznej i hermeneutycznej pamięci.

Gromadzenie najbardziej imponujących co do liczby i wartościowych poznawczo danych odbywa się dziś przede wszystkim poza sektorem oficjalnych instytucji naukowych. Rolę skutecznego konkurenta przejęły w tym zakresie, jak to już wcześniej nadmieniłem, przedsięwzięcia biznesowe, które z tworzenia i wykorzystywania danych oraz obrotu nimi uczyniły główny kierunek swojego działania. Oszałamiająca wartość debiutującego niedawno na giełdzie facebook.com czy wcześniejsze rekordy wycen bite przez google.com to niepodważalne dowody świadczące o wadze zmian, które zachodzą na medialnym rynku i w sektorze pozyskiwania i cyrkulacji danych, ich zamianie/wymianie na informacje. Spośród tysięcy innych realizowanych w przestrzeni cyfrowej ewidentny sukces rynkowy osiągnęły te inicjatywy, które stały się metaforycznymi i technologicznymi zarazem drogowskazami dla społeczeństw informacyjnych, wytyczającymi szlaki wiodące przez bezkresne wody cyfrowego oceanu wraz z ofertą umiejętności ich pokonywania. Google to największa z latarni górująca nad cyfrowymi wodami i orientująca wszystkich żeglujących i surfujących po nich – olbrzymia składnica danych o danych, najważniejszy dziś z metatekstów opisujących zasoby cyberkultury. Facebook to zaś magazyn wszelkiej społecznej wiedzy żeglarzom potrzebnej. Obie firmy zajmują się gromadzeniem, przetwarzaniem i obrotem cyfrowo zakodowanymi informacjami – są softwarem harcującym w gigantycznej, o światowym zasięgu, bazie danych, którą nieustannie porządkują, przetwarzają i na nowo udostępniają. Efektem działania obu serwisów jest nowe oblicze kulturowej ekonomii i ekologii cyfrowych danych; nowa wizja świata informacyjnego i nowe narzędzia, za pomocą których można w tym świecie egzystować. W ten sposób oba te flagowce i tysiące pomniejszych jednostek tworzą wiedzę, której pokłady rosną równie szybko, jak sam zasięg tej flotylli.

Google’owa wiedza bierze się nie tylko z tego, o czym stworzony przez korporację software automatycznie dowiaduje się z zasobów Internetu, indeksując je według zadanych kryteriów. Olbrzymie jej pokłady odkrywa Google wtedy, gdy swoje narzędzia analityczne przykłada do danych gromadzących się za sprawą śladów pozostawianych podczas korzystania z tego serwisu przez jego użytkowników [192]. Mają oni swoje zwyczaje, zadają bardzo konkretne pytania, w określony sposób poszukują określonych zasobów, różnie się nimi dzielą i na różne sposoby ich używają. Monitorowanie użytkowników, analizowanie reguł i semantyki ich zachowań to właśnie bazodanowe narzędzia i metody, za pomocą których powstaje pozaakademicka socjologia, psychologia, wiedza o kulturze i o świecie w ogóle. Wynika z tego, że sens medialnej rewolucji 2.0 nie polega jedynie na przejęciu medialnej władzy przez cyfrowy vox populi. Zjawisko ma także drugą stronę: jest nią społeczny i kulturowy kapitał zakodowany do postaci cyfrowych śladów i tropów, które pozostawiamy po sobie za każdym razem, kiedy znajdujemy się w przestrzeni danych. Jednym z najważniejszych wyzwań nauki i edukacji w tym kontekście będzie możliwość konkurowania z rynkowymi, a więc partykularnymi, interesami korporacji gromadzących dane, które mają na tym polu osiągnięcia dalece wyprzedzające współczesne instytucje i metody naukowe, i obnażania wszelkich innych mechanizmów kontroli i nadzoru, uruchamianych zgodnie z zasadą wielokierunkowej, rizomatycznej struktury komunikacji i przepływów danych w cyberprzestrzeni. Nowe oblicze starej newtonowskiej zasady mogłoby dzisiaj wyglądać w następujący sposób: każdemu pozyskanemu z cyberprzestrzeni zasobowi informacyjnemu towarzyszy zasób udostępniony. Wrócę do tej tematyki szerzej raz jeszcze omawiając problem nadzoru w cyfrowej przestrzeni danych.

Operatorzy i eksplorerzy gigantycznych baz danych w centrum swojej działalności sytuują generowanie i/lub pozyskiwanie metadanych. W nauce może odbywać się proces paralelny, choć obliczony na osiągnięcie innego efektu. Wiedza wynikająca z danych może mieć charakter metawiedzy. Czym są w tym kontekście naukowe metadane? Najprostsza na to pytanie odpowiedź wskazuje na dotychczasowy dorobek nauki: traktaty, artykuły, książki, dyskursy – wszelkie zapisane tekstem lub utrwalone za pomocą innych medialnych nośników (obrazy, nuty) tezy i zbiory informacji. Algorytmiczne ich indeksowanie i przeszukiwanie może wskazać na tendencje w rozwoju dyskursów naukowych, np. w humanistyce za sprawą metody wizualizowania danych można doszukiwać się występowania i fluktuacji określonych pojęć na przestrzeni dziejów. Dla nauk ścisłych analiza metadanych ma równie istotne znaczenie. Generowane w bazodanowy sposób powstawać mogą prefabrykaty służące dalszym analizom i algorytmicznej obróbce. Na tym etapie „wyścigu zbrojeń” pomiędzy sferą nauki a jej komercyjnymi konkurentami balans sił prezentuje się następująco: nauka korzysta głównie ze spreparowanych przez korporacje i rynek w ogóle półproduktów. Sama nie jest chyba w stanie posługiwać tak wyrafinowanymi narzędziami i na taką skalę, jak robią to przedsiębiorstwa wyspecjalizowane w nawigowaniu po bazodanowych morzach i regulujące je. Nauka w obliczu danowej zmiany straciła pozycję lidera w zakresie informacyjnych innowacyjności i kreatywności, brakuje jej także technologicznego zaplecza i zasięgu, którym dysponują społecznościowi gracze z Krzemowej Doliny i na dodatek daje się zauważyć w niej wewnętrzny dysonans co do konieczności i zasadności adaptacji do nowych okoliczności [193].

Jednym z graczy ekspansywnie eksplorującym pole, na którym nauka nie ma wystarczającej liczby narzędzi i zaplecza do ich wykorzystania, jest Facebook.com. Korporacja zainwestowała ostatnio spore środki w utworzenie działu badawczego, którego zadaniem jest najpierw socjologiczna ocena gromadzonych za pośrednictwem serwisu danych, a następnie opracowanie scenariuszy i narzędzi, dzięki którym zdobędzie ona zdolność do wykorzystania i kapitalizowania danych w formie tak przygotowanej wiedzy sprzedawanej innym. Blisko miliard użytkowników portalu pozostawia na nim dane dotyczące swoich codziennych działań, obyczajów, relacji ze światem i innymi. Odpowiednie analizy tych danych mogą zmienić nie tylko wiedzę o społeczeństwie, ale także skutecznie podważyć prymat nauki jako uprzywilejowanego dostawcy wiedzy i jej wiarygodnego generatora. Przykładowym, banalnym w swej merytorycznej zawartości, ale odsłaniającym potencjał tego typu działań, narzędziem, które skonstruowali socjologowie firmy, jest pomiar „narodowego współczynnika szczęśliwości”. Można go zmierzyć licząc stosunek występowania słów uznawanych za wyrażające zadowolenie wobec tych, które powszechnie uznaje się za przejaw smutku. Narzędzie miałoby pracować w oparciu o analizę wpisów użytkowników portalu w danym okresie, obserwować wzrosty częstotliwości występowania oznak zadowolenia i oznak smutku, wytyczając w ten sposób rzeczony diagram „narodowej szczęśliwości”. Tego typu kryteriów wobec tak gigantycznej i wiarygodnej bazy danych, jaką są zasoby portalu, można zastosować wiele więcej [194]. Jaki badacz, jaka inna instytucja badawcza ma szansę na pracę z taką ilością danych do analizy i w tak nieograniczony sposób? O ile, jako społeczeństwa, państwa, kultury, grupy i jednostki, gotowi jesteśmy na coraz bardziej realną i już osiągalną inżynierię społeczną w oparciu o takie bazy danych jak Facebook.com? Na te pytania nie sposób jeszcze dzisiaj odpowiedzieć. Są to jednak pytania, które wytyczą wiele kulturowych sensów bazodanowego świata i jego wpływu na kulturę – bez wątpienia ich istnienie stawia naukę przed okolicznościami, których nie sposób zbagatelizować, ani tym bardziej pominąć.

Wiadomo natomiast już teraz, że bazodanowy zwrot informacyjny z okien korporacyjnych budynków i niektórych medialnych operatorów wygląda aż nazbyt ponętnie i obiecująco. Wiele istniejących systemów instytucjonalnych znajdzie się w wyniku tego zwrotu w sytuacji podobnego zagrożenia, jakie dla tradycyjnego warsztatu i systemu nauki stanowi konkurencja ze strony operatorów big data. Danowy ekosystem zmieni dogłębnie wszelkie inne dziedziny związane z obrotem informacjami, takie jak np.: archiwistyka, bibliotekarstwo, muzealnictwo, media, i wiele innych.

Do mitycznej metafory kultury Arki Noego sięga Peter Weibel, medioznawca kierujący jednym z najważniejszych na świecie miejsc sztuki mediów – ZKM w Karlsruhe, pisząc o bazodanowych losach tradycyjnych instytucji imformacyjnych [195]. Mit arki przyłożony do rzeczywistości dzieł sztuki i ich kulturowej cyrkulacji wynika z zasady selekcji, oddzielania rzeczy wartościowych od zwykłych; tak jak Noe dbał o to, aby w ograniczonej kubaturze zbudowanej przez niego łodzi zmieściły się najbardziej wartościowe i reprezentatywne elementy świata przyrody, by ocalić je przed zagładą, tak i tradycyjny obieg kultury opiera się na zasadzie selekcji i koneserskiej pieczołowitości katalogowania. Trudno o miejsce w arce kultury – rozciągnę Wei­blowską metaforę na szerszy niż tylko współczesna sztuka obszar – bo ich ilość jest ograniczona, a podejmowane przez następców Noego decyzje pozostawiają poza jej pokładem wiele mniej lub bardziej wspaniałych gatunków i form, tekstów i obrazów. Arka jest synonimem kultury masowej, w której przez wąskie gardło elitarnych instancji znawców i specjalistów przedostają się jedynie te „dane”, które uznają oni za wartościowe i pożyteczne z określonego ideologicznie punktu widzenia. Te ich decyzje mają podłoże ekonomiczne, polityczne, światopoglądowe.

Przeciwieństwem kultury selekcji jest dla Weibla kultura Web 2.0. Pomijam w tym miejscu spory na temat zasadności i ograniczenia tego sformułowania, podzielam – podobnie jak sam Weibel – ponad nie jego olbrzymią siłę semantyczną, której sens wynika z prostej zakodowanej (zaprojektowanej designersko na poziomie samego znaku) w nim konstatacji o radykalnej zmianie w obszarze kultury medialnej. W logice 2.0 Weibel upatruje fundamentów nowego krajobrazu kultury. Rolę analogowej arki zajmują w nim dyskowe przestrzenie magazynowe, które oferują swoim użytkownikom nieograniczoną chłonność i dostępność. Pomieszczą każdą ilość cyfrowo zakodowanych opowieści o świecie, jego digitalnych reprezentacji i alterwersji (technologiczne marzenia o infinity storage). W obliczu gigantycznych baz danych otwierających swoje podwoje na wielu poziomach naszej immersji w cyberprzestrzeń, a w szczególności metabazy danych (jednocześnie bazy metadanych), jaką jest Internet (na ten temat więcej niebawem), metafora arki wyczerpuje swój dotychczasowy sens. Kultura nie jest już (wpływ tego mechanizmu jest radykalnie osłabiony i ograniczony do wybranych obszarów rynkowych, politycznych, gospodarczych, takich jak instytucje kultury, jej ministerstwa, fundacje organizujące prace artystów i wydarzenia kulturalne) zasobem poddawanym selekcji (cenzurze) elit koneserów i urzędników, limitowana przez znawców i systemy cyrkulacji. Wraz z pojawieniem się cyfrowej nakładki na rzeczywistość stała się miejscem schronienia dla wszystkich chętnych. Sceną, na której amatorzy pokazują mniej lub bardziej udane, unikalne i powielane po wielokroć dzieła (teksty). W tym nowym krajobrazie masy produkują na masową skalę sztukę (kulturę) dla samych siebie, nie dbając o jakiekolwiek uwierzytelnienia czy świadectwa jakości ze strony starego systemu elit i ich oragnzacji. Ekosystem baz danych oznacza kulturową platformę sztuki dla mas tworzonej i konsumowanej przez nie same.

Co jednak w takim razie z tradycyjnymi instytucjami, takimi jak muzeum, szkoła, uniwersytet, biblioteka, galeria, archiwum w obliczu tych przeciwieństw? Wszystkie one działają w duchu elitarnych selekcji informacji i masowej, bezzwrotnej ich transmisji. Weibel słusznie obawia się o ich motywacje i zdolność do adaptacji. Dla wielu instytucji zmiana 2.0 oznacza w perspektywie radykalny kryzys tożsamości. Wiele z nich z pewnością okaże się mało podatnych na zmiany, nie mając na nie, na dodatek, ani ochoty, ani niespecjalnie czując potrzebę adaptacji do nich. Jeśli taką zdystansowaną postawę uznamy za reprezentatywną dla oficjalnej polityki państw i poszczególnych sektorów działań kulturalnych i społecznych, to wokół sporu o oficjalną selekcję i dystrybucję informacji oraz nowe społeczne formy i cyrkulacje informacji może narastać nie tylko finansowy czy polityczny konflikt, ale także pokoleniowe, cywilizacyjne pole sporne i objawiać się mogą potencjalne przestrzenie nowego rodzaju wykluczenia kulturowego i społecznego. Do tego wątku powrócę jeszcze przy okazji rozważań na temat alternatywnych obiegów danych.

III.2. Wyobraźnie, oblicza i sensy baz danych

Przyjrzałem się w zarysie danym i ich bazom. Starałem się w tym wprowadzeniu naszkicować głównie ich hybrydyczną naturę: obiektowego hardware i procesualny wymiar na poziomie software. Teraz zajmę się ich kulturowym otoczeniem i społeczną absorpcją/emanacją – figurą bazy danych i wynikającymi z jej kształtu kulturami danych. Baza danych to w tym kontekście zestaw reguł, „filozofia” porządkująca informacyjny świat czy też będąc bardziej dosłownym: kulturowa logika organizująca rozproszony i sfragmentyzowany cyfrowy ekosystem informacyjny. Myślenie bazami danych, działanie bezpośrednio w bazach i za ich pośrednictwem, organizuje komunikacyjny i medialny świat, którym zarządzamy dziś tak, jak zarządzamy cyfrowymi danymi. Duch danych i zarządzania nimi na dobre zadomowił się już w takich współczesnych dyskursach cywilizacyjnych, jak genetyka, ekologia informacyjna i polityka zarządzania informacjami, literatura, muzyka i technologie jej rejestracji i reprodukcji, sztuki wizualne i wizualność w ogóle, architektura czy moda. Będę analizował przypisywaną do tej logiki semiotykę i konstruowaną nieustannie ich społeczną ekonomię. Prześwietlę wybrane elementy informacyjnego krajobrazu, zawarte w nim polityki, estetyki i mediacje, które mają związki z danymi. W ten sposób sprawdzę, jak powstaje i jak już teraz wygląda bazodanowa wyobraźnia kulturowa – do czego będzie nas skłaniać jej obecność i jakie reguły poznawcze i komunikacyjne wypracuje?

Czy istnieje i jaka jest ta mglista, bazodanowa „filozofia” świata? Wim Wenders, bodaj najważniejszy tworzący współcześnie reżyser europejski, który w swoich filmach podejmuje nieustannie pytania o kondycję kultury i sens obrazów, w jednym z wielu dawanych ostatnio wywiadów takimi słowami opisuje stan kultury:

Rzeczywistość została rozbita. Współcześni artyści zrobili z nią to samo, co dwudziestowieczni fizycy z materią. Podzielili ją na atomy. Nie tylko czas stał się w niej relatywny, również przestrzeń i dźwięk. Teraz wszystko można dowolnie skrzyżować, ustawić, zderzyć, ścieśnić ze sobą albo poddać eksperymentom, o jakich nikomu się nie śniło [196].

Te słowa, podobnie jak wiele innych formułowanych mniej lub bardziej bezpośrednio, w obszarze dyskursu sztuki, nauki i kultury ogólnie uznaję za diagnozę postmedialnej kondycji bazodanowej. Wendersowska konstatacja ma w związku z tym wielorakie odniesienia praktyczne i teoretyczne, odwołuje się do wielu różnych przemian i metafor współczesności. Te inspiracje wskazałem już na początku bieżącego rozdziału – dotyczą one przygodności doświadczenia świata, ryzyka bycia w nim, płynności jego form i rekonstrukcji kulturowych ról autora, odbiorcy, konsumenta, twórcy i właściciela. Idąc tym tropem pora odpowiedzieć na pytanie o to, jak, wychodząc poza technologiczny żargon, zrozumieć kulturowo figurę bazy danych? Do jakich znaczeń, wartości i tradycji w myśleniu i działaniu sięgać w tym celu? Odwołam się odpowiadając na te pytania zarówno do kulturowych mitów i ich symboli, jak i do teorii humanistycznych i z zakresu nauk społecznych.

Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.

Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.

Zasadność drzewa wystawiła na dziejową próbę przede wszystkim rozpoczęta w okresie renesansu rewolucja społeczna w Europie, odkrycia geograficzne i podboje kolonialne w połowie ubiegłego tysiąclecia czy odkrycia nowoczesnych nauk i rewolucja przemysłowa. Nauka sprowadziła istnienie do poziomu pojedynczych cząstek elementarnych – wiemy, że świat wokół nas i my sami składamy się z cząstek, atomów, elektronów. Niedawno temu, biorąc pod uwagę ciągłość myślenia w duchu drzewa, potwierdziła się w powszechnym odbiorze teoria Kopernika, kiedy zobaczyliśmy na własne oczy naszą planetę spoza niej, z kosmicznego dystansu. Potwierdziły się w ten sposób obawy i nadzieje wszystkich tych, którzy sądzili, że Ziemia jest wyjątkowym miejscem – jedynym w swoim rodzaju elementem kosmosu. Zamiast tego okazała się jednym z wielu punktów na świetlnej mapie niebios, fragmentem nieogarniętej galaktycznej przestrzeni wszechświata. Wreszcie na naszą tożsamość i gatunkową ewolucję spojrzeliśmy przez pryzmat wizualizacji kodu DNA, który okazał się skomplikowanym układem kilku samodzielnych elementów. Do tego atomistycznego, zdekomponowanego pojmowania stanu rzeczy przyczyniły się także takie osiągnięcia, jak psychoanaliza, mechanika kwantowa i doświadczenia z energią jądrową, mikroskop, dokonania biologii i chemii z tablicą Mendelejewa i teorią ewolucji jako ich ikonami, kartezjański dualizm świata, teoria względności.

Współczesna kultura postrzega drzewo życia w konsekwencji tych i wielu innych zdarzeń już tylko jako jedną z możliwych porządkujących ją i objaśniających metafor. W duchu tych przemian nie zaskakuje dla przykładu skojarzenie ziaren piachu Victorii Vesny przywołane już wcześniej. Ta i podobne nowe figury, kryjące się za nimi kształty i opowieści zasilają współczesną wyobraźnię z siłą, która systematycznie wypiera okrzepłe w niej i oswojone kształty, takie jak mityczne drzewo. Jedną z najchętniej przywoływanych nowych metafor, w której jak w soczewce skupiają się nadzieje, obietnice i perspektywy związane ze zmianami społecznymi i kulturowymi, jest dzisiaj sieć. Odwołuje się ona do kształtu pajęczej lub rybackiej (dziś poszukiwanie precyzyjnych odniesień i pierwotnych kontekstów nie ma już racji bytu) sieci, której struktura składa się z przecinających się nawzajem linii tworzących siatki. Sieciowa metafora stała się ikoną globalnej w zasięgu metabazy danych (a zarazem bazą metadanych), jaką jest elektroniczna infrastruktura komunikacyjna zorganizowana i zarządzana w zdecentralizowany sposób. Na skutek popularności nowej figury elektroniczne sieci uznać trzeba również za semantyczne środowisko cyfrowych danych, w którym połączone są ze sobą generujące je, przechowujące i transmitujące maszyny cyfrowe wymieniające się nieustannie się tymi danymi przy świadomym współudziale użytkownika lub bez niego. Sieć to wirtualna przestrzeń, w której dane znajdują się w nieustannym ruchu, przekraczając tradycyjne ograniczenia kulturowe i technologiczne (czas, miejsce, kultura, geografia, hierarchie społeczne) wedle zarządzeń swoich właścicieli, administratorów czy tymczasowych dysponentów (piraci, hakerzy) po to, by na ustanawiać nowe, sieciowe związki między sobą.

Sieciowo zorganizowana baza danych stała się, wraz z upowszechnieniem Internetu i równoległym wzmacnianiem jego ideologicznych, kulturotwórczych funkcji, figurą i metaforą fundamentalną dla wyobraźni komunikacyjnej i kulturowej technologicznie rozwiniętych społeczeństw liberalno-demokratycznych. Poza centralnym usytuowaniem w niej nowego rozumienia struktury (poststruktury) i hierarchii innymi punktami orientacyjnymi są tu także świadomość kodu i cyfrowego zakodowania, płynnych interfejsów zamiast twardych medialnych form czy algorytmów zmieniających kształt medialnego świata. Sieć to zatem także ikona kondycji postmedialnej, na którą składają się wszystkie przywołane następstwa. Danych i ich baz dotyczą tak ważne dla współczesnych społeczeństw debaty, jak ta o prawie własności intelektualnej, wolności dostępu do informacji, mechanizmów kontroli i nadzoru. Odzwierciedlają one systematyczne odrzucanie drzewa i cywilizacyjną inwestycję w nową figurę kultury. O znaczeniu tej transformacji niech świadczą choćby sukcesy Partii Piratów w wielu europejskich krajach, przekształcenia w polityce kulturalnej i związanej z rozpowszechnianiem informacji (media obywatelskie, Web. 2.0) czy wydarzenia wokół nowych regulacji prawnych forsowanych przez graczy tradycyjnego systemu ekonomii informacyjnej: korporacje i państwa (ACTA).

Dywersyfikująca się wokół figur drzewa i sieci wyobraźnia kulturowa różni społeczeństwa tradycyjne od nowoczesnych, hierarchiczne od liberalnych. Żyjące według nich i praktykujące je społeczeństwa, kraje i kultury nie rozumieją siebie nawzajem, a ludziom stającym wobec siły takich wyobraźni często trudno się ze sobą porozumieć, razem pracować. Sięgnijmy dla zilustrowania tej tezy po przykład. Kiedy współcześni muzycy wychowani i wyedukowani w tradycji zachodniej z jej abstrakcyjnymi regułami próbują muzycznie porozumieć się i współbrzmieć z innymi, bardziej pierwotnymi tradycjami muzycznymi, dochodzi do ciekawych zgrzytów. Bill Viola, uznawany za jednego z najważniejszych artystów pracujących z technologiami medialnymi, zastanawiając się nad antropologiczną i artystyczną logiką danych cyfrowych, opisuje przypadek swojego kolegi – muzyka, który badał tradycje muzyczną wysp Java. Wyobraźnia amerykańskiego muzyka była już sieciowa, gotowa do wielu abstrakcyjnych działań w ramach danego tematu muzycznego: skłonny był powtarzać poszczególne sekwencje, odgrywać je jako poszczególne fragmenty, reinterpretować i przetwarzać strukturę kompozycji, posługiwać się technikami wielościeżkowej rejestracji, itd. Wszystkie tego typu formalne zabiegi, tak charakterystyczne dla abstrakcyjnej nowoczesnej kultury zachodniej, okazywały się nie do pomyślenia dla muzykujących „klasycznie” autochtonów [197]. Można sięgnąć po wiele innych przykładów bazodanowych form zastępujących tradycyjnie linearne teksty kultury. Jednym z nich będzie choćby format składanki stosowanej w muzyce popularnej (miks tape, kompilacja), która jest bazą danych przygotowaną w oparciu o przeróżne nagrania selekcją/nawigacją, która ma stanowić jakąś estetyczną całość, wywoływać elementy z bazy danych kultury według określonych kryteriów. Inny przykład odnosi się do dyskursu naukowego i popularności w nim prac pod redakcją, tzw. zbiorówek. W obu przypadkach widać systematyczne odchodzenie od tradycyjnych linearnych form narracyjnych: wielkich form muzycznych znanych z historii muzyki (opery, symfonie, cykle) czy wielkich teorii humanistycznych zapisywanych w postaci nieraz wielotomowych rozpraw i traktatów.

Schyłek drzewa i narodziny sieci rozpalają także i popkulturowe wyobraźnie i stają się inspiracją dla tworzonych i rekonstruowanych w nich mitologicznych opowieści. Topos ten eksploatuje np. coraz częściej kino i pozostałe media masowe: weźmy choćby motyw drzewa życia obecny w mitologiach i tradycji wielu kultur, skomentowany ostatnio w głośnym Avatarze J. Camerona. W popularnych technokratycznych i popkulturowych narracjach zdehierarchizowaną antystrukturę sieci przeciwstawia się hierarchicznie uwikłanym drzewom. Powiązanych jest z nią zatem – nie wchodzę tu w źródła różnego typu ideologizacji, relacji władzy i estetyk wiążących w praktyce społecznej znaczenia z tym terminem – wiele społecznych nadziei związanych z równością, innowacyjnością, kreatywnością, sprawiedliwością, wyzwoleniem spod jarzma władzy i kontroli, nowymi możliwościami komunikacyjnymi społeczeństwa kapitalistycznego, które wybrało drogę liberalizmu, demokracji i poszanowania indywidualnych strategii życiowych. Sieć to metaforyczny lejtmotywów społeczeństwa demokratycznego, liberalnego, otwartego wobec upłynnionej nowoczesności, pogodzonego z ryzykownymi wyborami codzienności i strategiami życia, gotowego na nieustanną transformację i rekonstrukcję.

Zestawienie linearnego i hierarchicznego drzewa oraz sieci poststrukturalnie powiązanych elementów to nie jedyne figury inspirujące współczesne myślenie o komunikacyjnych zmianach. Różnicę zawierającą się pomiędzy strukturą drzewa i kłącza (to humanistyczny pierwowzór pojęciowy sieci) inaczej postrzega i nazywa francuski filozof Paul Virilio. W centrum swojej teorii kultury ustawił kategorię prędkości, której wzrost powoduje zmianę kulturowej optyki. W prędkości analogowego świata widoczne było przede wszystkim to, co bliskie oczom patrzącego – szczegóły naturalnego otoczenia dające się ogarnąć i rozpoznać nieuzbrojonym wzrokiem. Świat widziany w ten sposób to zbiór punktów, które łączą się nie tylko w widzialną całość, ale i konstruują matrycę patrzenia kulturowego. Świat postrzegany z perspektywy prędkości współczesności układa się w linie i mało wyraźne punkty na pograniczu zdolności widzenia patrzącego – wyraźne i namacalne pod jej wpływem staje się dalekie drzewo na widnokręgu, kiedy poruszamy się szybkim środkiem lokomocji, gdyż to co bliskie w takiej sytuacji, traci wyrazistość, zamienia się w plamy i linie.

Do analiz baz danych można wykorzystać także figurę roju, którą zaproponował amerykański badacz nowych technologii Richard Galloway. Podobnie jak poprzednie metafory, także i ta wywodzi się z obszaru botaniki. Rój miałby być społeczną logiką, która reguluje wewnętrzny kształt sieci. Lokalne interakcje wytwarzają w niej złożone organizacje wyższego rzędu, jednostki działając z pozoru chaotycznie tworzą zbiorowe wzorce i matryce. Dynamikę roju cechuje jednocześnie „amorficzność” i skoordynowany „porządek”, balans sił i wypadkowych wszystkich biorących w nim udział [198]. To formuła zdolna do podtrzymywania własnego status quo i regulowania wszelkich zmiennych jej dotyczących.

Poznaliśmy metaforyczne i ikoniczne zarazem figury, których zderzenia w kulturowej wyobraźni tworzą grunt pod bazodanową gramatykę komunikacyjną. Sfera zbiorowej wyobraźni, wyobraźni kulturowej jest przy tym efemeryczna, nie ma zgody co do jej rzeczywistego, a przynajmniej dającego się w prosty sposób zmierzyć wpływu na kulturowe status quo. Dlatego moje poszukiwania bazodanowych źródeł skieruję teraz na obszar bardziej konkretnych, namacalnych dzieł, wydarzeń i stanów medialnych kultur i sztuk. W zmieniających się językach medialnych wypowiedzi, w obszarze sztuki zanurzonej w elektrycznym, analogowym otoczeniu technologicznym, szukać będę zarówno sytuacji poprzedzających interesującą mnie nowomedialną formę, jak i skutków jej obecności. Patrząc z perspektywy cyfrowej archeologii wiele z mających miejsce w kulturze działań i powstających w ich wyniku tekstów można uznać za pionierskie rozpoznania kondycji bazodanowej. Zobaczmy, jak tekstualność i literatura, wizualność i jej sztuki, audialność i muzyka popularna, a także architektura odczytują zmieniającego się ducha czasów i w jaki sposób jego esencję współtworzą.

Przegląd artystycznych predefinicji dzisiejszych baz danych zacznę od pierwszego z mediów masowych, tj. literatury i towarzyszącego jej dyskursu literaturoznawczego. Piśmienność i jej media: tekstualność, literaturę, druk, prasę uznać trzeba za logikę medialną, której kultura zawdzięcza (wielu dopowie, że to raczej skaza i obciążenie) wynalezienie, uprawomocnienie i usytuowanie linearności, narracyjności, hierarchicznych relacji pomiędzy autorami i odbiorcami, a potem także dodatkowo wydawcami. Wszystkie te elementy złożyły się na tradycyjnie uznawaną za modelową i nieodwołalną komunikacyjną gramatykę kultury określanej od czasu jej mechanizacji w okresie renesansu epoką Gutenberga.

Szczególnie w XX stuleciu pojawiło się wewnątrz niej wiele prób przełamania tradycyjnych zasad, medialnych reguł i sposobów komunikacji – okazała się w dużej mierze autokrytyczna. Na formalny ferment w obszarze tekstualności, a w dalszej kolejności w teorii literatury, składają się dokonania i idee takich ikon współczesnej kultury, jak James Joyce, Jose Louis Borges, eksperymentatorzy z grupy Oulipo, semiotyk, filozof i teoretyk kultury Umberto Eco z jego wspomnianą już teorią dzieła otwartego, Roland Barthes wieszczący śmierć autora, czy Julio Cortazar. Ich dokonania w zakresie krytyki tekstualności i warsztatu literackiego dotyczą nie tylko wewnętrznych stanów w tej przestrzeni kultury. Okazały się także znamienną krytyką technologicznego wymiaru gutenbergowskiej kultury, dotyczyły ograniczeń zamkniętej formalnie i ograniczonej funkcjonalnie konstrukcji medium książki i jej wpływu na odbiór i kondycję tekstualności [199]. Chociaż jedynie w niewielkim stopniu można by je powiązać z rozwojem technologicznym maszyn kalkulujących, to miały one niepodważalny wpływ na ich kulturowe osadzenie na terytorium zdominowanym przez tekstualność. Doprowadziły bowiem do wykrystalizowania się idei cyber- i hipertekstu, a jednocześnie zainicjowały pozatechnologiczny (analogowy) nurt rozwoju tekstualności, który nazywany bywa liberaturą[200].

Nie będę wchodził głębiej w dokonania przywołanych twórców, bo są one powszechnie znane i dobrze już opisane także na polu medioznawczym – choćby w teorii hipertekstu. Odniosę się jedynie do konkluzji, jakie na temat zmian w tym obszarze zgłosili Eco i Barthes. W sformułowanej na początku lat 60. ubiegłego wieku koncepcji dzieła otwartego Umberto Eco zwracał uwagę na dokonującą się w kulturze zmianę ról. Relacja autor-dzieło traci na znaczeniu wobec relacji odbiorca-dzieło. Swoją władzą nad tekstami kultury ich autorzy muszą dzielić się z ich odbiorcami, którzy interpretują je, przekształcają i czytają wciąż na nowo [201]. Kilka lat później tę argumentację dobitnie wyraził Roland Barthes w słynnym eseju obwieszczającym śmierć autora jako jedynowładcy dzieła. Francuz potwierdzał w nim diagnozę Eco co do fundamentalnych zmian w obrębie literatury, rynku wydawniczego i czytelnictwa, jakie miały miejsce w XX wieku [202]. Dla obu wyśmienitych analityków obserwacje kulturowej tektoniki miały dużo większą siłę sejsmicznego rażenia niż tylko w obszarze literatury i tekstualności jako takich. W ich projekcjach stawały się one teoriami ogólnych zmian w kulturze współczesności, w której brak ciągłości, a przygodność, niejednoznaczność i nieokreśloność to stany naturalne. Otwartym dziełem nie włada już autorytarnie sam autor (ewentualnie także jego dysponent, wydawca) – staje się ono otwartym zasobem kultury, którego przeznaczeniem jest być wielokrotnie dekodowanym, dekonstruowanym. Konstatacje obu autorów mogłyby z powodzeniem znaleźć się w instrukcjach obsługi do technologicznych form baz danych. Wyrażają ich kulturowy potencjał i definiują nowy układ ról w kontakcie z uniwersum informacji, stając się w ten sposób klasycznymi tekstami cyfrowego dyskursu.

W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].

Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].

Tekstualność, na której formalnych podwalinach zasadza się projekt cyfrowy, to nie jedyny trop medialny dający się wykorzystać w poszukiwaniach kulturowych i artystycznych prototypów nowej organizacji wiedzy i informacji w formie baz danych. Tekstocentryczne analizy kondycji nowych mediów, które postrzegają hipertekstualność jako najważniejszy z kulturowych kształtów cyfrowości, wraz z rozwojem technologicznym przesunęły się na drugi plan, ustępując miejsca obrazom i ustanowionej w oparciu o ich język kulturze wizualnej. Oznacza to, że w domenie technologii cyfrowych to metafory, gramatyki i logiki wizualności odgrywają dziś decydującą rolę, definiują sens i wyznaczają porządek cyfrowego świata. Nie wchodząc na razie w szczegóły dotyczące znaczenia i historii zwrotu wizualnego w kulturze – wrócę do tego wątku niebawem – można powiedzieć, że ogólnie losy komunikacyjnej powłoki cyfrowych maszyn w ostatnich trzydziestu latach polegały na systematycznej ich emigracji z terenu tekstualności i zagnieżdżaniu się wewnątrz wizualności – potwierdza to historyczne następstwo technologii interfejsowych, które w pierwszej fazie swojego istnienia były mechaniczne, następnie tekstualne, aż wreszcie – to właśnie faza obecna – wizualne. Ten proces opowiadany z perspektywy historii technologii cyfrowych i sieciowych można rozumieć paralelnie wobec historii komunikacji w ogóle: jako przechodzenie od pisma i tekstualności (epoka Gutenberga) do fazy dominacji kultury wizualnej. Powszechna komputeryzacja możliwa dzięki interfejsom graficznym i wizualizacji środowiska cyfrowego to jedna z przestrzeni, w których doskonale widać dominację kultury wizualnej we współczesności [205].

Medialne technologie wizualne wraz z rozwijającymi się w XIX i XX wieku, głównie w opozycji do nich i w reakcji na ich obecność, sztukami wizualnymi wygenerowały spory zasób form, tekstów i ikon, które można uznać za wprowadzające w bazodanową ekologię. Widać je, kiedy spojrzymy na reakcję sztuki postawionej w obliczu fotografii, a następnie fotografii, kina i sztuk malarskich w obliczu telewizji. Eksperymenty formalne kubistów, impresjonistów i, najogólniej rzecz biorąc, kierunek działań awangardy były poszukiwaniem prawdy w malarstwie, które zostało w swej klasycznej estetyce i gramatyce zagrożone przez niezwykle wierną rzeczywistości, prostą i przystępną w obsłudze fotografię. Prace takich artystów jak Pablo Picasso, Paul Klee, Piet Mondrian świadczą o potrzebie przewartościowania wiedzy o malarskich estetykach, zwracaniu się do punktów i ich zbiorów, wariacyjnych perspektyw i sposobów postrzegania oraz interpretowania rzeczywistości – konstruowania nowatorskich reprezentacji świata, który malarstwu wykradały mechaniczne technologie wizualne.

Konkurencja malarstwa z fotografią zogniskowała się także wokół techniki fotograficznej nazywanej kolaż czy asamblaż. Jej reguła – powstała na skutek wielu innych dokonujących się w dobie ówczesnego kryzysu przedstawienia poszukiwań artystycznych – polega na zestawianiu przeróżnych elementów, materiałów i znaków w ramach pojedynczej kompozycji – dzieła. W ten sposób malarz może do namalowanej przez siebie farbą części dzieła dołączyć pocięte szmaty, wycinki z gazet, elementy wystroju wnętrz, itd. Jak się z czasem okazało, ta technika i forma w sztukach malarskich zyskały sporą, choć niedorównującą ich karierze w gramatyce języka obrazów technicznych, popularność.

Rozpoczęte w obszarze malarstwa poszukiwania podejmują także fotografia i kino, dominujące w pierwszej połowie XX wieku media wizualne. Mają one po temu naturalne techniczne predyspozycje, bowiem ich medialne języki biorą się z faktu technicznej manipulacji preparowanym obrazem. Szczególnie kino, które technicznie rzecz ujmując jest zwielokrotnioną i przyspieszoną w czasie iluzją wizualną opartą na fotografii, złudzeniem optycznym zmieniających się w tempie niezauważalnym dla ludzkiego oka klatek-zdjęć. Jednym z naturalnych elementów gramatyki tego medium jest montaż, który polega na manipulowaniu utrwalonymi na celuloidowej taśmie sekwencjami zdjęć – cięciem i sklejaniem celuloidowej taśmy, nakładaniem na siebie poszczególnych klatek, wycinaniem z pojedynczych utrwalonych tam obiektów, itd.. Naturalne dla tego medium jest w związku z tym także sekwencyjne przedstawianie opowieści. To, co można zrobić z filmową taśmą w procesie jej obróbki i montażu, okazało się również treścią samego medium. Ze współczesnej, bazodanowej perspektywy kinowy styl i takie jego formalne elementy, jak ujęcia, sceny, montaż, można uznać za nowatorskie działanie na wizualnej bazie danych. W klasycznej, celuloidowej wersji do filmu zastosować można, co prawda, dosyć ograniczoną ilość „algorytmów”, ale i tak jego narracyjność jest dalece bardziej wariacyjna, niż to miało miejsce w przypadku zamkniętego medium książki czy też dzieł malarskich, a nawet fotograficznych kolaży. To dlatego, że technologia kinowa oferuje znacznie większą ilość możliwych ingerencji, poprawek, ulepszeń, wariacji wobec scenariuszowej narracji niż te wcześniejsze media. Są nimi odpowiadające zabiegom wobec taśmy przenikania w scenach (audio i wideo), „szycie” scen „na zakładkę”, osobne manipulowanie kanałem audio i wideo, np. ich desynchronizacja, itd.

W filmie Spotkanie w Palermo (oryg. Palermo Shooting), wyreżyserowanym i napisanym przez przywołanego już w tej części Wima Wendersa w roku 2008, główny bohater to poszukujący sensu życia i inspiracji dla tworzonych przez siebie obrazów wzięty europejski fotograf [206]. Na co dzień posługuje się technikami manipulacji komputerowej wobec swoich zdjęć, dbając o zagwarantowanie ich atrakcyjności. Podmienia w nich zbyt chłodne słońce zachodzące nad miastem na jego bardziej południową, „słoneczną” wersję; chmury do niepełnego miejskiego krajobrazu wycina i wkleja z fotografii naturalnego krajobrazu; komputerowo usuwa niepotrzebne odcienie i refleksy światła. Dodatkowo niezwykle inwazyjnie zachowuje się wobec komponowanych przez siebie scen aranżowanych na potrzeby fotografii komercyjnych. Ten artysta mierzy się w technokratyczny i właściwy imagologom wizualnej kultury Zachodu, wyposażonej w coraz doskonalsze techniki manipulacji, z wizualnością tak, jakby była ona rzeczywiście zbiorem atomów odbijających światło, domagającym się nieustannego zarządzania, selekcji danych, ich aranżowania i zapętlonego w czasie burzenia ich w poszukiwaniu kolejnych wersji uchwyconych na kolejnych klatkach. Wenders niewątpliwie niezwykle poetycko diagnozuje w swoim filmie stan współczesnej wizualności technologicznej dekonstruującej wizualność i rozkładającej obrazy na atomy/piksele podlegające nieustannemu przetwarzaniu.

Współczesne kino dzięki swoim cyfrowym mediom jest w gruncie rzeczy dalece bardziej otwarte i podatne na wariacyjność i algorytmiczne gry z formą, niżby to wynikało z wendersowskiej opowieści. Za pioniera takiej estetyki uznać można polskiego reżysera Zbigniewa Rybczyńskiego. Dokonania Rybczyńskiego w zakresie dekonstrukcji mediów filmowych, twórczego eksplorowania technicznych ograniczeń doprowadziły go do momentów, w których filmowe rzemiosło uczynił jeszcze w analogowych czasach tej technologii ideowo-cyfrowym, bazodanowym. Peter Weibel nazywa wręcz Zbigniewa Rybczyńskiego matematykiem obrazów [207]. Jakie jest to protobazodanowe kino Rybczyńskiego? Aby odpowiedzieć na to pytanie, sięgnę tu do okresu jego analogowej twórczości. Jego „bazodanowe” Tango zostało nagrodzone Oscarem w latach 80. ubiegłego stulecia. Dla polskiego twórcy, doskonale świadomego technologii wizualnych i potrafiącego z nich na wysokim poziomie warsztatowym kreatywnie i krytycznie zarazem korzystać, technologiczny obraz oferowany przez media jest zbiorem świecących punktów, które z natury rzeczy poddają się wszelkim możliwym procedurom matematycznym. Rybczyński dał się poznać jako mistrz w ich formułowaniu i implementowaniu, czyli mozolnym zmuszaniu niegotowych na takie rozwiązania analogowych maszyn za sprawą różnych, mniej lub bardziej wywrotowych i subwersywnych w stosunku do nich, działań. Jego twórczość to zarządzanie pikselami technologicznych obrazów i odpowiadająca im logika zarządzania czasem, przestrzenią i bohaterami na semantycznym poziomie tworzonych obrazów – cięcie kliszy na drobne elementy składowe kompozycji i ich kolaż, zapętlanie ujęć, ich rewersy, negatywy, przyspieszenia, zwolnienia, przenikania, itd. Weiblowskie określenie Rybczyńskiego można, w kontekście współczesnych form baz danych i możliwych wizualnych operacji na nich, uzupełnić. Filmy Rybczyńskiego to pionierskie potraktowanie medium (wszystkim jego ograniczeń i możliwości) w wyrafinowany technologicznie sposób, który poprzedza myślenie o nim w kategoriach stricte cyfrowych: obraz to pierwsza z baz danych, którą ono zarządza, a jego piksele (wiedza Rybczyńskiego o ekranach telewizyjnych, liniach pikseli w systemach PAL/NTSC, przeplocie) to baza wizualnych danych otwarta na zarządzanie. W Nowej książce z roku 1975 czy w zrealizowanym kilka lat później Tangu widzimy także bazodanowe myślenie o semantyce filmowego przekazu. W pierwszym z tych filmów w podzielonym na dziewięć identycznych mniejszych części ekranie obserwujemy dziewięć dziejących się symultanicznie scen, które jednak – jak się okazuje – zostały pierwotnie nakręcone jako klasyczna filmowa sekwencja. W Tangu mamy do czynienia z bazodanowym majstersztykiem. Mozolnie pocięte i ponakładane na siebie, w rewolucyjny jak na tamte lata sposób, ujęcia pokazane są jednocześnie jako filmowy kolaż doskonały. Reżyser dodatkowo zapętla pojedyncze z nich w taki sposób, że pojawiają się jako sekwencje trwające dłużej niż pojedynczy „take”, tworząc w ten sposób wizualny loop. Widać w tej pracy inspiracje technologiami wielośladowej reprodukcji dźwięku, myślenie w kategoriach wychodzenia poza linearną narracyjność kina. Rybczyński myślał o filmowych ujęciach, taśmach i maszynach edycyjnych jako o bazach danych i przykładanych do nich algorytmach, choć dopiero od niedawna jego analogowe prace można interpretować w cyfrowych kategoriach. Jego kino jest w gruncie rzeczy w duchu cyfrowe, wyprzedzające epokę i formy techniczne, które reżyser wykorzystał, nawet wtedy, kiedy jest technologicznie analogowe: obecne jest w nim nieustanne przeliczanie klatek, scen, kompozycji i samej technologii, tak jakby robiły to dzisiejsze algorytmy w odwołaniu do cyfrowych wizualnych baz danych.

Skoro już jesteśmy przy kinie, to nie sposób pominąć technologii rejestracji i dystrybucji tworzonych nagrań muzycznych, których znaczenie dla filmu – jak w przypadku Rybczyńskiego, ale i dla całej współczesnej kultury – jest równie fundamentalne. To w środowisku twórców muzyki, jej studyjnych inżynierów, producentów i realizatorów powstały chyba najbardziej bliskie bazodanowej ekologii i poetyce formy i teksty. Obecnie zaś wielu teoretyków kultury próbuje dowartościować jej audialne zaplecze na tle humanistycznych opowieści o dominacji kultury wizualnej [208].

W przypadku medium masowego, jakim jest muzyka popularna, mamy do czynienia z wieloma elementami, które można by uznać za protobazodanowe. Kluczowym z nich jest bez wątpienia rozwój technologii wielośladowej rejestracji i remiksu nagrań oraz zmiany w kulturze muzycznej, które wywołał. Jak wiadomo pierwsze nagrania muzyczne powstawały w oparciu o homogeniczny zestaw rejestrujący składający się ze „słyszącego” otoczenie interfejsu-mikrofonu oraz kompletu urządzeń przetwarzających i rejestrujących, którymi początkowo były walce powleczone tworzywem poddającym się rejestrującej igle, żłobiącej w nich porowatą ścieżkę, po której podróżowała następnie igła przekładająca powstałe w ten sposób rowki na drgania i dalej na modulowane elektrycznie sygnały, które, po odpowiedniej obróbce, np. wzmocnieniu, wprawiały w ruch membranę głośnika (interfejsu wyjścia). W zasadzie tej formule podporządkowane były zarówno płyty gramofonowe, jak i współczesne nośniki cyfrowe CD, DVD, BR, których ścieżki składają się z wypalonych/wytłoczonych dołków układających się w spiralną linię. Pojawienie się zapisu na taśmach magnetycznych przyczyniło się do powstania technologii wielośladowej, czyli takiej, w której można zarejestrować, a następnie poddać strukturalnej obróbce zapis z wielu źródeł: mikrofonów, instrumentów, efektów jednocześnie. Dostępne dzisiaj cyfrowe techniki nagraniowe oferują możliwość rejestracji i miksu w praktyce nieskończonej ilości ścieżek. Oferują także możliwość pracy z tymi ścieżkami w niemal nieograniczony sposób – każdą z nich można indywidualnie przetwarzać, a całą powstającą z ich wymieszania kompozycję można jeszcze, dodatkowo, poddawać bardziej całokształtnej obróbce.

Dzięki technologiom symultanicznego miksu wielu osobno rejestrowanych ścieżek nagrania muzyczne stały się czymś zgoła innym od granej „na żywo”, z konieczności homogenicznej formalnie muzyki. Nowa formuła oferuje możliwość niezależnego od siebie zarządzania wieloma danymi w ramach jednego utworu; w ten sposób powstają miksy i remiksy muzyczne, których logika polega na tym, aby zgodnie z wyobraźnią realizatorów i producentów (algorytmami) zaaranżować określony układ i zależności ścieżek przekładających się na brzmienie utworu. Korzystając z wielośladowych nagrań pojedynczy muzyk może, o ile potrafi, nagrać kilkadziesiąt kolejnych śladów-ścieżek pojedynczych instrumentów, wokaliz, efektów i skompilować na ich podstawie gotową aranżację akustyczną. Inni muzycy, realizatorzy, producenci, którzy do takich nagranych i trzymanych formalnie w separacji, choć w razie potrzeby współbrzmiących, ścieżek mają dostęp, mogą nimi po swojemu „zarządzać”. W ten sposób swoje płyty nagrywali tacy muzycy popularni, jak np.: Paul McCartney, Beck, Wojciech Waglewski czy Prince.

Rozwój technologii muzycznych danych poszedł jednak jeszcze dalej, kiedy okazało się, że z poszczególnych, sklejonych wcześniej, studiach utworów-aranżacji można „pozyskać” (działania te są kontrowersyjne z punktu widzenia tradycyjnych praw autorskich) najdrobniejsze elementy już istniejących dzieł, by wykorzystać je jako składniki w nowych utworach. Taki sposób „recyklingu” muzyki określono mianem samplowania. Ta technika wywodzi się także z alternatywnego wykorzystania innej technologii muzycznej: gramofonu i interfejsu winylowych płyt. Od studyjnej rejestracji i miksu pojedynczych śladów samplowanie z winylowych płyt różni subwersywy charakter takiego działania. Podejmowali je i stworzyli jego estetykę ludzie, który nie byli ani profesjonalnymi muzykami, ani inżynierami dźwięku – mowa o kulturze didżejskiej i czarnoskórych selekcjonerów puszczających muzykę z płyt na tanecznych soundsystemach w Afryce i Ameryce Północnej. Poszukując form sklejania różnych muzycznych „kawałków” w dansingowe sety, stworzyli własną estetykę, dla której kategoriami kluczowymi stały się takie hasła, jak sample (pojedyncze cząstki gotowych utworów wykorzystywane w oderwaniu od nich), scratch (ręczne poruszanie płytą gramofonową dające specyficzny efekt dźwiękowy), loop (rytmiczne zapętlanie sampli). Te trzy element okazały się później zrębem etosu i najważniejszą figurą estetyczną (obok rapu) muzyki hiphopowej. Jej klasyczne dokonania bazują na utworach powstających przez pożyczanie wyłuskanych z istniejących nagrań gitarowych riffów, akordów różnych instrumentów, elementów wokaliz, itd. Hiphopowy twórca z samych tylko sampli potrafi stworzyć linię melodyczną i rytmiczną swojej kompozycji. Radykalnym co do formy i wyrafinowanym estetycznie przykładem takiego działania niech będzie twórczość grupy Skalpel, której muzycy pieczołowicie wycinali sample brzmień jazzowych ze starych polskich produkcji i stworzyli z nich własne utwory.

Poetyka didżejska zrodziła z czasem zupełnie nowe „gatunki” i formaty muzyczne: powstała kategoria chill out music, czyli sety różnych utworów muzycznych dobieranych według różnych kryteriów w poprzek istniejących gatunków i estetyk, a także format muzycznej składanki, tj. kompilacji nagrać przygotowanych w określonym celu, według założonego kryterium semantycznego. Wszystkie te gry z technologiami rejestracji, remiksowania i odsłuchiwania nagrań to estetyka, którą można by zawrzeć w kategorii kultura remiksu [209]. To działanie i estetyka, które stały się zasadniczą regułą pracy z bazami danych. W tym kontekście można mieć uzasadnione – alarmujące głosy podnoszą w tym zakresie wydawcy muzyki – obawy o śmierć albumu jako formy dystrybucji muzyki, śmierć pojedynczego utworu jako zamkniętej formy technologicznej i estetycznej, czy dalszą karierę algorytmów w powszechnym odbiorze muzyki – pierwszym i najbardziej znanym z nich jest odtwarzania w przypadkowej kolejności utworów z płyty, inne dotyczą kompilowania play list według licznych kategorii i tagów (random play, shuffle) [210].

Jednak nie tylko w technologiach audialnych widać tropy wiodące do wyobraźni bazodanowej. Są one także obecne w przemianach, które dotyczyły muzyki w ogóle. Wytyczyły je takie postaci XX-wiecznej muzyki, jak Pierre Schaeffer (inżynier i teoretyk muzyki), John Cage (awangardowy kompozytor współczesny), Glen Gould (wybitny pianista) czy Brian Eno (twórca muzyki ambient). Ich artystyczne i teoretyczne poszukiwania polegały najpierw na poszerzaniu pola muzyki przez wciąganie do niego dźwięków naturalnych i cywilizacyjnych, takich jak odgłosy przyrody, dźwięki miasta i przemysłowe, anektowaniu ciszy, przekraczaniu ograniczeń instrumentów – np. uderzania w fortepian różnymi przedmiotami, modyfikowaniu ich kształtów i majsterkowaniu przy ich konstrukcji (Cage). Powstały w ten sposób koncepcje słuchania akuzmatycznegoobiektu dźwiękowego (Schaeffer), rozciągające formalne reguły rzemiosła muzycznego i estetyki akustycznej do rozmiarów olbrzymiej bazy danych, w której muzyk w tradycyjnym sensie stawał się postacią anachroniczną, nieodpowiadającą już wyzwaniom, które w jego imieniu mieli przejąć także architekci muzyczni (Cage) oraz towarzyszący im producenci, inżynierowie, a w późniejszym czasie także i didżeje.

Jednym z najbardziej znanych utworów Johna Cage’a jest Imaginary Landscape No. 4, w którym audialny efekt powstaje za sprawą regulacji długości fal oraz głośności dobiegających z 12 radioodbiorników obsługiwanych przez 24 osoby. W Imaginary Landscape No. 5 grają 42 wskazane przez artystę płyty gramofonowe. Cage wprowadza w ten sposób do muzyki przypadkowość, a jednocześnie do nieznanego wcześniej poziomu rozbija harmonię klasycznego instrumentarium, stawiając na wariacyjność i algorytmiczność – atrybuty późniejszych baz danych.

Pierre Schaeffer korzysta w tworzeniu swojej muzyki konkretnej ze wszelkich możliwych modulacji i wariacji, jakie da się osiągnąć manipulując maszynami do rejestracji, miksowania i odtwarzania dźwięków. Z jego doświadczeń narodziła się muzyka określana jako plądrofonia – czyli taka, która powstaje z już istniejących, przetworzonych technologicznie nagrań muzycznych. Jest ona mało znanym zalążkiem wszystkiego, co dziś znane jest w estetyce audialnej (i nie tylko) jako kultura remiksu.

Glen Gould będąc u szczytu sławy jako wybitny pianista klasyczny zrezygnował z występów koncertowych, poświęcając się pracy studyjnej. Nie wierząc w potencjał nagrań na żywo rozpoczął w studiu bazodanowe eksperymenty mieszając różne części nagrywanych przez siebie kolejnych wersji tych samych utworów i z każdej z nich wybierając najlepsze fragmenty. Powstawały w ten sposób miksowane nagrania, które brzmiały zdaniem artysty lepiej niż wierne zapisy pojedynczych take’ów.

Brian Eno poszukując nowych form muzycznych podążył w stronę muzyki samogeneratywnej, która powstawała – podobnie zresztą jak tworzone przez niego dzieła wizualne – na zasadzie wariacji algorytmicznych w obszarze skończonej liczby dostępnych sampli, taktów i brzmień. Ambientowe utwory powstające w ten sposób są nieustanną pracą algorytmu na bazie danych – potencjalnie nigdy się nie kończą, generując cały czas nowe wariacje.

W przestrzeni audialnej bazodanowe tropy obejmują dodatkowo nowego typu instrumentarium, takie jak samplery, sequencery, miksery, software służący do miksowania nagrań, sprzęt do odtwarzania nagrań (programowanie kolejności odtwarzania i brzmienia). Bazodanowa muzyka koncentruje się na wszystkim tym, co można z zarejestrowanym materiałem audio zrobić za pomocą przeróżnych technologicznych maszyn i wpuszczonych na ich terytorium algorytmów.

Od jakiegoś czasu także i w architekturze pojawiają się bardzo dosłowne nawiązania do baz danych. Przykładem takiej estetyki niech będzie tu projekt ekologicznej struktury modułowej o nazwie Eco-Pod zaprojektowanej przez jedno z amerykańskich biur architektonicznych, która ma być samoregulującym się – zarówno w sensie funkcjonalnym jak i architektonicznym – systemem hodującym wykorzystywane do wytwarzania czystej energii algi. Budynek zarządza sam sobą, przestawiając moduły w razie potrzeby – dopasowuje się do klimatu otoczenia, według określonych kryteriów wybrane moduły wynosi na górne piętra, inne przestawia na pozycje fasadowe z wnętrza konstrukcji. Być może takie będą budynki przyszłości – samoorganizujące się „organizmy” architektoniczne nieustannie zmieniające swój kształt i układ strukturalny [211]>.

Przeszedłem przez obszar technologicznych i kulturowych inputs i outputs związanych z bazami danych. Pora teraz na analizę ich semantycznego usytuowania i rozumienia w dyskursach teorii mediów i kultury, czyli odnalezienie i rozpoznanie potencjału bazy danych jako pojęcia w budowie. Baza danych odgrywa pierwszoplanową rolę w teorii nowych mediów. Kiedy dyskurs medioznawczy, który bacznie przyglądając się impetowi cyfrowości i jej technologii podsuwa nam myśli o cyfrowej rewolucji, nowej, otwartej kulturze czy kulturze uczestnictwa, odwołuje się przede wszystkim do figury bazy danych. Została ona przezeń ustanowiona jednym z emblematycznych, centralnych formatów nowego ekosystemu medialnego. Powoli staje się także – na skutek poznawczej atrakcyjności medioznawstwa, mody na nie – metaforą opisującą nowe obyczaje komunikacyjne i zmiany w świecie kultury i życia społecznego w ogóle. Do takiego wykorzystania pojęcia bazy danych mam i ja nadzieję się w jakimś stopniu przyczynić.

Figurę bazy danych i sam termin wprowadził do dyskursu medioznawczego Lev Manovich w wydanej przed dekadą, a dzisiaj już kanonicznej dla studiów nad cyberkulturą i nowymi mediami, pracy Język nowych mediów. Manovich wyznaczył w niej kanon definiowania i teoretycznego kontekstualizowania kultury komunikacyjnej technologii cyfrowych. Amerykański medioznawca wskazuje na bazę danych, którą w połączeniu w interfejsem umieszcza w funkcjonalnym (technologicznym) i kulturowym epicentrum mediów cyfrowych. Baza danych to według niego nowy sposób nadawania struktury naszemu doświadczeniu świata i siebie (s. 334–335), wokół którego epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość → media → dane → baza danych (s. 341). W konsekwencji struktura niektórych obiektów medialnych stosuje się wprost do logiki bazy danych, natomiast struktura innych – nie, mimo to – w głębi – praktycznie wszystkie to bazy danych (s. 343) [212]. W odczytaniu Manovicha cyfrowy ekosystem informacyjny to środowisko bazodanowe, co znaczy, że struktura bazy danych powiela się we wszystkich jego obszarach, zaś same dane zawładnęły wszystkimi jego poziomami funkcjonalnymi. Bazy danych spełniają fundamentalną rolę: są technologicznym wcieleniem idei dotyczących struktury i organizacji wiedzy, ekologii i ekonomii jej zasobów towarzyszących dwudziestowiecznej kulturze.

W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].

Jak, według amerykańskiego teoretyka, baza danych wpływa na kształt języka nowych mediów? Odpowiedź Manovicha jest w tym przypadku stanowcza: współczesne media to pole rywalizacji między bazą danych a narracją (s. 353) [214]. Baza danych to format rozbijający tradycję odgórnie planowanej i dystrybuowanej narracyjności w kulturze. Narracyjne były i wciąż w dużej mierze są, mimo podjętej walki z nowymi technologiami, tradycyjne media komunikacji masowej. Ich logika zdominowana była przez funkcję bezzwrotnej transmisji zdefiniowanego (technologicznie, ideologicznie, geograficznie) komunikatu do jak największej ilości potencjalnych odbiorców. Narracyjne były również tradycyjne media epoki przedelektrycznej – pismo, obrazy, opowiadania.

Potwierdzenia manoviczowskiej diagnozy bazodanowego charakteru cyfrowego ekosystemu medialnego potwierdzają i uzupełniają diagnozy szczegółowe proponowane przez innych teoretyków mediów, kultury i komunikacji. Dla przykładu w zakresie cyberkulturowej teorii tekstualności takie potwierdzenie znajdziemy w pracach teoretyka literatury elektronicznej i cyfrowej tekstualności Espena Aarsetha, który cybertekstualność postrzega w oparciu o zanik linearności: w zakresie tworzenia tekstu, jak i jako szereg charakterystycznych dla zapośredniczenia cyfrowego strategii odbiorczych. Nielinearny tekst staje się tekstem bazodanowym, to jest takim, w którym obok autorskiej narracji możliwe są także inne układy i kompozycje jego części składowych (zarówno technicznych jak i semantycznych), staje się hipertekstualny, multimedialny i wariacyjny [215].

Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].

Dominacja narracji uprzywilejowuje autora na niekorzyść czytelnika, widza, słuchacza; nadawcę wobec odbiorcy, instytucje medialne wobec społeczeństwa i obywateli, itd. – to kondycja tradycyjnej kultury medialnej i komunikacyjnej. Manovich sprawnie skompresował szereg odnoszących się do różnych porządków i form medialnych diagnoz i teorii, obejmując je wszystkie rzeczonym konfliktem pomiędzy narratywnością i podważającym ją porządkiem bazodanowym. Poza przywołanymi współczesnymi teoretykami mediów i ich kultury tę zmieniającą się kondycję rozpoznali już wcześniej filozofowie Gilles Deleuze i Felix Guattari. W swojej teorii kultury zaproponowali figurę kłącza wydobywającą poststrukturalny świat fragmentów i niezliczonej ilości możliwych nawigacji i narracji między nimi oraz logikę nomadyczności, która w ich perspektywie oznacza nowy porządek kulturowego bycia i poruszania się w kłączastym świecie fragmentów. Dopełnieniem deleuzowsko-guattariańskiej teorii stał się obwieszczony pod koniec lat 70. przez jeszcze innego francuskiego humanistę, Jeana Francois Lyotarda, w raporcie dotyczącym kondycji społeczeństwa współczesnego upadek wielkich narracji. Za wielkimi teoriami/opowieściami kultury kryją się diagnozy, w których wielkie konstrukcje/systemy/struktury i dyskursy tracą swoją cywilizacyjną pozycję, rozpadają się stając się nieuporządkowanym skupiskiem resztek gotowych na dowolne odczytania, podatnych na rekonstrukcje, połączenia z dowolnymi innymi, czekających na wzbudzenia i utrwalenia i objawiających się w miejsce braku wielkich niezliczonych mikronarracji. Tradycyjne, hierarchiczne kultura i społeczeństwo przechodzą w ten sposób, konkluduje Lyotard, w tryb ponowoczesny.

Analogiczne wobec tych zaobserwowanych głównie w domenie kultury zjawiska odnotowali także teoretycy zajmujący się analizami społecznymi, dotyczącymi sfer polityki i ekonomii. Na przykład w opublikowanej w roku 1987 pracy zatytułowanej The End Of Organized Capitalism [217] Scott Lash i John Urry przekonują, że w zaawansowanym kapitalizmie niemożliwe jest utrzymanie hierarchicznego porządku. Nie sposób zapanować w nim nad przepływami kapitału, relacjami związanymi z własnością środków produkcji i charakterem pracy. Miejsce tradycyjnej koncentracji kapitału zajmuje jego dekoncentracja i rozproszenie, mobilność i nieustanna recyrkulacja. Dotychczasowa kontrola i regulacja państwa, wielkiego kapitału i narzuconego odgórnie systemu pracy upadła pod naporem milionów małych i średnich firm, które rozproszyły dotychczasowy system. Świadczą o tym takie zjawiska, jak np.: narodziny globalnego rynku, pojawienie się profesji niemieszczących się w oficjalnym systemie organizacji pracy, spadek znaczenia tradycyjnej, fordowskiej logiki wytwarzania na rzecz bardziej zaawansowanych modeli (postfordyzm, prosumpcja), malejące znaczenie banków narodowych i innych instytucji finansowych powiązanych z państwem narodowym, narastająca niezależność podmiotów ekonomicznych wobec regulacji państwa, rozprzestrzenianie się kapitalizmu poza kulturę Zachodu (np. do krajów tzw. Trzeciego Świata), systematyczne słabnięcie systemu klasowego i emancypacja klasy pracującej, regionalizacja produkcji i konsumpcji, a także rosnące znaczenie kultury i sztuki w życiu publicznym.

III.3. Bazy danych jako praktyki postmedialne

Baza danych to technkulturowy rezonans myślenia matematycznego i abstrakcyjnego, liberalizmu, emancypacji i demokratyzacji życia społecznego, rewolucji przemysłowej i technologizacji życia. Od kiedy elementy i gramatyka cyfrowego ekosystemu stały się jednym z regulatorów kulturowych praktyk, również baza danych jest niezwykle ważnym obiektem/procesem kulturowego i kulturalnego krajobrazu. Jej kulturotwórcza energia rezonuje pośrednio i bezpośrednio w wielu sferach rzeczywistości, niektóre z nich zmieniając niezwykle radykalnie i dogłębnie, inne tylko delikatnie/niezauważalanie jeszcze zahaczając.

Chciałbym teraz przyjrzeć się bazodanowym praktykom współczesności, czyli sprawdzić, jakie mechanizmy i zjawiska uruchamiają bazy danych, co dzieje się w świecie dookoła nas, kiedy wchodzą weń dane i pojawia się konieczność zarządzania ich bazami? Pomimo oznaczonych już szczegółowych kontekstów obecności i wpływu danych chciałbym wskazać na zjawiska, które mają bardziej uniwersalny charakter, dotyczą kultury i życia społecznego w ogóle, a w tych specjalistycznych obszarach działają wedle ogólnego modusu. Pośród palety tych praktyk kilka wydaje się mieć znaczenie priorytetowe dla mojej analizy, są to: wizualizowanie danych (infoestetyka i visual culture); zarządzanie danymi w domenie informacyjnej (data journalism, data mining i data art) oraz społeczna ekologia danych, tj. ich generowanie, indeksowanie oraz alternatywne w sensie politycznym, kulturowym i ekonomicznym obiegi/cyrkulacje. Odwołuję się do kryjących się za tymi hasłami praktyk, bo mają one postmedialny charakter. Wpisują się w ogólny nurt emancypacji technologicznej, tj. procesu społecznego przejmowania/konstruowania władzy nad technologiami komunikacyjnymi. Dotyczą zjawisk semiotycznych i związanych z dominacją wizualności w kulturze, są także świadectwem erozji/dezintegracji/rekalibracji formatu medium, rozmywania się jego form i ujednolicania/rozpraszania różnych medialnych gramatyk. Wszystkie te postmedialne okoliczności i scenariusze najpierw ogólnie umocuję pośród zjawisk nadrzędnych, a następnie przejdę do analizy dwóch wybranych przypadków, za pomocą których zilustruję najbardziej, jak sądzę, namacalne wpływy technologii baz danych i bazodanowego myślenia.

Przegląd bazodanowych praktyk rozpocznijmy od ich afiliacji z kulturą wizualną, bo to na tym styku dochodzi do najbardziej dziś frapujących danowych wydarzeń. Zanim jednak zajmę się wizualnymi losami danych, krótko scharakteryzuję diagnozy kultury zdominowanej przez obrazy. Ten stan nauki humanistyczne i społeczne opisują dzisiaj najchętniej mianem kultury wizualnej. Jego źródeł teoretycy upatrują w przejęciu przez media wizualne i fabrykowane przez nie obrazy techniczne (technologiczna reprodukcja dzieła sztuki) dominującej roli w obszarze komunikacji kulturowej i społecznej. Zarówno zakres pojęcia kultury wizualnej, jak i akademickie umocowanie i sens studiów wizualności pozostają materią sporną. James Elkins, jeden z najpowszechniej czytanych propagatorów badań i studiów wizualnych tak te spory opisuje [218]:

Obrazy powstają i są przedmiotem wielu dyskursów, na uniwersytetach i poza światem humanistyki. Niektóre dyskursy, takie jak biochemia czy astronomia, traktują je obsesyjnie; inne tylko częściowo się nimi posługują. Jak na razie visual studies interesują się głównie obrazami funkcjonującymi w polu sztuki i mediów masowych pomijając w ten sposób pozostałe, które stanowią przeważająca większość powstających w praktykach naukowych. Poza uniwersytetami tego typu obrazy naukowe pojawiają się w kolorowych magazynach, Internecie czy książkach popularnonaukowych.

Wśród większości współczesnych badaczy komunikacji, kultury i mediów, nie ma sporu co do historycznego triumfu medialnej wizualności nad pozostałymi formami komunikacyjnymi w kulturze współczesnej. Uznają ją za najważniejszą, uprzywilejowaną platformę wymiany między ludźmi i różnymi kulturami. Wizualny prymat potwierdzali już w latach osiemdziesiątych ubiegłego wieku wielcy współcześni diagności kultury, tacy jak Jean Baudrillard w swojej teorii symulacji, William J. T. Mitchell w obszarze kulturowej teorii obrazów – ikonologii, Oliver Grau w analizach historii sztuki mediów czy Hans Belting w antropologii obrazu opartej m.in. na różnicy pomiędzy tym, co widzialne (visible), a tym, co zobrazowane (visual) [219]. Przywołane teorie jednoznacznie uznają kulturowy prymat wizualności, a także definiują visual culture jako jedno z fundamentalnych dla współczesnej kultury i nauki obszarów/praktyk. Tworzą przy okazji także i nową dyscyplinę badań nad kulturą pod szyldem visual studies. Składają się na nią dokonania i perspektywy takich istniejących nauk, jak cultural studies, media studies, psychologia, antropologia, semiotyka czy historia sztuki.

Teoretyczne i metodologiczne tropy visual studies i próby ich zaszczepienia w praktyce akademickiej znajdują potwierdzenie i wzmocnienie w praktykach artystycznych i technologicznych. Na uniwersytetach coraz częściej pojawiają się katedry i kierunki skupiające się na kulturowej i społecznej roli obrazów i wizualności. W Austrii Oliver Grau ukonstytuował dedykowaną tej problematyce dyscyplinę badań i uruchomił studia wizualne – Bildwissenschaft [220]. Na podobne posunięcia decydują się także inne uniwersytety i ośrodki badawcze nie tylko w Europie. Wspomniany amerykański teoretyk obrazów i wizualności W. J. T. Mitchell w 1992 obwieścił „zwrot piktorialny” (zwrot wizualny) w dyskursie nauk i sztuk. W ten sposób nazywał dokonujące się pod naporem obrazów przesunięcia w nauce, powiadając, że nie język, a wizualność jest pryncypialną zasadą mediów {[221], i sugerując przekierowanie uwagi poznawczej na sferę wizualną, jej fenomenologię, estetykę i poetykę [222]. Potwierdzeniom prymatu wizualności w dyskursie sztuki mediów i jej teorii oraz w logice rozwoju technologiczno-gospodarczego przyjrzę się niebawem nieco szerzej. Zależy mi bowiem na podkreśleniu związków pomiędzy ewolucją kondycji wizualnej a logiką funkcjonowania baz danych.

Na obecnym etapie rozwoju cyfrowych form technologicznych (hardware i software) wizualność jest przede wszystkim praktyką nadawania surowym, matematycznym ciągom kodu baz danych bezpiecznych antropologicznie (psychologia i antropologia postrzegania) i kulturowo (semiotyka wizualności) kształtów, tj. upodabnianie do oswojonych w ramach dziedzictwa visual culture form (np. ekran monitora jako nawiązanie do ekranu telewizora, strona www jako nawiązanie do drukowanej gazety). Inaczej mówiąc: obrazy wystawiamy jako najważniejszy kulturowy kapitał/system bezpieczeństwa w kontaktach z niewidzialnym, tj. trudnym do uchwycenia (za sprawą miniaturyzacji narzędzi i spektrum widzialności elektryczności) techné, a przez to niezrozumiałymi/groźnymi elektrycznością, kodem cyfrowym i oceanem digitalnych danych. W ten sposób wizualność pełni nie tylko rolę gwaranta kulturowego bezpieczeństwa i uniwersalnej powłoki (mapy) cyfrowych wód, siłą rzeczy przekształcona została także – dopełniając historię analogowej mediatyzacji wizualności – w najpowszechniejszą praktykę użytkową nowych technologii, stając się gruntem, na którym narodziły się ich interfejsy. Najogólniej rzecz ujmując przypomnę: obrazy stały się najważniejszym kulturowym interfejsem technologii rewolucji cyfrowej.

Skupię się po tej wstępnej charakterystyce kultury wizualnej na wizualizowaniu danych. Sens tej praktyki można, po pierwsze, rozpoznać idąc tropem ustaleń psychologii percepcji i kogniwistyki. To dyscypliny, które generują wiedzę o tym, jak postrzegamy i jak rozumiemy rzeczywistość odbierając i analizując docierające do nas bodźce. Współczesna wiedza o pracy mózgu podpowiada, że łatwiej jest mu rozumieć i interpretować informacje, które mają postać wizualną. Kiedy lewa, analityczna półkula zajmuje się obróbką liczb, liter i generalnie informacji, prawa jednocześnie przetwarza kolory i kształty, a zatem skupia się na projekcie graficznym. Kiedy obie zajmują się tym samym bodźcem, to nasze myślowe zaangażowanie wobec niego jest pełniejsze, bardziej emocjonalne, wywołuje pozytywne utrwalenie w pamięci. Mózg identyfikuje i interpretuje kształty, proporcje i kolory jako nierozłączny element przekazu, nie pomijając wysublimowanych związków pomiędzy treścią a formą [223].

Na przeoranym siłami rozwoju technologicznego i ewolucji kultury medialnej polu także wizualność i jej techniczne obrazy muszą w związku z powyższym stać się podwójnie kompatybilne, wciąż wpisując się w istniejące kody kultury jednocześnie poddawać się nowym technokulturowym regulacjom. Dostrajanie się do siebie technologii, kultury i obrazów jest dzisiaj bezprecedensowe co do zakresu zmian, ich tempa i zasięgu. Zmieniają się dostępność do możliwości tworzenia i publikowania (a w zasadzie upubliczniania) obrazów, software i interfejsy ich tworzenia, przekształcania, magazynowania, analizowania i emisji [224]. W obszernej antologii zatytułowanej Imagery in the 21st Century, prezentującej zasięg i skalę najnowszych estetyk, interfejsów, software cyfrowej wizualności, Oliver Grau i Thomas Veigl tak te procesy opisują:

Nigdy wcześniej świat obrazów nie zmieniał się tak szybko; nigdy wcześniej nie byliśmy wystawieni na kontakt z tak wielką ich różnorodnością; nigdy wcześniej sposoby wytwarzania i dystrybuowania obrazów nie zmieniały się tak gwałtownie [225].

Jaki jest sens tak istotnych zmian? Dane, które zyskują wizualną postać (interfejs), stają się czytelne i zrozumiałe kulturowo, a w konsekwencji mają szansę wejść do powszechnego obiegu kultury codzienności. Anektują oswojoną przestrzeń wizualnej semantyki i estetyki; mówią dominującym w kulturze językiem i dzięki temu mają moc ustanawiania reguł gry dla innych kulturowych gramatyk (audialność, architektura, moda). Wizualne odczytania baz danych obejmują współcześnie w zasadzie każdy możliwy rodzaj danych, czyli dotyczą wszelkich systemów kulturowych i społecznych, dla których tworzenie/przetwarzanie informacji/danych to sprawa kluczowa. Wizualizowanie danych to także coraz bardziej popularna strategia estetyczna, do której dostęp mają obecnie nie tylko nieliczni specjaliści, ale dzięki rosnącemu dostępowi do samych danych jak i różnego rodzaju coraz bardziej prostym i dostępnym narzędziom wspomagającym ich przetwarzanie coraz większe ilości chętnych. Specjalistów inżynierów i programistów uzupełniają w tym zakresie projektanci i artyści, a także przeciętni użytkownicy cyfrowych technologii.

W szczególnej sytuacji wobec danych i ich wizualizacji znalazły się m.in. takie dziedziny, jak nauka, biznes czy media. Sugerując się samymi tytułami publikacji poświęconych tej tematyce, można śmiało orzec, że wraz z wizualizowaniem baz danych w ramach dyskursów tych sfer następuje radykalna zmiana jakościowa, której efekty powoli stają się widoczne i zmieniają dotychczasowy w nich układ sił. Nauki ścisłe dzięki modelom wizualnym analizują kod DNA (genetyczna baza danych), socjologowie i geografowie społeczni generują interaktywne mapy pokazujące szeregi zależności między zmieniającymi się faktorami nakładanymi na siatkę topograficzną, ekonomiści posługują się wizualizacjami procesów ekonomicznych poszukując w nich uniwersalnych praw i próbując przewidzieć przyszłość, architekci projektują budynki publiczne o zmieniających się wizualnie fasadach-ekranach, a humaniści tworzą mapy pojęć i teorii [226].

W ciągu ostatnich lat tego typu wizualizacje stały się autonomiczną i niezwykle popularną grupą tekstów kultury. Dla zainteresowanych tą designerską praktyką dostępne są darmowe aplikacje i języki programistyczne (Processing) a także zasoby przeróżnych baz gotowe do zwizualizowania. Wielkie media (New York Times, Guardian), instytucje (Library and Archives Canada, rząd Belgii), firmy (wyszukiwarka danych) i uczelnie (Princeton) udostępniają zasoby gromadzonych przez siebie przez lata danych, zapraszając chętnych do opowiadania na ich podstawie własnych historii – tworzenia własnych wizualizacji i narracji wewnątrz surowych, często nieinterpretowanych jeszcze zasobów. Amerykański IBM udostępnił darmowe narzędzie software służące do analizy i wizualizacji danych. Na specjalnej stronie każdy może skorzystać z przygotowanych wcześniej zasobów i/lub dodać do nich własne, skorzystać z już istniejących wizualizacji i/lub przygotować własne, opublikować i/lub rozmawiać o już istniejących [227].

Praktyka wizualizacji danych doczekała się już swojej teorii i dedykowanych działań metodologicznych (software’owych). W swoim software studies lab na kalifornijskim UCSD pracuje nad nimi L. Manovich z grupą współpracowników. W wyniku swoich badań zaproponowali światu naukowemu, ale i biznesowi, administracji, nowatorską metodę i narzędzia badań nad mediami, które nazwali media visualisations. Amerykanie traktują zdigitalizowane wcześniej media (filmy, fotografie, książki, prasa, programy telewizyjne, klipy muzyczne) jako olbrzymią bazę danych i starają się zadawać jej pytania wizualne, których postawienie w tradycyjny sposób byłoby niezwykle trudne czy wręcz niemożliwe. Jednym ze zrealizowanych przez Lab projektów jest olbrzymia baza ujęć filmowych z różnych filmów, w której specjalna aplikacja poszukuje prawidłowości związanych z kompozycją kadru, kolorystyką, montażem, itd. W podobny sposób poddano analizie digitalne wersje obrazów van Gogha, japońskie mangi czy okładki Time z lat 1993–2000 [228]. Za sprawą wizualnych analiz danych rodzi się w ten sposób metamedioznawstwo, czyli postmedialna wiedza o ich kulturze.

Wizualizacje danych to, reasumując, nowe środowisko wizualne, które gwałtownie się rozwija i upowszechnia. To demokratyzacja społecznej ekonomii wizualnej, w której dotąd dominowały autorytarne obrazy tworzone przez instytucje medialne. To także formalne otwarcie języka wizualnego i obrazów, które stają się płynne i podatne na zmiany, konfiguracje i interpretacje swoich widzów/malarzy. To również krok w stronę technologicznego i matematycznego nowego porządku obrazów, które powstają jako barwne reakcje na fluktuujące środowisko danych, stając się jego najważniejszym kulturowym obliczem.

Cyfrowych danych nie da się kontrolować w sposób, w jaki możliwa była na masową skalę kontrola transferów informacji w epoce mediów analogowych. Jak pokazuje praktyka społeczna, dane skutecznie wymykają się politycznej, administracyjnej czy militarnej kontroli. Ich transfery odbywają się niezależnie od oficjalnie zaprojektowanych porządków, reguł i limitów połączeń. Information wants to be free często powtarzają cyberideologowie [229]. Powszechnie znana jest skala zjawiska ikonicznego dla tych alternatywnych szlaków danych, czyli piractwa. Pojęciem tym dziś nie opisuje się już tylko nielegalnej wymiany plików w sieciach komputerowych, to klamra spinająca ideologiczne postulaty ruchu społecznego, który w kilku europejskich krajach dorobił się nawet reprezentacji parlamentarnych i jednoczy więcej ilości ludzi także w realu [230]. Podstawową zasadą pirackiego bycia i działania w środowisku danych jest podważanie istniejących protokołów nowymi regułami, jeszcze bardziej skutecznie omijającymi reguły i kanały kontroli. To nieustanny wyścig technokracji i technologicznych partyzantów (hakerów), którzy natychmiast po prawnym, instytucjonalnym czy ekonomicznym wyłączeniu/unieważnieniu swoich działań przygotowują ich następne, jeszcze doskonalsze i trudniejsze do zablokowania odmiany. Piraci rzucają wyzwanie państwom, korporacjom, polityce i ekonomii – podejmują walkę o liberalizację technologii i obiegu informacji, znajdując się na terytorium wroga, czyli w obszarze hardware i fizycznych sieci, pod okiem nieustannego monitoringu. Nie mam możliwości wejść tu głębiej w ten fenomen, ale stwierdzę, że regulowanie informacyjnego krajobrazu i zarządzanie krążącymi danymi wymyka się coraz bardziej spod kontroli przemysłu kulturalnego i jego tradycyjnych sprzymierzeńców. Brak skutecznej kontroli nad ekosystemem danych, ich przecieki, niejawne transfery to pięta achillesowa cyfrowego wcielenia technopolu [231]. Jej istnienie oznacza, że piraci – niezależnie od aksjologicznej i prawnej oceny tego procederu – tworząc alternatywny ekosystem danych i sposoby ich wymiany współtworzą trzon rozpoznanej przez współczesną ekonomię gospodarek liberalnych siły równoważącej (countervailing power) wpływy korporacji, państw i innych hierarchicznych regulatorów przestrzeni informacyjnej [232].

Na podstawie temperatury toczącego się nieustannie sporu wokół piractwa i alternatywnych obiegów danych można sądzić, że gra idzie tutaj o bardzo wysoka stawkę. Dla sektora rozrywkowego, organów administracji i korporacji medialnych potencjalna w tym sporze przegrana oznacza zupełną zmianę reguł gry, rozstanie się z tak wydajnym i zapewniającym przez lata doskonałą kontrolę nad tym, kto, kiedy i jak informacyjnie odbiera (konsumuje) i do czego ma dostęp, społecznym modelem transmisji hierarchicznej i jednokierunkowej. Poddanie tego modelu oznacza przekazanie części zdobywanej przez lata władzy i kontroli nad medialnym krajobrazem w ręce nowych, niemieszczących się w obecnym układzie sił graczy, w dużej mierze dotąd jeszcze niezidentyfikowanych, którzy dotychczasowy system rozregulują i/lub zupełnie rozbroją. W perspektywie przeciętnych użytkowników, różnych ich grup i środowisk to równie ważna rozgrywka. Chodzi o podważenie kontrolnej i regulacyjnej władzy systemu medialnego nad zasobami kultury, podcięcie infrastrukturalnemu drzewu korzeni i stworzenie alternatywnych struktur transferowych/komunikacyjnych, niezależnych od obowiązujących tradycyjnie regulacji, przejęcie kontroli nad informacyjną rewolucją i ustalenie nowych reguł własności zasobów kultury oraz zdolności do korzystania z niej.

Zgodnie z techniczną specyfiką cybernetycznych mediów epizody tej rozgrywki dokonują się przede wszystkim na poziomie rozwiązań software’owych, do których amatorzy mają łatwiejszy dostęp niż do infrastruktury hardware i fizycznych sieci. To działania o obrębie danych i software są synonimem uwalnianej, otwierającej się na użytkowników kultury, jej emblematem. Komunikacyjny hardware wciąż pozostaje w przeważającej mierze pod kontrolą systemowego technopolu. W ramach tworzonej przez państwa i korporacje infrastruktury Internauci skutecznie zaszczepiają jednak także i w nim swoje niepokorne, bardziej sprytne od dozorujących narzędzia, aplikacje i praktyki użytkowe. Ich przykładami są rozwiązania typu p2p, protokoły oparte na sieciach wi-fi, komunikatory internetowe, pirackie serwisy oferujące darmowy dostęp do różnych zasobów kultury, wikileaks, itd.

O tym jak rozmijają się technokratyczne interpretacje alternatywnych obiegów danych z ich faktyczną semiotyką kulturową, przekonuje coraz więcej różnego typu analiz i badań. Ostatnio opublikowany u nas raport Obiegi kultury. Społeczna cyrkulacja treści dowodzi, że w praktyce kulturowej do granic rozpoznawalności rozmywają się istniejące opozycje i nowego znaczenia nabierają takie kategorie jak legalne/nielegalne; konsumpcja/tworzenie, ściąganie/udostępnianie, dostęp do kultury i aktywność kulturowa i komunikacyjna [233].

Alternatywne obiegi danych powstają nie tylko ze względu na sprzeciw wobec oficjalnych modeli dystrybucji i upowszechniania semantycznych zasobów kultury. Drugim powodem, dla którego ważne społecznie okazuje się budowanie transferowych alternatyw, jest narastająca niechęć wobec nasilającego się monitoringu aktywności komunikacyjnych obywateli, prowadzonego przez państwa i podmioty gospodarcze – wspomniałem wcześniej o niezwykłej bazie danych Facebook.com, która służy także do monitorowania obywateli i konsumentów. Każda aktywność związana z transferem danych lub ich indeksowaniem przekłada się na zasoby wiedzy, którą system telekomunikacyjny wyławia, archiwizuje i kondensuje. Powstające w ten sposób gigantyczne jej zasoby stają się kolejnymi bazami danych, nad którymi kontrola jest sprawą wagi najwyższej w sensie politycznym, ekonomicznym i w zakresie bezpieczeństwa.

Państwo, a szczególnie państwo narodowe, od zawsze stara się gromadzić i wykorzystywać wszelkie informacje o swoich obywatelach i świecie zewnętrznym w każdej możliwej formie. Jednak to właśnie z danymi sprawa jest najprostsza w realizacji: najmniej kosztowna, wiele danych gromadzi się samoistnie, są relatywnie łatwe w przetwarzaniu, itd. Zbieranie i magazynowanie danych okazuje się podstawą do prowadzenia nadzoru nowej generacji, który R. Clarke, badacz zajmujący się tą problematyką, określa mianem dataveillance (zbitka słów datasurveillance) [234]. Znany nam już Mark Poster mówi w tym kontekście wręcz o elektronicznym superpanoptykonie, tak definiując jego specyfikę [235]:

Najważniejsza z cech tego nowego typu nadzoru to zupełne unieważnienie różnic pomiędzy tym, co prywatne, a tym, co publiczne. Życie jednostek obserwowane przez pryzmat tworzonych/udostępnianych przez nie i/lub gromadzonych na ich temat danych staje się zupełnie przezroczyste, zlewa się w jednolity profil, który na swoje potrzeby tworzą różnego typu korporacje i organy administracyjne. Najdrobniejsze nawet nasze aktywności podejmowane w cyfrowym środowisku pozostawiają po sobie cyfrowe ślady i mogą stać się fragmentem zbiorów różnych baz danych. W razie potrzeby, to jest przez sformułowania i zadanie odpowiedniego zapytania, dane te zostaną z magazynów wywołane i staną się świadectwami tego, kim jesteśmy i z jakich aktywności składa się nasze życie, pozostawionymi przez nas świadomie lub nie w cyberświecie. Taki stan rzeczy wynika wprost z naturalnej własności danych i środowiska cyfrowego w ogóle: dla cyfrowego kodu i maszyn, które go kalkulują, nie ma znaczenia, jakie elementy rzeczywistości przetwarzają. W obliczu zer i jedynek wszystko okazuje się równe, identyczne formalnie. Alaxander Galloway w książce pod znamiennym tytułem Protocol: How Control Exists after Decentralization sugeruje wręcz, że cyfrowość i jej media zostały przez wojskowych uwolnione i stały się publicznie dostępne jedynie dlatego, że, wbrew interpretacjom cyberoptymistów, są kryjącymi się pod płaszczykiem demokratyzacji doskonałymi narzędziami monitorowania i kontroli swoich użytkowników. Fundamentem, na którym ustanowiono Internet nie jest wolność. Jest nim kontrola – alarmuje [236].

Jak wiemy od Anthony’ego Giddensa, informacja i obyczaje związane jej społeczną cyrkulacją to, ogólnie rzecz ujmując, immanentna podstawa funkcjonowania sfery politycznej. Dostęp do niej i możliwość zawiadywania nią umożliwia przede wszystkim podtrzymywanie skomplikowanej struktury społecznej i skuteczną realizację władzy politycznej. Pozwala także na wyłapywanie zachowań odstających od norm, a także monitoring życia społecznego, np. w kontekście zagrożeń zewnętrznych. Wreszcie cyrkulacja informacji to podstawowy budulec sfery publicznej i obecnej w niej kultury komunikacji publicznej. W domenie elektronicznej mamy do czynienia z bazodanowymi automatami kontrolnymi, których skuteczność jest tym większa, im mniej zdajemy sobie z tego sprawę i im mniej świadomie klikamy, generując i udostępniając dane o sobie [237].

Chociaż nieustannie wzrasta zakres sfer objętych różnego typu cyfrowym monitoringiem oraz sprawność w pozyskiwaniu i analizie danych o społeczeństwie, konsumentach, kulturach, itd., to jednocześnie można zaobserwować swoistą nonszalancję społeczeństw wobec tego zagadnienia. Sądzę, że można obecnie zaobserwować paradoks związany z wiedzą o wspomnianych grupach i ich zachowaniem: z wielką chęcią i w wielu wypadkach bez jakiejkolwiek krytycznej refleksji obnażające nas dane sami generujemy i udostępniamy w cyfrowym świecie, cyfrowo obnażamy nasze życie. Być może takie są społeczne koszty odzyskiwania/przejmowania władzy nad technologicznym uniwersum: tak dobrze czujemy się władając cyfrowymi maszynami, że nie zauważamy, lub lekceważymy, czerpiących z naszej euforii wiedzy mechanizmów i mechaników. Społeczne odrzucenie modelu komunikacji jednostronnej realizowanej za pośrednictwem mass mediów analogowych ma swoją wysoką cenę: dowolność podejmowanych działań komunikacyjnych kosztuje nas wyzbywanie się komunikacyjnej prywatności.

Pisałem o wizualizacjach danych jako interfejsowej estetyce coraz bardziej powszechnej na styku cyfrowości i kultury. Za pomocą wizualizowania możliwe jest kulturowe wykorzystywanie danych jako zasobów informacyjnych i wpuszczanie ich w szeroki obieg kultury. Analizowałem także różne cyrkulacje i obiegi danych, które da się zauważyć w cyfrowym ekosystemie. Chciałbym teraz zwrócić uwagę na zjawisko łączące dwa poprzednie. Chodzi o kulturowe i społeczne informowanie danych. To zbiór praktyk, których wspólnym zadaniem jest tworzenie zasobów wiedzy i kultury w oparciu o surowe dane, translacja surowych danych na pełnowartościowe semiotycznie informacje. Nie ma przy tym znaczenia ani pochodzenie danych, ani ich rodzaj – wszystkie dane na jakimś etapie kontaktu z nimi domagają się takich interpretacji. Tylko wtedy możliwe jest osiągnięcie nad nimi poznawczej władzy, kontrolowanie ich formy i efektywne wykorzystywanie, kiedy zostają oznaczone, posegregowane według semiotycznych kryteriów i przetłumaczone na dostępne w kulturze kody komunikacyjne (interfejsy).

Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.

Jednokierunkowe media analogowe (radio, telewizja) takich semiotwórczych możliwości nie udostępniały. Media cyfrowe wykonują cały cykl semiotyczny, czyli komunikują od znaku do odbiorcy i z powrotem ze wszystkimi tego procesu konsekwencjami i dla znaków, i dla odbiorców. Telewizja, to najważniejsze z mediów masowych współczesności, nie zdaje sobie sprawy z faktu, że jest oglądana na konkretnym odbiorniku telewizyjnym, a radio nie wiedziało i nie wie, kiedy kto i gdzie go słucha – w domenie cyfrowej takie sprzężenie jest regułą naturalną i zasadniczą dla charakteru tej mediacji. W tym sensie bazy danych można rozumieć jako poststrukturalną przestrzeń dyskursywną. Ich techniczna specyfika otwartości na zarządzanie i niekategoryzowanie jakości i parametrów tego zarządzania powołują do życia bazodanowych aktorów, którzy wirtualnie tworzą w nich realny kapitał symboliczny, konstruując w ten sposób cyfrową przestrzeń dyskursywną. Baza danych dodatkowo utrwala w czasie przebieg tego dyskursu, czyli oferuje nieustanne zapętlenie pomiędzy dokonującą się komunikacją a jej utrwaloną historią. W rezultacie w bazach danych ma miejsce nieustanna negocjacja relacji władzy, nadzoru i kontroli nieustanny dyskurs dotyczący kultury i życia społecznego w ogóle [238]. Ich indeksy są logicznie otwarte i podatne na strukturalne, a w konsekwencji na semiotyczne zmiany – bazy danych to format, który urzeczywistnia płynność znaczeń we współczesnej kulturze i inspiruje ich semantyczną ruchliwość. Można powiedzieć, że na skutek tak daleko posuniętej niestabilności i otwartości indeksów, które nadajemy danym, one same stają się elementem drugorzędnym. Chyba najbardziej dosadnym przykładem takiego społecznego indeksowania danych są krążące w cyberprzestrzeni memy obrazkowe, które stają się ikonami określonych, ale – co ciekawe – zmiennych w czasie, tekstów kultury. Takimi memem stało się zdjęcie sowy z szeroko otwartymi oczami, która symbolizuje zdziwienie i dystans poznawczy wyrażony za pomocą podpisu O’RLY (od ang. zwrotu: oh, really?, co na polski można przetłumaczyć jako: czyżby?). Stają się memami także wycięte z filmów pojedyncze sceny wypełnione charakterystyczną mimiką aktorów czy wypowiadanymi przez nich zdaniami [239].

Oprócz społecznego indeksowania danych wymieniłem także informowanie danych jako jedną z praktyk wchodzenia w świat danych i rozumienia go. Tę strategię poznawczą doskonale skomentowano w jednej z pierwszych prac sztuki nowych mediów refleksyjnie podchodzących do problematyki przeładowania danymi. Chodzi o Legible City autorstwa Jeffreya Shawa z przełomu lat 80. i 90. ubiegłego wieku [240]. Wewnątrz instalacji na dużym ekranie znajduje się wirtualna makieta przestrzeni, w której zamiast budynków znajdują się słowa. Wchodzący do pracy interaktor pedałuje na zsynchronizowanym z miastem-bazą danych rowerze przemieszczając się w danowej przestrzeni. Praca doskonale pokazuje bazodanowy ekosystem, który wydaje się nie mieć granic i w którym każdorazowe przyspieszenie, skręt czy zatrzymanie wprowadza jadącego w nowe obszary, ale jednocześnie oddala od innych. Tak wygląda wciąż jeszcze, mimo iż od publicznego debiutu pracy Shawa minęło już ponad 30 lat, sytuacja człowieka postawionego w obliczu danych. Istnieją jednak przesłanki, które świadczą o tym, że przygodną/chaotyczną podróż można wzbogacić o skuteczne narzędzia i strategie przeglądania danych, efektywnego pływania w bazodanowym oceanie.

Potrzeby związane z rozumieniem danych rosną w tempie, w jakim przybywa samych danych – przypomnę tu kategorię Big Data – i w jakim osiągalne dzięki nowym narzędziom stają się kolejne bazodanowe logiki poznawcze. Jak poradzić sobie poznawczo z tak wielką ilością danych? W języku angielskim pojawiło się sformułowanie, które daje poglądową odpowiedź na to pytanie. Brzmi ono data mining i oznacza wkopywanie się w ocean danych w celu jego eksploracji, roboty odkrywkowe w poszukiwaniu w nim wiedzy na poziomie metadanych, wydobywanie z danych informacji [241]. To strategia, z której obecnie korzystają głównie profesjonalni analitycy operujący na olbrzymich bazach danych, takich jak zbiory korporacyjne, czy administracyjne. Poszukują w nich ukrytych przed jednostkową analizą wzorców i prawidłowości. Jednak wiele już dzisiaj wskazuje na to, że możliwości takich osób staną się niebawem osiągalne także w powszechnym użyciu. Przybywa publicznych i prywatnych podmiotów, które decydują się na upublicznianie swoich archiwów w postaci otwartych baz danych dostępnych dla zainteresowanych. W roku 2009 Barack Obama inaugurował pierwszy publiczny serwis z dostępem do olbrzymiej ilości danych, które przez lata zgromadziły agendy amerykańskiej administracji. Serwis został uruchomiony pod adresem data.gov i można w nim znaleźć zasoby dotyczące przeciętnej i zmieniającej się w zależności od pory roku głębokości amerykańskich rzek, surowe dane i statystyki na temat przestępczości w poszczególnych stanach i miastach z podziałem na rodzaj użytej broni i kolor skóry przestępców, itd. Niedługo potem w ślad za tworzącym nowy publiczny obyczaj rządem USA poszły inne kraje: Australia, Nowa Zelandia czy Wielka Brytania, gdzie misję stworzenia nowego portal powierzono wynalazcy www Sir Timowi Berners-Lee. Obecność tych w przestrzeni publicznej należy potraktować jako zaproszenie do ich interpretacji do wkopywania się w nie i poszukiwania wiedzy w nich zakodowanej. Bazy danych można w tym kontekście uznać za posiadający szczeliny (to praca specjalistów) sezam, który czeka na swoje powszechne otwarcie i odczytanie nagromadzonych w nim skarbów.

Zanim do danowego „Eldorado” przenikną tabuny różnego pokroju poszukiwaczy, widać już, że przeszukiwanie danych to działanie intratne, i, obok ich wizualizowania, stanowi fundament nowego ekosystemu informacyjnego. Niech świadczą o tym narodziny data journalism, czyli specjalistycznego rzemiosła dziennikarskiego, które polega na wynajdywaniu, generowaniu i/lub zestawianiu określonych danych i zadawaniu im algorytmicznych zapytań, by z wyników takich kwerend poczynić następnie gotowe fakty medialne. Najczęściej chodzi o pozyskanie wiedzy, której nie sposób udowodnić w żaden klasyczny dziennikarski sposób [242] i która domaga się nietekstualnych reprezentacji, co znaczy że najbardziej popularne są wśród nich wspomniane już wcześniej interpretacje wizualne [243]. Najprężniej działające redakcje medialne już od jakiegoś czasu otwierają swoje danowe archiwa (już o tym pisałem) ale i powołują do życia wyspecjalizowane działy, którym powierzają prowadzenie działań w zakresie analizy danych pod kątem publikacji medialnych – tak działa np. brytyjski Guardian.

III.4. Od imperium znaków do taktylnego imperium interfejsów

Jak inaczej jeszcze zmienia się rzeczywistość komunikacyjna uwikłana w bazy danych i konstruowaną przez nie wyobraźnię kulturową? Odwoływałem się już wcześniej do wizualnego języka kultury, który dla obecnego stadium projektu cyfrowego okazał się najważniejszym interfejsem. Takie zestawienie, przypomnę, wynika z faktu, iż cyfrowe technologie i tworzone przez nie stany kulturowe nie stałyby się powszechne, gdyby nie ewolucja interfejsów cyfrowych mediów ku formom wizualnym. Dopiero kiedy cyfrowa rzeczywistość została zwizualizowana, czyli opowiedziana za pomocą wizualnych metafor i ikon, stała się zrozumiała i dostępna dla przeciętnych „zjadaczy” maszyn i sieci. Zobaczyć cyfrowość, znaczy tyle, co wydobyć ją na szerokie wody kultury popularnej, by ją z tego poziomu następnie oswoić i udomowić także według jej własnych kodów semantycznych, estetycznych i pragmatycznych.

Inaczej mówiąc: technologie cyfrowe dopiero wtedy stały się siłą sprawczą w kulturze i życiu społecznym, kiedy ich wewnętrzny język (kod zer i jedynek) został przetłumaczony na dominujący w kulturze mediów masowych język obrazów, kiedy można było zwizualizować i zobaczyć skomplikowane operacje na kodzie, podejrzeć pracujące algorytmy i nawiązywane połączenia sieciowe, by następnie za sprawą tych obrazów sprawować nad nimi we względnie prosty sposób, czyli przez odwołania do powszechnie rozpoznawalnych znaków, mitów, procedur i kodów komunikacyjnych, kontrolę. Dzięki obrazom – choć z całym analogowym dobrodziejstwem inwentarza, schedą po masowej kulturze wizualnej mediów analogowych – zrozumieliśmy komputeryzację i nauczyliśmy się ją wykorzystywać na potrzeby naszej codzienności. Wraz z nimi komputery zostały zaszczepione w cywilnym życiu, stając się powszechnie stosowanymi i adaptowanymi maszynami medialnymi, których możliwości obejmują już nie tylko specjalistyczne zadania militarne, naukowe czy infrastrukturalne.

Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastamiikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.

Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.

Sądzę, że gramatykalizacja jak i immersyjność wizualności spotykają się i doskonale uzupełniają w formacie jej cyfrowych form. Dzieje się tak na styku porządku wizualności i logiki baz danych, gdzie zasadniczym elementem spajającym zarówno kulturowe dogmaty wizualności, jak i jej technologiczne normy w cyfrowym otoczeniu wydaje się piksel. Jest to zarazem podstawowy element logiczny cyfrowych obrazów (software’owy, to podstawowy bit cyfrowej wizualności), jak i materiał, z którego „uszyta” jest elektroniczna powłoka wizualności, która te obrazy wyświetla (hardware, czyli matryce, wyświetlacze, monitory). W codziennym praktykowaniu wizualności i cyfrowości piksele uobecniają się głównie ze względu na swoją niedoskonałą formę technologiczną – na obecnym etapie rozwoju technologicznego są duże, mają wciąż jakości dalece odstające od naszych wzrokowych uwarunkowań percepcyjnych. Wystarczy zbliżyć oko na niewielką wobec monitora odegłość, aby je zobaczyć, lub powiększyć cyfrowe zdjęcie do rozmiaru, w którym zacznie się objawiać jego skład z pojedynczych kwadratów. W przyszłości, wraz z dynamicznym wzrostem tych jakości technologicznych – to jest nieustannym zmieszaniem wielkości pojedynczych software’owych i hardware’owych pikseli, równie szybkim wzrostem rozdzielczości cyfrowych obrazów, czyli liczbą pikseli składających się na poszczególne fragmenty digitalnych obrazów, oraz powiększaniem się liczby i wielkości ekranów – piksel jako taki pozostanie jedynie mało ważnym, bo już niedostrzegalnym bez specjalnego zapotrzebowania, fragmentem technologicznej gramatyki wizualności cyfrowej. Jednak na razie komputeryzacja zbliża się dopiero do momentów granicznych (jak wyświetlających w standardzie 300 pikseli na cal kwadratowy ekranów laptopów, komórek i tabletów), które oznaczają kulturowe znikanie pikseli. Ten etap przejściowy obfituje w artystyczne i popkulturowe praktyki, teksty i mitologie związane z pikselami – ich estetykę. Jednocześnie piksel w tej estetyce jest elementem szumu, jaki towarzyszy kodowi wizualnemu w cyfrowych okolicznościach.

Wizualna atomizacja jest także i dla współczesnych artystów tematem ważnym i otwartym na nowe interpretacje. W przestrzeni kultury popularnej piksele dorobiły się już swojej własnej estetyki, za którą odpowiedzialne są przede wszystkim dostępność i możliwości takich popularnych narzędzi software’owych do obróbki grafiki, jak Corel, Photoshop czy cały szereg pochodnych, mniej lub bardziej zaawansowanych aplikacji, dzięki którym każdy z nas może za sprawą zakodowanych w nich algorytmów przekształcać dowolne fragmenty pikselowej wizualności według uznania i możliwości algorytmów. Piksele są cyfrowym wcieleniem wizualnej gramatyki, której reguły sięgają początków kultury w ogóle. Wizualność jest od czasów antycznych językiem niewolnym od złudzeń optycznych. Nawet najbardziej mistyczne i metafizyczne obrazy kultury zostały stworzone według kanonów estetycznych i rzemieślniczych, u których podstaw leżą złudzenia nie dające się poprawnie zinterpretować/odkodować przez nasz wzrok. Jednym z takich wizualnych skrótów jest atomizacja obrazu, czyli tworzenie spójnej wizualnie faktury, która składa się ze zbioru pojedynczych punktów/atomów/węzłów/pikseli skomponowanych w ramach określonego układu funkcjonalnego (obrazu). Takim atomistycznym komunikatem wizualnym są choćby mozaiki czy tkaniny, z pewnego oddalenia wywołujące złudzenie płynnej wizualnie kompozycji. Zbliżając się do nich dostrzegamy coraz lepiej pojedyncze punkty tworzące fakturę wizualną. Z bardzo bliska nie widać już wynikającej z nich kompozycji, a jedynie pojedyncze punkty.

Obecność pikseli w cyfrowych obrazach to jednak nie tylko niedoskonałość technologii wizualnych na obecnym etapie ich rozwoju czy element składający się na estetykę cyfrowych obrazów. To także kolejne wcielenie starej, sięgającej początków kultury wyobraźni wizualnej, która obraz pojmuje jako zbiór punktów/atomów. Do tej atomistycznej wyobraźni nie brakuje odniesień w analogowych technologiach mediów. Dla przykładu: w druku spotykamy technologię reprodukcji kolorów i kształtów nazywaną rastrem. Polega ona na tworzeniu kompozycji wizualnej przy wykorzystaniu pojedynczych, drobnych plamek farby nanoszonych precyzyjnie na określone miejsce na zadrukowywanej stronie. Natryskując na siebie cztery podstawowe kolory jeden po drugim (CMYK) można uzyskać w ten sposób plamki o dowolnej kolorystyce i ułożyć z nich dowolny kolorowy układ wizualny. Taśma światłoczuła – podstawa analogowych technologii fotografii i kina – także działa w oparciu o punkty. Są nimi drobinki światłoczułych związków srebra nanoszonych na celuloidową taśmę perforowaną. Wpadające przez obiektyw światło rozkłada się na poszczególnych grudkach, wyzwalając w nich chemiczne reakcje o odpowiednim natężeniu. Podobnie pracuje ekran telewizora: on także składa się z rzędów drobnych, świecących punktów, które wyświetlają kompozycje świetlne i kolorystyczne [246].

Wobec tych historycznych przykładów analogowych remediacji, które transformowały i adaptowały gramatykę i formy wcześniejszych form wizualizacji do coraz bardziej zaawansowanych rozwiązań technologicznych, naturalnym odruchem w historii cyfrowości stało się atomistyczne myślenie o obrazach cyfrowych i wyświetlających je ekranach. Niegdysiejsze punkty, plamki, węzły zostały w formacie pikseli przejęte i adaptowane przez konstruktorów i architektów cyfrowego świata. Ich obecność wewnątrz kulturowych kodów i form opisujących architekturę cyfrowości to z jednej strony świadectwo medialnej ewolucji, a jednocześnie z drugiej forma, która w domenie cyfrowej zyskała nową jakość i sens [247].

Bazodanowe oblicza pikseli odnaleźć można w sztuce nowych mediów. Pikselowe bazy danych/bazodanowe kompozycje pikseli to estetyka, która łączy długą kulturową tradycję atomistycznego postrzegania i konstruowania świata w takich rzemiosłach jak tkactwo czy mozaiki. Tym samym jest ona w kontekście baz danych jednym z najbardziej oczywistych inspiracji nowych form wizualnych opartych na danych – przypomnę tu raz jeszcze atomistyczną metaforę ziarenek piasku użytą przez Victorię Vesnę.

Przykładem sztuki wykorzystującej potencjał zarządzania skończoną ilością danych w celu osiągania różnych rezultatów jest ruchoma instalacja grupy ART+COM zrealizowana na zlecenie Muzeum BMW w Monachium. W jednej z sal wystawienniczych Muzeum na cienkich stalowych linkach zawieszonych zostało 714 identycznych metalowych kul-pikseli, których położenie regulują silniczki i sterowniki sprzężone z odpowiednim oprogramowanie. Wprawiane w ruch kulki układają się w układy i kompozycje, które naśladują zaprogramowane wcześniej kształty różnych modeli aut i elementów estetycznych, takich jak fale czy kształty geometryczne [248].

Inną artystyczną eksploracją baz danych jest praca Wandern im Wissen (wspinaczka wiedzy), która została zrealizowana w bibliotece uniwersyteckiej w Bremie z okazji 350-lecia jej istnienia. Artyści zaprojektowali 15-metrową rzeźbę interaktywną, w której skomponowana z papieru powierzchnia nośna (odniesienie do cywilizacji druku) jest ekranem dla nieustannie poruszających się pakietów i danych wyświetlanych przez cyfrowe projektory jako słowa, liczby, kształty i różnego typu animacje (kultura cyfrowa) [249].

Niemiecki artysta Julius Popp w swojej pracy zatytułowanej BIT.CODE przekonuje, że świat znaków i znaczeń to nieustanna gra, której scenariusze wynikają z nieskończonych możliwości segregowania skończonej ilości danych (w tym przypadku dane są jednocześnie pojedynczymi bitami/pikselami), którymi posłużył się artysta tworząc składający się z ruchomych modułów ekran zdolny do wyświetlenia dowolnych kombinacji danych, a zatem do projektowania nieskończonej ilości symboli, znaków i stanów pośrednich pre- i postznakowych). Informacje wyłaniają się tu na zasadzie chwilowego utrwalenia chaotycznego status quo oceanu danych [250].

Cykl pikselowych luster Daniela Rozina, który obejmuje takie instalacje, jak Weave Mirror, Rust Mirror, Mirrors Mirror, Wodden Mirror eksploruje nie tylko pikselową naturę obrazów, ale i szuka dla pikseli wychodzących poza reprezentację funkcji. Rozin wykonuje swoje lustra z licznych, drobnych elementów odbijających światło lub świecących samodzielnie. Za każdym razem wybiera dla swoich luster inny „algorytm”, tak jakby używał w stosunku do nich jednej z wielu wizualnych estetyk dostępnych w Photoshopie [251].

Natomiast Soxels – The auditive media facade to praca Simon Schiessla, Felixa Hardmooda BeckaAndrei Bassi poszerzająca wizualną jedynie naturę atomów-pikseli o wymiar audialny [252]. Punkty są w niej jednocześnie komunikatorami obrazów (małe, okrągłe wyświetlacze LCD) i dźwięków (głośniki umiejscowione pod wyświetlaczami). W ten sposób atomistyczne doznanie wizualne staje się także doznaniem audialnym – artyści projektują pikselową logikę na wszystkie wciągnięte na platformę cyfrową gramatyki i interfejsy medialne, dowodząc w ten sposób, że cyfrowa przestrzeń jest olbrzymim zasobem punktów (danych), które w różnych kombinacjach (kompozycjach) i na różne sposoby (algorytmy i interfejsy) można nawigować (zarządzać).

Weźmy pod uwagę jeszcze jeden z przykładów pikselowego , czyli bazodanowego myślenia o sztuce. Tureccy designerzy Mahir M. Yavuz i Ebru Kurbak osadzili bazodanową estetykę w pikselowej estetyce tureckiej (śródziemnomorskiej) tradycji tkackiej. Zaprojektowali interfejs, który można by nazwać drukarką ubrań. Litery i inne wizualne kształty zakodowane cyfrowo urządzenie rozumie jako instrukcję wykonawczą dla połączonego z nim zautomatyzowanego warsztatu tkackiego. Sprzężenie infosfery z tkaniną oferuje możliwość potraktowania jej jak jednorazowego ekranu, który może „wyświetlić” dowolny pikselowy obraz pod warunkiem zachowania monochromatyczności (najwyżej kilka kolorów przędzy do jednorazowego użycia) i określonej rozdzielczości (liczonej według wielkości pojedynczego splotu i wielkości powierzchni do „zadrukowania”) [253]. Wizualne translacje danych, jak widać, ale i dotykowo czuć, oferują doznania nie tylko wzrokowe. Pikselowym ubraniem możemy się okryć i ogrzać. Coraz częściej wizualizacje będą stanowić takie wirtualne i realne zarazem interfejsy kultury, będziemy za ich pomocą wizualnie, ale i dotykowo zarazem poruszać danymi, czyli symbolicznie i fizykalnie sterować kulturą. W cyfrowym świecie obrazy nie tylko ideowo – jak to miało miejsce za sprawą działań artystycznych w XX wieku – ale i technologicznie odwracają się od porządku reprezentacji i symulacji. Stają się za to interfejsami.

Co dla kulturowej przestrzeni komunikacji i mediów wynika z przedstawionej symbiozy obrazów i danych oraz postępującej cyfryzacji/gramatykalizacji wizualności? Na to pytanie chciałbym odpowiedzieć odnosząc się do dwóch przykładów, które w praktyce medialnej spotykają się ze sobą: przywołanego już społecznego indeksowania danych oraz wspomnianego przed chwilą przekształcania się obrazów w interfejsy. Pierwsze z nich, jak pamiętamy, związane jest przede wszystkim ze społeczną ekonomią informacji i jest etapem emancypacji użytkowników wobec danych i zarządzających nimi technologii medialnych. Drugie zjawisko ma charakter bardziej antropologiczny i wskazuje na zmieniające się reguły mediacji, w której obraz przechodzi z funkcji reprezentacji do bycia interfejsem i ku fazom kolejnym. Synergię obu chciałbym przedstawić za pomocą studium przypadku, którym będzie sytuacja mapy w domenie cyfrowej oraz szeregu praktyk kulturowych związanych z jej społeczną kartografią – indeksowaniem oraz atomistyczną, pikselową interfeizacją. W tym celu przyjrzę się najpierw medium mapy, a następnie jej cyfrowym losom pod wpływem baz danych.

Figura i forma mapy ma dla kultury, nie tylko tej medialnej, znaczenie zasadnicze i referencyjne: uznać ją można za jedno z pierwszych mediów, pre-interfejs kulturowej wiedzy o świecie, pierwszą z wizualnych form matematyki i matematycznego pojmowania świata. W języku greckim geometria znaczy geo – ziemia, metria – mierzenie. Mapa jest w związku z tym pierwotną matrycą kultury medialnej, pierwszą reprezentacją i zarazem pierwszą symboliczną metaforą świata, będąc przy tym równolegle utrwaloną w postaci bardzo konkretnego medialnego interfejsu projekcją kultury: jej wartości, sposobów postrzegania świata i pojmowania go, odbiciem norm społecznych i skondensowaną wiedzą o sobie samych i rzeczywistości dookoła nas.

W borgesowskim i baudrillardowskim (z perspektywy dyskursu teorii mediów trudno dziś osądzić, któremu z nich należy się laur pierwszeństwa) odwołaniu do mapy i kartografii współczesne teorie mediów usytuowały punkt orientacyjny dla kulturowej logiki wizualności i reprezentacji [254]. Dwaj wielcy konceptualiści wizualności przypominają, iż mapa jest pierwszą wizualną reprezentacją rzeczywistości, pierwszym „wirtualnym” kodeksem pozwalającym postrzegać (rozumieć) abstrakcyjnie przestrzeń i orientować się w niej. Reprezentacyjną i komunikacyjną regułę mapy wraz z towarzyszącym jej gestem mapowania i modelowania przestrzeni (= świata rozpoznanego i poddanego refleksyjnej obróbce) postrzegają jako przedtechnologiczną konstytucję medialności. Historyczne próby mapowania, powstające w ich rezultacie mapy – teksty i obrazy kultury oraz dyskurs kartografii jako metody reprezentacji przestrzeni i kultury – możemy zatem uznać za elementarne zadania genetycznego kodu współczesnych kondycji medialnych i kultury w nie uwikłanej. W przyjętej przez mnie postmedialnej perspektywie ich dotychczasowe znaczenie jest podwójne: 1) mapa jest zarazem matematycznym modelem/kodem rzeczywistości i jej semiotyczną reprezentacją; 2) mapa jest specyficznym, wizualnym pre-interfejsem kultury.

Kartograficzny instynkt, praktyki mapowania i figura mapy wpisały się także na dobre w fundamenty cyfrowego świata. Za ich pośrednictwem cyfrowe mediacje odwołują się do dziedzictwa wykraczającego daleko poza ontyczne regulacje technologii mediów analogowych i sięgają do początków kultury w ogóle. Mapa ustanowiła figuratywne podwaliny dla wyobraźni interfejsowej i interfejsowych form użytkowych (takich jak pulpit, przeglądarki, hipertekst), a orientacja w przestrzeni to praktyka, która leży u podstaw nawigacji po oceanie danych. Cyfrowym echem kulturowych mitologii mapy i kartografii są również metafory cyberprzestrzeni, oceanu informacji i nawigacji po jego wodach. Posiłkując się nimi objaśniamy sobie samym strukturę cyfrowego świata i lokujemy/lokalizujemy się w nim, tak jak to instynktownie czynimy w realnym świecie wokół nas. Terytorium za sprawą mapy i kartografii, a przestrzeń dzięki euklidesowej geometrii zyskały kulturowy porządek i strukturę. Zasilana elektrycznie domena cyfrowa potrzebuje analogicznych (ale nie analogowych) działań. Dla mojej narracji najważniejszy jest w tym kontekście fakt, że mapę uznać można za pierwszą medialną bazę danych o świecie, jego pierwszą infoestetykę.

Bodaj najbardziej powszechną z palety cyberkartograficznych figur jest cyfrowe oblicze (według języka cyberkulturowego: warstwa) Mappa Mundi. Tkają ją na zlecenie Google Earth i innych, podobnych do tego lidera instytucji, firm i społeczności umieszczone w satelitach, samochodach i komputerach światłoczułe matryce nieustannie skanujące swoimi pikselami (jak wspomniałem, to elementarne „komórki” cyfrowych „oczu”, technologiczne odpowiedniki biologicznych widzących światło i kształty pręcików i czopków) to, co widzialne, oraz nieustannie kodujące algorytmy, które zgodnie z potrzebami współczesnych cyber-kartografów pozyskane w ten sposób dane przetwarzają i zamieniają w wizualny interfejs. Powstają w ten sposób doskonale odwzorowujące terytorium cyfrowe skany w skali niemal 1:1 (streetwiev), dosłownie odpowiadające fanaberiom borgesowskiego cesarza i baudrillardowskim obawom o agonii rzeczywistego wobec doskonałej mapy. W digitalnej mapie świata nakładają się na siebie matematyczne (abstrakcyjne) modele/wyobrażenia rzeczywistości (cyfrowość) z telematyczną doskonałością cyfrowego „spojrzenia” high-definition w nieustannie, wraz z technologicznym rozwojem matryc, rosnącej gęstości informacyjnej (rozdzielczości obrazu i stopnia kompresji składających się na niego danych). Tak odtworzona Mappa Mundi, tj. olbrzymia baza danych o charakterze matematycznym i wizualnym, choć w high definition, to wciąż jedynie udoskonalona pod względem jakości odwzorowania terytorium wersja już znanej kulturze formy; cyfrowy, medialny update mapy.

Cyfrowe zakodowanie formy i treści mapy otwiera ten kulturowy tekst/obraz na wszelkie możliwe bazodanowe praktyki, estetyki i polityki – czyni ją podatną na remiks, wariacje użytkowe i niezliczoną ilość nakładających się na siebie/przenikających się narracji semiotycznych i interfejsów. Przez to wprowadza ją na obszar po „śmierci autora”, choć powinienem napisać w tym przypadku o śmierci kartografa, w którym miejsce i rola dla wielkich wizjonerów i kartografów są ograniczone, poddane różnorodnej konkurencji i weryfikacji. Przywołajmy w tym miejscu średniowiecznego hiszpańskiego mnicha Beatusa z Lièbany, któremu zawdzięczamy wspaniale ilustrowaną Mappa Mundi uznawaną za jedną z najważniejszych, a przy okazji i najpiękniejszych, map świata. Ta mapa była nie tylko poruszającym estetycznie wizualnym modelem świata. Była jednocześnie wielką o nim opowieścią; kodem zawierającym w sobie teologiczną, polityczną, społeczną i artystyczną summę wiedzy, historii i kultury w ich ówczesnych autodefinicjach. W cyfrowych okolicznościach powinności i kompetencje niegdysiejszych zakonnych kartografów-narratorów przejmują w dużej mierze maszyny medialne. To wspomniane powyżej autoreferencyjne technologiczne systemy skanujące i modelujące (satelity, fotografie lotnicze, street wiev), które samoczynnie mapują powierzchnię globu i przetwarzają zebrane dane w gotowe modele soft­ware’owe (Google Earth) regulujące kształt olbrzymich zasobów pozyskanych tą drogą geodanych. Powstaje dzięki ich skanowaniu i przetwarzaniu mapa – baza danych, która jest dokonała kartograficznie i technologicznie. Brakuje jej jednak duszy kulturowej metafory, nie jest intrygująca estetycznie i nie opowiada świata, a jedynie go odtwarza.

Dla kulturowej równowagi technologicznemu skanowaniu i mapowaniu towarzyszą – to druga z sił napędzających cyberkartografię i jej hybrydowe mapy – przeróżne praktyki użytkowe, które z zasobów cyberprzestrzeni uczyniły tekst/obraz otwarty na dyskursy polityczne (obostrzenia związane z dokładnością map satelitarnych, kwestie zamazywania danych prywatnych na publicznie dostępnych mapach), artystyczne (sztuka geomediów i GPS [255]), komunikacyjne (media lokacyjne), projekty rynkowe i gospodarcze, a ostatnio także rizomatyczny i interaktywny, zarządzany społecznościowo. Uczyniły one z map żywą, płynną „przestrzeń” publiczną. Cyfrowe zasoby map, ich interfejsy (smartfony, laptopy, nawigacje) i software (Google Earth, Foursquare, Layar, Facebook), są w ten sposób projektem otwartym i wielowariantowym, wymykającym się pojedynczym narracjom i estetykom/topografiom. Taki charakter ma na przykład projekt tworzony na zasadzie wiki – www.openstreetmap.org, którego twórcy przekonują, że jest on:

mapą całego świata, która może być użytkowana i poprawiana/uzupełniana przez każdego. Dzięki wykorzystaniu zjawiska otwartej społeczności tysiące ludzi z całego świata zbierają i katalogują geodane w centralnej bazie danych [256]

a cyberprzestrzeń czynią cyfrową, mającą charakter metanawigacji pomiędzy mediami, kulturami i przestrzeniami e-Mappa Mundi HD – przy czym chodzi tu zarówno o obraz terytorium realnego zakodowanego cyfrowo, jak i przedstawiane w formie map wymiary ekosystemu elektronicznego, cyberprzestrzeni. Nie jest to już jedynie mapa opowiadająca realne, dające się ująć wedle zasad klasycznej geometrii, terytorium. Wraz z hybrydowością samej mapy, która opisuje jednocześnie przestrzeń realną i cyberprzestrzeń, także i rzeczywistość w kontakcie z nią staje się coraz bardziej hybrydowa. W teoriach mediów stan, kiedy na realność nakłada się kolejne warstwy cyberrealności, określa się mianem rzeczywistości poszerzonej (augmented reality) [257].

Właśnie takie społeczne konstruowanie poszerzonej mapy (augmented map), składającej się z wielu nakładających się na siebie topografii, modeli i estetyk kartograficznych warstw, dowodzi kulturowej ewolucji figury mapy rozumianej tradycyjnie jako skończona opowieść w byt, który za sprawą digitalizacji i usieciowienia staje się płynną i przybierającą niezliczoną ilość potencjalnych kształtów/wizualizacji/interfejsów bazą danych [258]. Na współczesne pisanie/komponowanie jej jako tekstu/obrazu kultury składa się geo-tagowanie, czyli nadawanie nietopograficznych znaczeń geograficznym i kartograficznym lokalizacjom (danym), i nakładane na nie (warstwa na warstwę) rozproszone tagowanie społecznościowe, czyli zbiorowe współtworzenie znaczeń przypisywanych geo-tagom i takie nimi zarządzanie. W obu działaniach biorą udział nieprzebrane zastępy modelarzy i narratorów przestrzeni za pomocą niezliczonej ilości medialnych maszyn wyposażonych w stosowne interfejsy i obsługujące je oprogramowanie. Powstaje z tego wymieszania hybryda, w której społeczna i kulturowa semiotyka przenika się z istniejącymi siatkami i skalami topograficznymi, strukturami nawigacyjnymi i programistycznymi. Na określone fragmenty mapy osadzać można wykonane przez siebie w odpowiadających im rzeczywistych miejscach zdjęcia, utrwaliać związane z tymi miejscami wspomnienia, rady dla innych i emocje. Posługując się ogólnodostępnymi narzędziami społeczności tworzą swoje własne warstwy globalnej i lokalnej jednocześnie (efekt skalowania) interpretacji tego, co przestrzenne i widzialne jednocześnie. W rezultacie powstają alternatywne plany miast, na których można zobaczyć np. najbardziej lubiane przez Internautów miejsca, te z dobrym jedzeniem czy frapującym układem urbanistycznym/architektonicznym; punkty, w których nie ma zainstalowanych kamer monitorujących czy szlaki wycieczek polecane przez turystów, którzy już wybrane miejsca odwiedzili tym, którzy dopiero takie odwiedziny planują.

W medialnej tradycji mapa i kartografia stanowiły pierwotny polityczny i hierarchiczny kod (kultura) związany z terytorium (natura). W dobie bazodanowych ewolucji stają się sferą dekonstrukcji systemu władzy, przemysłu kulturowego i przechodzą w stan postmedialny: stają się praktyką zbiorową, pospolicie zarządzaną bazą danych, które jej cyfrowi użytkownicy generują, tagują, waloryzują, wizualizują i wreszcie także hybrydycznie przenoszą pomiędzy światami offline i online.

W reakcji na cyfrowe losy mapy i społeczną wolę i praktykę kartografii we współczesnym badaniach mediów widać już wyraźnie narodziny nowej subdyscypliny, która obejmuje działania komunikacyjne i technologiczne związane z postrzeganiem i rozumieniem przestrzeni, modelowaniem jej reprezentacji, geolokalizacją, sztuką GPS i sieciowymi pomysłami na wykorzystanie tej sfery do działań społecznościowych. Użytkowanie tych elementów medialnego świata – coraz chętniej określa się je mianem geomediów czy mediów lokacyjnych – i teoretyczna refleksja nad nimi odwołują się do pierwotnego gestu kartograficznego, potrzeby mapy i nawigacji [259].

Tagowanie i współtworzone w ramach zbiorowej interakcji cyfrowe mapy stają się w ten sposób obrazami indeksowalnymi semiotycznie i technologicznie. Trudno w takich wizualno-danowych formach odseparować od siebie obrazy i surowe dane, które je poprzedzają. To medialne hybrydy, które dowodzą siły przenikania logiki i estetyki danych do już istniejących porządków i form medialnych. To także format, w którym widać hybrydyczną, uwarunkowaną kulturowo klasę działań technologicznych (matematycznych), czyli wizualne zarządzanie danymi. W takich wizualnie komponowanych bazach danych przenikają się ze sobą również narracyjne abstrakcje (to fenomen historyczny związany z generalną historią komunikacji podporządkowanej regułom pisma) z orientacją dyskursywną, charakterystyczną dla nowomedialnego, cyfrowo-sieciowego środowiska i komunikacji współczesnej w ogóle [260].

W rozwoju technologii wizualnych, który przebiegał od statycznej reprezentacji ku symulacji, a następnie do obrazów ruchomych (fotografia – kino), kolejnym etapem jest ich wirtualizacja, czyli rzeczone wcześniej stopienie się wizualności z regułą baz danych. Obrazy stają się w ten sposób tekstem kulturowym, który będąc zasobem w kulturze uczestnictwa pozostaje otwarty i może być nieustannie pisany na nowo. Zamienia się w wizualne pole, na którym możliwe są i dokonują się przeróżne operacje na wizualnych danych – pikselach, podobne do pola obrazu cyfrowego, który zostaje złapany do interfejsu Photoshopa i wychodzi zeń zre/dekonstruowany i przeregadowany.

Faza obrazów otwartych na indeksowanie to nie koniec ich bazodanowych rekonstrukcji. W praktyce wizualnego zarządzania pikselami można zauważyć jeszcze jedną tendencję. Dane te stają się funkcjonalnymi elementami technologii obrazów – piksele najpierw komunikują w obie strony, a następnie zamieniają się w przyciski interfejsów. Nurt ten zapoczątkowały indywidualne interfejsy mediów mobilnych (komórki, smartfony, tablet), których ekrany dawały się dotykać i stały się w ten sposób zastępcami wcześniejszych interfejsów, takich jak mysz, klawiatura, a z czasem i kamera.

Zanim jednak przejdziemy do analizy wizualnych danych jako interfejsów, odwołam się do historycznej debaty nad kierunkiem rozwoju technologii cyfrowych. We wczesnych latach osiemdziesiątych ubiegłego wieku, a więc w okresie kiedy technologie cyfrowe wychodziły z etapu interfejsów tekstowych i przekształcały się w maszyny wytwarzające własną wizualność i dzięki wizualnym manipulacjom sterowane, jedną z najgłośniej komentowanych koncepcji rozwoju cybertechnologii była wizja bezpośredniej kontroli danych sformułowana przez Bena Shneidermana [261]. Bezpośrednia manipulacja miała być odpowiedzią na dwa nurtujące wówczas przemysł komputerowy najważniejsze problemy: narastającą ilość danych wymagających magazynowania i skomplikowanych sposobów przetwarzania oraz poszukiwania sposobu na wygodę pracy z cyfrowymi maszynami. Rozwiązaniem obu problemów miały być tak zaprojektowane systemy informatyczne (interfejsy, software, hardware), które uczyniłyby dane bezpośrednio percypowalnymi na poziomie, na którym możliwa byłaby ich niemal dotykalna kontrola [262].

Na przestrzeni ostatnich 30 lat widać, że ten kierunek rozwoju okazał się dominujący w komputerowym świecie. Systematyczne zmniejszanie dystansu pomiędzy danymi a ich użytkownikami stało się drogowskazem dla zaangażowanych w jego rozwój projektantów i użytkowników. Swój udział w tym procesie miały zarówno popularne w latach 80. i 90. gry wideo, które wyposażone były w szereg kontrolerów, takich jak elektroniczne pistolety, kierownice, pedały, drążki, jak i rozwiązania programistów pracujących przy obróbce danych, którzy nie byli w stanie efektywnie pracować na olbrzymich ilościach zakodowanych cyfrowo i dostępnych jednocześnie informacji. Jednymi z takich oryginalnych narzędzi/interfejsów bezpośredniej manipulacji okazały się np. pierwowzór współczesnych arkuszy kalkulacyjnych VisioCalc z końca lat 70. czy wizualny menedżer plików Norton Commander z połowy lat. 80.

Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].

Pozostając w obszarze map uzupełnijmy tę ogólną diagnozę interfejsowego zwrotu o teorie i metafory Deleuze’a i Guattari’ego związane z przestrzenią oraz jej postrzeganiem i rozumieniem. Teoretyczne intuicje filozofów, wynikające z badań nad organicznymi i kulturowymi uwarunkowaniami percepcji i jej naturalnego sensorium, tworzą imaginacyjny grunt, w którym sytuuje się haptyczny potencjał cyfrowej wizualności i taktylna logika medialnych gestów użytkowników cyfrowych technologii. Efemeryczne propozycje językowe i pojęciowe francuskich filozofów w tym zakresie rysują generalny podział pomiędzy widzeniem hierarchicznym a widzeniem rizomatycznym. Francuzi odróżnili także pojęcia przestrzeni gładkiej (smooth space) i przestrzeni pręgowanej (striated space). Ta pierwsza kategoria odnosi się do środowiska naturalnego i krajobrazu, w którym operuje podmiot. Nie ma ona granic ani centrów. Jej percepcja implikuje płynne doznania i wyobrażenia wynikające z doświadczenia takich niestałych, amorficznych elementów, jak morze, wiatr, piach, czas, dystans. Jest ona bardziej haptyczna niż optyczna, tj. ma namacalną, dającą się sensorycznie odczuć fakturę. Można ją skojarzyć ze sferą nieświadomości. Wymaga nieustannego przystosowywania się, cechują ją krótkie stany, zbliżenia, wariacje, przeżycia, odczucia. U siebie są tu nomadowie, a źle czują się bez wytyczonych ścieżek pielgrzymi. Przestrzeń pręgowana jest natomiast homogeniczną w strukturze siatką powiązań, zależności i hierarchii, które wytyczają na niej kulturowo, przez działania polityczne, ekonomiczne, historyczne w ogóle, ustanowione linie demarkacyjne (blizny). Wpisane są w nią znaczenia i hierarchie, zależności i perspektywy [265].

A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].

Wizualne bazy danych, które zrastają się ze swoimi dotychczasowymi interfejsami mieszczą się w centrum krajobrazu postmedialnego. Unieważniają zarówno dotychczasową funkcję i język mediów, jak i regułę terytorium, osłabiają kulturowy dystans między nimi do niemal niepercypowanej, znajdującej się na granicy kultury percepcji różni. Za sprawą taktylnych map-interfejsów terytorium zrasta się ze swoją reprezentacją, przekraczając nawet borgesowsko-baudrillardowskie wyobrażenia o skutkach takiego stanu – terytorium staje się bowiem, śladem mapy, kartograficzną bazą danych, którą daje się prostymi, wizualnymi interfejsami manipulować. Bazodanowa mapa konstruuje terytorium i zarządza nim, a nie tylko je poprzedza [267]. Bruno Latour powiada, że terytorium staje się w ten sposób jedną z przestrzeni ryzyka, raczej mimetyczną a już nie tradycyjnie abstrakcyjną, nawigacyjną {[268]. Kartografia zaś w obliczu tych zmian zmienia się nie tylko na drodze od hierarchicznych narracji do społecznościowych praktyk, ale zbliża się także ku kartografii semantycznej, w której nie chodzi już o obrazowanie i reprezentowanie terytorium naturalnego i cywilizacyjnego, ale jego kulturowe modelowanie, opowiadające/konstruujące świat przez pryzmat różnych, dobieranych w tym celu, kryteriów symbolicznych. To dlatego najbardziej dziś intrygujące nie są już obrazy/mapy odbijające wiedzę o materialnym świecie, nawet te najbardziej doskonałe, ale mapy, które pokazują świat społeczny, kulturowy, symboliczny. Takimi są mapy społecznościowe, w których na topografię miasta nałożona jest wizualizacja najchętniej odwiedzanych w nim miejsc, najciekawszych tras spacerowych czy obszarów, gdzie spotkać można określone grupy ludzi [269].

Bliskość wobec mapy i jej postrzeganie jako żywego organizmu/terytorium powiązane są nie tylko ze społecznym i indywidualnym zaangażowaniem w jej indeksowanie, ale także ze zmieniającym się na skutek takich medialnych bytów kulturowym postrzeganiem przestrzeni, jej wyobraźnią. Rozumieć przestrzeń, podobnie jak i zmieniającą się czasie filozofię kartografii i formę mapy, to uznać ją za zmienny w czasie kod, jedne z wielu kulturowo-społecznych okularów, przez które przyglądamy się światu. Kod ten zmienia się historycznie i geograficznie w ramach takich faktorów, jak spojrzenie lokalne i globalne, zdystansowane i immersyjne, rytualne i strukturalne [270]. Tę kulturową dynamikę patrzenia potwierdza bliskość wobec współczesnych map, immersja w nie i splatanie się kartograficznych wytworów z terytorium. W ten sposób objawia się moc sprawcza sytuacji postmedialnej – jest ona w stanie podkopać fundamenty nawet takich kulturowych dogmatów, jak materialne, naturalne terytorium.

Pozostając wciąż przy interfejsach taktylnych i ich związkach z wizualnością, a wychodząc poza bezpośrednie skojarzenia z kartografią i mapami, przyjrzyjmy się teraz jednemu z najbardziej oczywistych w swej taktylno-wizualnej formie projektów, który ma szansę stać się jednym z drogowskazów w rozwoju cyfrowości w ogóle, wytyczając kierunek od rzeczywistości wirtualnej ku rzeczywistej wirtualności. Chodzi o projekt interfejsu Sixth Sense autorstwa amerykańskiego inżyniera i projektanta hinduskiego pochodzenia Pranava Mistry. To osobisty interfejs służący w zamyśle codziennej obsłudze popularnych czynności związanych z używaniem cybertechnologii. W prosty sposób sprawdzimy dzięki niemu pocztę, zrobimy zdjęcie, przeczytamy gazetę czy napiszemy fragment tekstu. Wszystkie te działania możliwe są tu jednak nie dzięki domyślnym ich interfejsom – klawiaturze, ekranowi, łączom internetowym – ale za sprawą obrazów wyświetlanych na dowolnej materii, na której możliwa jest projekcja światła. Monitorem a zarazem panelem dotykowym staje się dla tego interfejsu dowolna ściana, ręka, odzież. Z pomocą obrazu rzutowanego przez komputer połączony z niewielkim projektorem światła całą otaczającą rzeczywistość można potraktować jako element interfejsu. Świat staje się w tym projekcie jednym wielkim zbiorem przycisków, klawiaturą i myszą, którymi go obsługujemy [271].

Tak oto zarządzanie bazą danych, czy też bardziej ogólnie – obcowanie ze światem cyfrowym skonstruowanym w oparciu o jej gramatykę, stało się działaniem sprzężonym z naszą motoryką, przeniknęło do fizycznego świata przekraczając wszelkie granice dotąd te dwa „programy” rzeczywistości separujące. Taktylność/haptyczność obrazo-ekranów i zatomizowanych interfejsów to sytuacja, która różnie jest interpretowana na gruncie teorii interakcji i teorii interfejsów. Na początku pierwszej dekady XXI wieku kanadyjscy krytycy technokultury, A. Kroker i M. A. Weinsten, tak ostrzegali przed nadmiernym zbliżaniem się do siebie ciał i maszyn cyfrowych, które miałoby skończyć się symbolicznym wchłonięciem cielesności przez wirtualność [272]:

Technotopia to znikanie: ciała w relacyjnych bazach danych, systemu nerwowego zanużonego w logarytmach i skóry ewoluującej w kierunku wetware. Kiedy technologie ożywają i przybierają formę unikalnych gatunków, wchodzimy w okres końca (ludzkiej) historii i początek historii wirtualnej. To czas nieustannej cielesnej cyrkulacji pomiędzy synapsami a technologicznymi magazynami danych: sieciami.

Jak się okazało, tego typu kulturoznawcze obawy pozostały w cieniu cyberoptymistycznego dyskursu emancypacji cielesności w cyberświecie, głoszonej przez takie postaci, jak Donna Haraway z jej cyberfemistycznym Manifestem Cyborga [273], czy dyskursu nowej dyscypliny zajmującej się relacjami ciała i techniki, kogniwistyki. Jej przedstawicielom, wywodzącym się z dotychczasowej psychologii, neurobiologii, psychiatrii i studiów kulturowych, można jednak zarzucić zbytni uniwersalizm, uproszczenia i redukcjonizm: według ich krytyków ze szkoły teorii aktywności (Leontiev, Vygotsky) stworzyli oni jedynie mechanizm rozumienia interakcji człowiek-komputer jako sfery budowania takich rozwiązań interakcyjnych, które generowałyby mentalne odpowiedniki matematycznego software. Myślenie (a zatem percepcję, myślenie abstrakcyjne i działanie według niego) kognitywiści ci rozumieli jako uniwersalną strukturę, którą można odczytywać komputerowo, w taki sposób ją analizować i poddawać programowaniu – stworzone komputerowo matematyczne modele percepcji i myślenia następnie kodować według wszelkich znanych zasad matematycznych, stosując sprzężenie zwrotne pomiędzy człowiekiem i maszyną. W tym podejściu popularność zyskały takie hipotezy, jak ta o strukturalnym podobieństwie mózgu do komputera, o możliwości budowy w oparciu o rozpoznania w tym polu sztucznej, matematycznej inteligencji, itd. Myślenie tego typu dominowało wśród technokratycznych zwolenników rozwoju cybertechnologii.

Innym, skrajnie różniącym się od kognitywistyki, tropem metodologicznym, który warto przyłożyć do obszaru interakcji pomiędzy cyfrowymi maszynami i ich użytkownikami, jest etnometodologia. Doszukuje się ona sensów w ludzkich działaniach bez odwołań uniwersalnych, ani tych biologicznych, ani technologicznych. Na pierwszym miejscu stawia natomiast konkretny kontekst sytuacyjny i kulturowy, w którym wypadł działać człowiekowi i zbiorowościom. Etnometodologia rozumie działania jako kulturowo i środowiskowo uwarunkowaną improwizację wobec zmieniających się okoliczności. Nie ma zatem mowy o uniwersalnych prawdach dotyczących percepcji, myślenia, zachowania – są za to mikrodziałania i kulturowo-środowiskowe ich uwarunkowania, do których zaliczyć należy także technologie, a w szczególności technologie komunikacyjne. Takie unikające generalizacji rozumienie i dyskurs naukowy można w zasadzie określić mianem antyteorii. Oba skrajne stanowiska zdaje się godzić wielowątkowa teoria aktywności, która stara się przyglądać aktywnościom rozumianym jako holistyczne działania podmiotu angażującego w nie psychomotorykę i sferę emocjonalno-racjonalną, osadzonego w konkretnym kontekście kulturowym, technologicznym i społecznym [274].

Różnice w teoretycznych ujęciach dynamicznego rozwoju wizualności w kontakcie z bazami danych i interfejsami taktylnymi przywołałem tu po to, aby wskazać na nierówne prędkości, z jakimi rozwijają się technologie medialne i nasza wiedza nie tylko o nich, ale i o nas samych postawionych wobec cyfrowego świata. Jako cywilizacja nauczyliśmy się tworzyć maszyny sprawniejsze, ciekawsze i mądrzejsze od nas samych.

Poza kartografią i mapowaniem taktylność znaków i obrazów obecna jest także w takich praktykach kultury współczesnej, jak design. Nie wchodzę tu w spory dotyczące jego definiowania, pozostanę natomiast przy takim jego rozumieniu, które określiłbym jako wywodzącą się z typografii, wzornictwa przemysłowego, projektowania graficznego oraz kultury mediów audiowizualnych i sztuk plastycznych metodę konceptualizowania i estetyzowania przedmiotów codziennego użytku. Design ma swoje korzenie w typografii, kartografii, malarstwie i innych pokrewnych sztukach plastycznych. Z nich czerpie metody pracy i wyobraźnię wizualną wraz z jej historycznymi kodami artystycznymi i rzemieślniczymi. Estetyczną wrażliwość uzupełnia w nim wiedza projektantów z zakresu materiałoznawstwa, inżynierii, mechaniki, itd. Design to zatem praktyka, która polega na graficznym estetyzowaniu rzeczywistości technologicznej w celu wydobycia ich wspólnego znaczenia komunikacyjnego. W tym sensie jest to jedna z odnóg kultury wizualnej w ogóle. Jest jednak przedłużeniem krytycznym – zawsze subwersywnie patrzy na tradycyjne obrazy i media je transmitujące, poszukując krytycznych dla nich alternatyw [275].

Rozwijający się design dotarł już jakiś czas temu do granicy, do której za sprawą taktylnych obrazów dociera dziś kultura wizualna w ogóle. Granicą tą, jak pamiętamy, jest kryzys obrazów będących jedynie wizualnymi reprezentacjami. Designerzy idąc tropem zasugerowanym w sztuce przez Duchampa (ku materialności obiektów), a następnie przez emancypację znaków (kultura symulacji) uznali znaki za fizycznie istniejące obiekty, a fizycznie istniejące obiekty za znaki. Z tego przemieszania bierze się popularność designerskich rozwiązań architektonicznych i dekoracyjnych, które często nie spełniają żadnych funkcji poza estetyczną: znako-przedmiotów i przedmioto-znaków. Rozwój tej sfery, w dużej mierze niezależny od bieżącego rozwoju cyfrowej kultury komunikacyjnej, zmierza w kierunku obrazów urzeczywistnionych, oferujących całe spektrum fizycznych doznań, wśród których widzenie, obok dotyku, zapachu, aranżacji przestrzeni, jest tylko jednym z wielu wyzwalanych bodźców. W tym miejscu oba te nurty współczesnej kultury upodabniają się, podobnie jak to miało miejsce w relacjach mapy i terytorium, do siebie i splatają w praktyce codzienności: „designerskich” sprzętów codziennego użytku, „designerskiego” myślenia o modzie i architekturze [276].

Designerska taktylność znaków objawia się, na przykład, w ramach postmedialnych eksperymentów z typografią i znakami pisma, alfabetem. Popularne fonty stają się przedmiotami i przenikają ze stron książek i ekranów komputerów do przestrzeni publicznej, pełniąc wciąż jeszcze rolę tradycyjnych znaków, ale i nową rolę fizycznych obiektów artystycznych poddających się warunkom otoczenia, pogodzie i przechodniom. Matt Michaluk, angielski artysta i designer, z okazji 50 urodzin jednego z najbardziej popularnych krojów XX stulecia, Helvetica, przygotował typograficzny tort. Ciasto miało postać wyrazu Helvetica oczywiście zaprojektowanego fontem Helvetica. Następnie tort został pokrojony na kawałki i zjedzony [277]. Amerykański artysta, Thomas Allen, znany jest natomiast z realizacji projektów, w których wycinane z kolorowych czasopism figury konfrontuje z realnymi przedmiotami: gazetowa postać podtrzymuje rząd przechylających się książek [278]. Te współczesne gry ze znakami to echa idei i działań dla designu „klasycznych”, których pierwowzory odnaleźć można w pismach uznawanych za prekursorów tej dyscypliny autorów, takich jak choćby węgierski projektant, filmowiec, nauczyciel i teoretyk László Moholy-Nagy, który zauroczony fotografią marzył o jej połączeniu z typografią. Swoją wizję powstałego w ten sposób TYPOPHOTO tak sam opisywał:

Według niego taka hybryda miałaby być metodą języka wizualnego.

Skupiłem się na analizie kondycji postmedialnej rozumianej jako nowa sytuacja technologii komunikacyjnych oraz sprzężonych z nimi dyskursów i teorii humanistycznych, które je objaśniają. W takim sprzężeniu upatruję nie tylko klasycznej relacji na linii rzeczywistość i jej teorie, ale przede wszystkim mechanizmu kulturowego sterującego rozwojem cyfrowych i sieciowych ewolucji. Nauka, sztuka i technika zapętliły się w trójstronne kontinuum, które można nazwać „silnikiem” napędzającym zmiany w komunikacyjnym ekosystemie. Jego energetyczna skuteczność zależna jest od ilości „paliwa” dostarczanego przez każdy z podpiętych tu układów. W książce najwięcej miejsca poświęciłem analizom przepływów i emanacji na linii technika-dyskursy-kultura, ale budując argumentację i starając się dla niej odnaleźć właściwe narzędzia pojęciowe wielokrotnie dochodziłem do wniosku, że bez dwóch pozostałych układów zasilających moje analizy pozostają niepełne. Stąd i najważniejsze wnioski, które wynikają z problematycznie sytuacji postmedialnej w przyjęty przeze mnie sposób. Są one następujące:

– analiza kulturowych (symbolicznych) pokładów cyfrowego świata musi być nierozerwalnie powiązana z analizą jego technologicznych uwarunkowań – badanie kultury postmedialnego świata oznacza konieczność paralelnych studiów jego digitalnego języka, który konstytuuje nakładająca się na zjawisko elektryczności poetyka matematyki i matematyczności;

– elektryczność i matematyczność projektu cyfrowego uznaję za najmniej rozpoznane w dyskursach i praktykach kulturowych elementy digitalnego uniwersum – osobno i w relacjach między sobą stanowią one problemy badawcze domagające się pilnego podjęcia i wielowymiarowej analizy;

– studia nad zmieniającym się komunikacyjnym uniwersum są dopiero zapoczątkowaną perspektywą badawczą – już w zauważalny sposób generują, a będą generować w jeszcze większym zakresie, przetasowania dyscyplinarne i fluktuacje metodologiczne w humanistyce. Sądzę, że staną się także, z czasem, przeciwwagą dla klasycznego, mediocentrycznego dyskursu poświęconego mediom analogowym, masowym i linearnym oraz ich kulturze;

– miejsce centralnej dla tradycyjnego dyskursu kategorii medium i mediacji zajmie płynny układ sił pomiędzy kodem (software), bazą danych i interfejsem (hardware). Analizy zdarzeń i form komunikacyjnych w cyfrowym świecie domagają się bowiem nowego modelu analizy i zrekonstruowanego słownika ten model opisującego.

Postmedialny stan komunikacyjnego świata, w którym się znaleźliśmy, należy jednak postrzegać raczej w kategoriach postępującej emancypacji komunikacyjnej niż jako schyłek medialności. Technologie komunikacyjne sterowane społecznie, płynne interfejsy i nawigowalne bazy danych, software’owe reakcje na świat i jego nieustanne kodowanie czynią komunikacji bardziej istotną sferę naszego życia, niż kiedykolwiek nią była epoka mediów i mediacji. Najciekawsze wydaje się to, co dopiero przed nami – to, w co zakodują świat postmedia.