Postmedialne uniwersum nie różni się w tym zakresie od wcześniejszych kulturowych kondycji technologii komunikacyjnych – od ery pisma, epoki druku Gutenberga czy elektrycznej fazy kultury masowej z jej analogowymi mass mediami. Mechanizm ten znany jest już dobrze medioznawcom i badaczom relacji kultury i techniki. Zauważyli oni, że gdy nowinki technologiczne przenikają do życia społecznego i kultury, stają się powszechnym i popularnym narzędziem w rękach ludzi i systemów kulturowych, dopiero wówczas zyskują status powszechnych mediów i mediacji, ogólnie dostępnych i znanych języków i reguł komunikacyjnych i tylko wtedy są w stanie stawać się narzędziami zmiany istniejącego świata[5]. Przenikają i rekonstytuują wówczas dopiero najważniejsze relacje władzy i systemy ideologiczne, zakorzeniają się w porządkach semantycznych i aksjologicznych, poddają się sile ich oddziaływania, redefiniowaniu, instrumentalizowaniu i dostrajaniu wobec różnych oczekiwań, wrażliwości i konfiguracji systemowych – oddziaływając we wszystkich tych lokalizacjach, zgodnie z newtonowską zasadą, z adekwatną siłą i według analogicznych reguł o przeciwnym zwrocie. W tak skonstruowanym procesie stają się mediami danej kultury, a kultura staje się funkcją tych mediów, programują według własnej gramatyki nasze rozumienie świata i pośredniczą w jego budowaniu, reagując na wcześniej rozpisany dla nich kulturowy kodeks.
Czytaj książkę oznaczoną tagiem: tekstualność
W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.
Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.
Wpływ technologii na język mówiony i pismo wydawał się szczególnie widoczny w obliczu Galaktyki Gutenberga, w której przejął od technologicznych form druku i drukowanej logiki narracji takie elementy, jak choćby indeksowanie, linearność, precyzję, gramatykę, itd. [69]. Technologizowana w ten sposób mowa stojąca w obliczu swojego technologicznego alter ego została w swej pierwotnej wersji zepchnięta na margines zdarzeń medialnych w epoce mediów analogowych (nie licząc telefonii i radia), przekształcając się w tekstualność. Wraz z nadejściem mediów elektrycznych, a szczególnie nowych mediów, na nowo staje się konstytutywnym dla kultury elementem – Walter Ong twierdzi nawet, że wraz z mediami transmitującymi ludzką mowę w formie akustycznie zbliżonej do oryginału pojawia się w kulturze wtórna oralność. Najpierw język spłodził pismo, pismo ewoluowało w kierunku kodów liczb i matematyki, jako ich gramatyki, oraz pisma w rozumieniu komunikacji językowej. Obecnie mamy do czynienia zarówno z językiem pisma, jak i językiem/pismem matematyki. Ich wzajemne relacje są, to naturalne, złożone i wielowymiarowe, jednak w alfabetyzmie, przez który rozumiemy dzisiaj technologie medialne i mówimy nimi/je, te osobne kształty języka schodzą się na powrót [70].
Bliskość medialnej wyobraźni, języka i technologii cyfrowych tworzy przestrzeń kulturową, która domaga się nieustannej systematyzacji i refleksji. Na obecnym etapie kompetencji medialnych rozwijają się niektóre jedynie elementy składające się na ten konglomerat. Równomierne i bezpieczne kulturowo rozwijanie kompetencji komunikacyjnych będzie miało zasadniczy wpływ na system edukacji, społeczną ekologię informacji czy ekosystem medialny. Zmienić się zatem będą musiały także systemowe rozwiązania związane z konstruowaniem i dystrybucją kompetencji medialnych. Obok już istniejących metaalfabetyzmów – piśmiennego i wizualnego objawia się nowa różnica rozpinająca się pomiędzy alfabetyzmami analogowym i cyfrowym.
Ducha debaty, która wciąż jeszcze nie zdobyła właściwego miejsca w dyskursie humanistyki, mogę bez ryzyka wykorzystać we własnej narracji dotyczącej sytuacji postmedialnej. To właśnie natura cyfrowego kodu i jego centralna pozycja w przestrzeni cyfrowych bytów i aktów medialnych powoduje, że postmedialność można innymi słowami określić jako stan, w którym wszystkie dotychczasowe formy i języki medialne poddają się cyfrowemu kodowaniu i jego wymogom. Tym samym (medioznawcy mają na to wiele określeń – cyfryzacja mediów, konwergencja, remediacje, mediamorfozy) stają się emanacjami, wersjami cyfrowej gramatyki, powielają jej reguły wcześniej dopasowując się do nich. Taki stan rzeczy oznaczać może rzeczywiste unieważnienie medialnego stanu rozplenienia medialnych języków, gramatyk i form, który jest technologicznym echem mitycznej sytuacji wieży Babel. Przekonanie co do tego jest oczywistością pośród twórców nowych mediów, dla których poszukiwanie uniwersalnej formuły kodu i programowania maszyn jest czymś w rodzaju poszukiwania świętego Graala, czyli zestandaryzowanego, zdolnego do wyrażenia wszelkich możliwych idei, wyobraźni i wrażliwości kulturowych na wszelkich dostępnych poziomach kodowania maszyn obliczeniowych. Idąc tropem tych rozważań automatycznie napotkamy pytanie o to, jak sytuacja postmedialnego ujednolicania języków i gramatyk medialnych wpłynie na kształt ich premedialnych pierwowzorów, czyli jakie są i jak się zmieniają relacje pomiędzy kodem cyfrowym a kodami lingwistycznymi? Jak ma się uniwersalny i wielowarstwowy kod komunikacyjny, tj. kod binarny i wszystkie zrealizowane w oparciu o niego warstwy software, do języków, i jego medialnych wcieleń, a pośród nich przede wszystkim pisma, którymi się na co dzień posługujemy? Skoro rozwój cyfrowości powtarza etapy ewolucji kultury, choćby te, które opowiada historia wieży Babel, to czy kod cyfrowy można uznać za budową nowej, technologicznej wieży Babel i czy taki projekt ma szansę powodzenia oraz czy karą za jego kontynuację będzie ponowne pomieszanie języków? [112]
Zbyt wcześnie jeszcze, aby odpowiedzieć na tak postawione pytania wiążąco. Widać jednak już dzisiaj artystyczne i technologiczne ścieżki, które do takich odpowiedzi prowadzą. Na pierwsze spośród postawionych pytań odpowiedzi udzielają uznani artyści mediów i ich teoretycy, Christa Sommerer i Laurent Mignonneau, pisząc:
Programowanie można porównać do pisania powieści: pomimo iż język, w którym powstaje jest skończonym systemem (na przkład niemiecki, francuski czy angielski), to kreatywność jego wykorzystania zależy od wyobraźni autora [113].
W obliczu rozplenienia języków, dialektów i gwar w software’owej praktyce kodu cyfrowego, której wciąż daleko do uniwersalności i totalności cyfrowego lingua franca, można postawić także pytanie ile syntagma tego kodu układa się w formę tekstu, o ile bliska jest pierwszemu medium/medializacji komunikacji, za jaką należy uznać pismo. To pytanie o ile ciągi cyfrowego kodu można pisać i czytać jak tekst kultury, o ile emanują typograficznie, w obszarze designu (estetycznie) i poetycko? Czy ciągi kodu są tekstem w dosłownym tego pojęcia znaczeniu, czy są jedynie gruntem/alfabetem, na którym piszą się cyfrowe „teksty” kultury, takie jak software’owe interfejsy, interakcje, narracje i bazy danych? Wyrazicielem pozytywnej odpowiedzi na te pytania jest, dla przykładu, Loss Pequeno Glazier, który w artykule pod sugestywnym tytułem Code as Language dowodzi, że kod cyfrowy jest technologiczną formą ekspresji, za którą stoją czynniki podobne do stanowiących o formie języka i pisma. Kod jest w tym podobny do pisma i języka, że powstaje na skutek działania wzorców i wyobrażeń komunikacyjnych, które wykorzystujemy w konstruowaniu wypowiedzi i komunikowaniu się. Kod i kodowanie, podobnie jak alfabet i jego pisanie, wykorzystują płaską przestrzeń ekranu (odpowiednik analogowego nośnika – tabliczek kamiennych, pergaminu, papieru), na której w czasie pisania utrwalane są znaczenia nadawane kombinacjom znaków. Usytuowana w takich warunkach antropologiczna zasada cyfrowości wydaje się czymś bliskim tradycyjnym gestom i poetyce pisma [116].
John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].
W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].
Bywają jednak sytuacje, kiedy kod może okazać się tekstem, a tekst kodem – zarówno kiedy brać pod uwagę tekstualne znaczenie tekstu, a także kiedy postrzegać go szerzej, jako różne w kulturze wypowiedzi i ich różne formy. Takie przenikanie kodów cyfrowych i analogowych, medialnych i digitalnych, objawia się, co prawda, w większości jako próbkowanie, impresje artystyczne wynikające z potrzeby uzgadniania obu podobnych do siebie formatów komunikacyjnych, lub celowym działaniem programistów, którzy ponad skierowanymi do maszyn ciągami poleceń wyposażają swój software w warstwę skierowaną do użytkownika. Jednak w przypadku domeny cyfrowej działania przekraczające naturę kodu, zmieniające jego kontekst i redekonstruujące zaszyfrowane w nim znaczenia, stały się także jedną z najważniejszych strategii działania w ogóle – zarówno twórczego/projektowego, jak i w powszechnej skali użytkowej. Przedostawanie się technologii cyfrowych ze światów militarnego, naukowego i merkantylnego do obszaru powszechnego użytkowania możliwe było w dużej mierze dzięki subwersywnym działaniom środowisk, które z czasem zaczęto nazywać hakerskimi. Sytuująca się na pograniczu świata sztuki i inżynierii cyfrowej domena hakingu właśnie z artystycznej wrażliwości i krytycznego działania uczyniła rdzeń swego etosu. Hakerski sposób patrzenia na cyfrowy świat stał się jednym z najbardziej popularnych nurtów myślenia o wczesnych stadiach kultury cyfrowej – był on i wciąż pozostaje związany ze strategiami i taktykami, które biorą się z krytycznych sposobów używania cyfrowego kodu, programowania i budowania cyfrowych zdarzeń komunikacyjnych. Hakowanie kodu, czyli obnażanie niedoskonałości technologicznych (bug, glitch), ale i wyszukiwanie w nim celowo umieszczonych ciągów, które spełniają zadania ideologiczne, mitologiczne, związane z panoptyczną obserwacją używających go – to postawy, które mają w rezultacie czyścić kod, poszukiwać jego najdoskonalszej (najprostszej, wolnej od manipulacji, bezpiecznej) formy.
Przenikanie, obnażanie i hakowanie cyfrowego kodu mediów jest także jedną z najważniejszych strategii artystycznych podejmowanych w domenie sztuki mediów cyfrowych. Cyfrowy kod i software postrzegane są przez kulturę cyfrowości z jednej strony jako domena nieustannego konstruowania i projektowania designerskiego, interfejsów, języków komunikacji, a z drugiej – tu pojawiają się subwersywne wrażliwości pracujących z tymi mediami artystów – jako obszar nieustannej pracy krytycznej, dekonstruowania zaszytych w kodzie znaczeń, polityk, estetyk, mitologii.
Niezależnie od takiego odsłaniania tekstualności kodu i cyfrowości pisma oba porządki jedynie z pozoru są wymienne i kompatybilne. Cyfrową gramatyką, syntagmą, jej potencjalną/przygodną estetyką, czy estetyzacją, rządzą reguły wyznaczone przez zjawisko elektryczności i odczytujących jej zasady fizyków oraz inżynierów zajmujących się ich technologiczną translacją wobec wymogów materiałowych, systemowych i innych związanych z hardware. W obliczu kondycji postmedialnej można uznać, że najlepszym dostępnym dziś paratekstualnym interfejsem łączącym gramatyki technologii z gramatykami kultury lingwistycznej i tekstualnej pozostaje wciąż matematyka, a w szczególności logika, geometria i algebra.
Takich relacji pomiędzy matematycznością i elektrycznością doszukał się i wykorzystał w sensie komunikacyjnym chyba jako pierwszy Samuel Morse, amerykański artysta i prekursor telegrafii. Morse, przypomnę, opracował system komunikacji korzystający z właściwości światła, dźwięku lub elektryczności, których kontrolowanym obecnościom i nieobecności nadał symboliczne znaczenia. Tak zwany alfabet Morse’a polega na wykorzystaniu natury tych zjawisk fizycznych na zasadzie powiązania z nimi znaków odnoszących się do poszczególnych liter alfabetu łacińskiego – innego, wcześniej istniejącego kodu komunikacyjnego. Metodyczne zapalanie światła, przerywanie dźwięku czy obiegu elektrycznego w zgodny z zaszyfrowanymi w alfabecie znakami czyni ze zjawisk naturalnych komunikatory kulturowe, bowiem stwarza wrażenie kulturowej dominacji nad siłami przyrody, ich ujarzmienia i wykorzystania. Morse’owskim tropem podążyli matematycy, którzy poszukiwali symbolicznych formuł pozwalających połączyć kodowanie elektryczności z koncepcjami maszyn obliczeniowych i w ten sposób narodziła się idea cyfrowego kodu, który stanom naturalnych żywiołów (elektryczności) przypisał wartości matematyczne. Ogólnie rzecz ujmując można powiedzieć, że idea elektrycznej (obecnie elektronicznej) cyfrowości to nic innego, jak multiplikowane i zapętlone na miliony różnych sposobów w postaci skomplikowanej formalnie i zminiaturyzowanej materialnie architektury hardware (procesory z milionami elektrycznych półprzewodników-tranzystorów o wielkości jedynie mikronów każdy) proste matematyczne operacje (wyrażone jedynie za pomocą 1 i 0) na elektryczności, jej przewodzenie lub jego brak. W taki sposób zapisane są choćby dane na płytach CD, DVD czy BD.
Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.
Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].
Nowy alfabetyzm, a zatem społeczne praktyki i wyobrażenia dotyczące pisania i czytania [166], czy inaczej mówiąc kulturę komunikacji, komunikacyjną wrażliwość, kompetencje i wyobraźnię, można zdefiniować także w relacji do społecznego konstruowania praktyk dyskursywnych, budowania i podtrzymywania dyskursów [167]. W tym nowym alfabetyzmie obecność kodu cyfrowego i jego form matematycznych, ale także jego społecznych praktyk, takich jak digitalizacja zasobów kultury czy dyskurs programistyczny (języki, instytucje, formy działania) wprowadza alternatywę dla jednowładztwa najważniejszego z analogowych kodów – tekstu. Otwierający się na nową wyobraźnię nie tylko zyskuje wejście w świat tekstu i jego kultury – tekstualności, epoki Gutenberga, i stosowny wobec nich dystans poznawczy ale i – tu objawia się programowalność – dopuszcza programowalność/płynność tekstualności. Tym samym wchodzi w dyskurs rozpoczęty już w obszarze literatury i liberatury, kontynuowany w cyfrowości jako dyskurs hipertekstu i cybertekstu, i podejmuje wyzwanie bycia współtwórcą, programistą, operatorem i współkonstruktorem jego formy i treści. Linearność tekstualną, która stała się także linearnością kultury analogowej, poddaje w cyfrowej wyobraźni różnego rodzaju remiksom, personalizacjom, update’om, wariacyjności. Czytając i pisząc kulturę-tekst posługuje się innymi, oderwanymi od gutenbergowskich, narzędziami i sterującymi nimi wyobrażeniami, bardziej ją programując, budując skojarzenia i konstruując mentalne modele i reprezentacje świata w oparciu o znane mu aplikacje i interfejsy software.
Jednak analogia pomiędzy językiem i alfabetem a uniwersum danych nie przystaje do stanu faktycznego, kiedy się jej głębiej przyjrzeć. W przypadku języka jako kultury, najpierw posługiwaliśmy się kodem, a dopiero później pojawiła się potrzeba opracowania jego pojedynczych wartości – wyodrębnienia i nazwania językowych „danych”. W cyfrowym świecie jest odwrotnie: najpierw powstają dane, a dopiero potem stają się one przedmiotem cyrkulacji kulturowej, są pożywką dla różnych kulturowych gatunków i rodzajów. W wersji historycznej informacje z czasem doczekały się swoich pre-struktur, czyli danych alfabetycznych – zostały przez kulturę zdekodowane i skodyfikowane. W wersji cyfrowej dane powstają głównie wcześniej/równolegle wobec mechanizmów (algorytmy, interfejsy, software) służących ich rozumieniu, a zatem porządek cyfrowy jest porządkiem kulturowego kodowania danych [178].
Szczególnie w XX stuleciu pojawiło się wewnątrz niej wiele prób przełamania tradycyjnych zasad, medialnych reguł i sposobów komunikacji – okazała się w dużej mierze autokrytyczna. Na formalny ferment w obszarze tekstualności, a w dalszej kolejności w teorii literatury, składają się dokonania i idee takich ikon współczesnej kultury, jak James Joyce, Jose Louis Borges, eksperymentatorzy z grupy Oulipo, semiotyk, filozof i teoretyk kultury Umberto Eco z jego wspomnianą już teorią dzieła otwartego, Roland Barthes wieszczący śmierć autora, czy Julio Cortazar. Ich dokonania w zakresie krytyki tekstualności i warsztatu literackiego dotyczą nie tylko wewnętrznych stanów w tej przestrzeni kultury. Okazały się także znamienną krytyką technologicznego wymiaru gutenbergowskiej kultury, dotyczyły ograniczeń zamkniętej formalnie i ograniczonej funkcjonalnie konstrukcji medium książki i jej wpływu na odbiór i kondycję tekstualności [199]. Chociaż jedynie w niewielkim stopniu można by je powiązać z rozwojem technologicznym maszyn kalkulujących, to miały one niepodważalny wpływ na ich kulturowe osadzenie na terytorium zdominowanym przez tekstualność. Doprowadziły bowiem do wykrystalizowania się idei cyber- i hipertekstu, a jednocześnie zainicjowały pozatechnologiczny (analogowy) nurt rozwoju tekstualności, który nazywany bywa liberaturą[200].
Nie będę wchodził głębiej w dokonania przywołanych twórców, bo są one powszechnie znane i dobrze już opisane także na polu medioznawczym – choćby w teorii hipertekstu. Odniosę się jedynie do konkluzji, jakie na temat zmian w tym obszarze zgłosili Eco i Barthes. W sformułowanej na początku lat 60. ubiegłego wieku koncepcji dzieła otwartego Umberto Eco zwracał uwagę na dokonującą się w kulturze zmianę ról. Relacja autor-dzieło traci na znaczeniu wobec relacji odbiorca-dzieło. Swoją władzą nad tekstami kultury ich autorzy muszą dzielić się z ich odbiorcami, którzy interpretują je, przekształcają i czytają wciąż na nowo [201]. Kilka lat później tę argumentację dobitnie wyraził Roland Barthes w słynnym eseju obwieszczającym śmierć autora jako jedynowładcy dzieła. Francuz potwierdzał w nim diagnozę Eco co do fundamentalnych zmian w obrębie literatury, rynku wydawniczego i czytelnictwa, jakie miały miejsce w XX wieku [202]. Dla obu wyśmienitych analityków obserwacje kulturowej tektoniki miały dużo większą siłę sejsmicznego rażenia niż tylko w obszarze literatury i tekstualności jako takich. W ich projekcjach stawały się one teoriami ogólnych zmian w kulturze współczesności, w której brak ciągłości, a przygodność, niejednoznaczność i nieokreśloność to stany naturalne. Otwartym dziełem nie włada już autorytarnie sam autor (ewentualnie także jego dysponent, wydawca) – staje się ono otwartym zasobem kultury, którego przeznaczeniem jest być wielokrotnie dekodowanym, dekonstruowanym. Konstatacje obu autorów mogłyby z powodzeniem znaleźć się w instrukcjach obsługi do technologicznych form baz danych. Wyrażają ich kulturowy potencjał i definiują nowy układ ról w kontakcie z uniwersum informacji, stając się w ten sposób klasycznymi tekstami cyfrowego dyskursu.
W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].
Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].
Tekstualność, na której formalnych podwalinach zasadza się projekt cyfrowy, to nie jedyny trop medialny dający się wykorzystać w poszukiwaniach kulturowych i artystycznych prototypów nowej organizacji wiedzy i informacji w formie baz danych. Tekstocentryczne analizy kondycji nowych mediów, które postrzegają hipertekstualność jako najważniejszy z kulturowych kształtów cyfrowości, wraz z rozwojem technologicznym przesunęły się na drugi plan, ustępując miejsca obrazom i ustanowionej w oparciu o ich język kulturze wizualnej. Oznacza to, że w domenie technologii cyfrowych to metafory, gramatyki i logiki wizualności odgrywają dziś decydującą rolę, definiują sens i wyznaczają porządek cyfrowego świata. Nie wchodząc na razie w szczegóły dotyczące znaczenia i historii zwrotu wizualnego w kulturze – wrócę do tego wątku niebawem – można powiedzieć, że ogólnie losy komunikacyjnej powłoki cyfrowych maszyn w ostatnich trzydziestu latach polegały na systematycznej ich emigracji z terenu tekstualności i zagnieżdżaniu się wewnątrz wizualności – potwierdza to historyczne następstwo technologii interfejsowych, które w pierwszej fazie swojego istnienia były mechaniczne, następnie tekstualne, aż wreszcie – to właśnie faza obecna – wizualne. Ten proces opowiadany z perspektywy historii technologii cyfrowych i sieciowych można rozumieć paralelnie wobec historii komunikacji w ogóle: jako przechodzenie od pisma i tekstualności (epoka Gutenberga) do fazy dominacji kultury wizualnej. Powszechna komputeryzacja możliwa dzięki interfejsom graficznym i wizualizacji środowiska cyfrowego to jedna z przestrzeni, w których doskonale widać dominację kultury wizualnej we współczesności [205].
W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].
Jak, według amerykańskiego teoretyka, baza danych wpływa na kształt języka nowych mediów? Odpowiedź Manovicha jest w tym przypadku stanowcza: współczesne media to pole rywalizacji między bazą danych a narracją (s. 353) [214]. Baza danych to format rozbijający tradycję odgórnie planowanej i dystrybuowanej narracyjności w kulturze. Narracyjne były i wciąż w dużej mierze są, mimo podjętej walki z nowymi technologiami, tradycyjne media komunikacji masowej. Ich logika zdominowana była przez funkcję bezzwrotnej transmisji zdefiniowanego (technologicznie, ideologicznie, geograficznie) komunikatu do jak największej ilości potencjalnych odbiorców. Narracyjne były również tradycyjne media epoki przedelektrycznej – pismo, obrazy, opowiadania.
Potwierdzenia manoviczowskiej diagnozy bazodanowego charakteru cyfrowego ekosystemu medialnego potwierdzają i uzupełniają diagnozy szczegółowe proponowane przez innych teoretyków mediów, kultury i komunikacji. Dla przykładu w zakresie cyberkulturowej teorii tekstualności takie potwierdzenie znajdziemy w pracach teoretyka literatury elektronicznej i cyfrowej tekstualności Espena Aarsetha, który cybertekstualność postrzega w oparciu o zanik linearności: w zakresie tworzenia tekstu, jak i jako szereg charakterystycznych dla zapośredniczenia cyfrowego strategii odbiorczych. Nielinearny tekst staje się tekstem bazodanowym, to jest takim, w którym obok autorskiej narracji możliwe są także inne układy i kompozycje jego części składowych (zarówno technicznych jak i semantycznych), staje się hipertekstualny, multimedialny i wariacyjny [215].
Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].
Dominacja narracji uprzywilejowuje autora na niekorzyść czytelnika, widza, słuchacza; nadawcę wobec odbiorcy, instytucje medialne wobec społeczeństwa i obywateli, itd. – to kondycja tradycyjnej kultury medialnej i komunikacyjnej. Manovich sprawnie skompresował szereg odnoszących się do różnych porządków i form medialnych diagnoz i teorii, obejmując je wszystkie rzeczonym konfliktem pomiędzy narratywnością i podważającym ją porządkiem bazodanowym. Poza przywołanymi współczesnymi teoretykami mediów i ich kultury tę zmieniającą się kondycję rozpoznali już wcześniej filozofowie Gilles Deleuze i Felix Guattari. W swojej teorii kultury zaproponowali figurę kłącza wydobywającą poststrukturalny świat fragmentów i niezliczonej ilości możliwych nawigacji i narracji między nimi oraz logikę nomadyczności, która w ich perspektywie oznacza nowy porządek kulturowego bycia i poruszania się w kłączastym świecie fragmentów. Dopełnieniem deleuzowsko-guattariańskiej teorii stał się obwieszczony pod koniec lat 70. przez jeszcze innego francuskiego humanistę, Jeana Francois Lyotarda, w raporcie dotyczącym kondycji społeczeństwa współczesnego upadek wielkich narracji. Za wielkimi teoriami/opowieściami kultury kryją się diagnozy, w których wielkie konstrukcje/systemy/struktury i dyskursy tracą swoją cywilizacyjną pozycję, rozpadają się stając się nieuporządkowanym skupiskiem resztek gotowych na dowolne odczytania, podatnych na rekonstrukcje, połączenia z dowolnymi innymi, czekających na wzbudzenia i utrwalenia i objawiających się w miejsce braku wielkich niezliczonych mikronarracji. Tradycyjne, hierarchiczne kultura i społeczeństwo przechodzą w ten sposób, konkluduje Lyotard, w tryb ponowoczesny.
Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastami i ikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.
Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.
Zanim jednak przejdziemy do analizy wizualnych danych jako interfejsów, odwołam się do historycznej debaty nad kierunkiem rozwoju technologii cyfrowych. We wczesnych latach osiemdziesiątych ubiegłego wieku, a więc w okresie kiedy technologie cyfrowe wychodziły z etapu interfejsów tekstowych i przekształcały się w maszyny wytwarzające własną wizualność i dzięki wizualnym manipulacjom sterowane, jedną z najgłośniej komentowanych koncepcji rozwoju cybertechnologii była wizja bezpośredniej kontroli danych sformułowana przez Bena Shneidermana [261]. Bezpośrednia manipulacja miała być odpowiedzią na dwa nurtujące wówczas przemysł komputerowy najważniejsze problemy: narastającą ilość danych wymagających magazynowania i skomplikowanych sposobów przetwarzania oraz poszukiwania sposobu na wygodę pracy z cyfrowymi maszynami. Rozwiązaniem obu problemów miały być tak zaprojektowane systemy informatyczne (interfejsy, software, hardware), które uczyniłyby dane bezpośrednio percypowalnymi na poziomie, na którym możliwa byłaby ich niemal dotykalna kontrola [262].
Czym jest typophoto? Typografia to komunikacja zaszyfrowana w czcionkach. Fotografia jest wizualną reprezentacją tego, co można optycznie uchwycić. Typophoto to najbardziej dosadna wizualnie forma komunikacji.