Jaką kondycję proponują nowe, cyfrowe media? W codziennym krajobrazie miejsce stałych i percypowalnych w tradycyjny, obiektowy sposób maszyn i tekstów medialnych zajmują ich cyfrowe ślady, tj. medialne procesy, obliczenia nieustannie dokonujące się pod powierzchnią interfejsów, sieciowe transfery danych we wszystkich możliwych kierunkach, negocjacje protokołów (ping, IP, Cookies). Ich obecność konstytuuje takie nowe formy technologicznego krajobrazu, jak odbywające się przy bardzo ograniczonej wiedzy i kontroli ze strony użytkownika działania komunikacyjne pomiędzy urządzeniami (Internet rzeczy) czy serwisami i usługami software’owymi i sieciowymi. Analogowe przyzwyczajenia często stawiają nas wobec nich w mało komfortowej sytuacji, kiedy nieświadomi tego, co procesują, komunikują i interfejsują wykorzystywane przez nas urządzenia jesteśmy narażeni na niespodzianki i konieczność nieustannej uwagi na wielu poziomach percepcji. Boleśnie w sensie finansowym przekonało się na przykład o tej nieustannej i fantomicznej konektywności cyfrowych urządzeń połączonych z sieciami polskie społeczeństwo zauroczone nowymi liniami technologicznymi smartfonów, kiedy okazało się, że nieustannie komunikują się one z bazami danych operatorów, dostawców usług, producentów, sieciami społecznościowymi i wieloma innymi miejscami w sieciach. Użytkownicy tych urządzeń przez długi czas nie zdawali sobie sprawy z przebiegu tych ukrytych transmisji i transferów, za co operatorzy zacierając ręce wystawili im słone rachunki [23].
Czytaj książkę oznaczoną tagiem: antropo
Jaki wpływ miał ten założycielski spór na kulturowe oblicze cyfrowego świata? Przywołana już wcześniej filozofka mediów Katherine Hayles dostrzega podwójną konsekwencję różnicy w rozumieniu sensu informacji dla projektu cyfrowego. Z jednej strony na jej skutek informacja traci swoje zakorzenienie w materii, swoją natywną cyfrową formę, „ciało”. Z drugiej strony emancypuje się także z kontekstu, w którym ją to „ciało” zanurzało, wychodząc w ten sposób naprzeciw oczekiwaniom przeciętnych mieszkańców kultury nieposiadających wystarczających kwalifikacji, aby funkcjonować w cybernetycznym wymiarze projektu cyfrowego, a jednocześnie na co dzień flirtujących z pop-cybernetycznymi jego wcieleniami [25]. Hayles wymienia trzy etapy postępującej dematerializacji informacji. Etap pierwszy to przywołany spór o twardą i miękką informację, który rozpoczął się po drugiej wojnie światowej i trwał do początku lat 60. XX wieku. Etap drugi trwał od lat 60. do 80. i okazał się procesem powolnego rozpoznawania kulturowego kontekstu, o którym mówili wcześniej teoretycy miękkiej informacji. W fazie trzeciej, która wciąż trwa, mamy natomiast do czynienia z wirtualizowaniem się informacji, czyli systematycznym uzgadnianiem uwarunkowań cybernetycznych z wymogami komunikacyjnymi kultury i życia społecznego [26]. Wraz z „mięknącą” informacją projekt cyfrowy przesuwa się z wojskowych i uniwersyteckich laboratoriów w kierunku kultury codzienności, jej mało wyrafinowanych technicznie mieszkańców niepotrafiących w codziennej praktyce wyrażać siebie samych ani konstruować świata w cyfrowy sposób.
Postmedia to technologie, dla których charakterystyczne są rozwiązania postmechaniczne i postelektryczne. Poznanie sposobu ich pracy, jak to już powiedziałem, wymyka się naturalnym właściwościom percepcji posługującego się nimi człowieka, tradycyjnym kodom kulturowym definiującym relacje kultura-technika i uznanym za kanoniczne regułom i prawom opisującym fizykę, chemię i matematyczność świata. Postmedialne maszyny stały się mitycznymi i magicznymi narzędziami manipulacji zjawiskami natury. Nie odwołują się już wprost, w bezpośredni i przejrzysty sposób, do powszechnie dostępnych zasobów wiedzy kulturowej – jak to miało miejsce w przypadku maszyn mechanicznych, które w naturalny sposób rozwijały wcześniejsze twory techniki czy starały się naśladować budowę i funkcjonowanie organizmów żywych. Odnoszą się za to do wyrafinowanych zasobów wiedzy specjalistycznej, wykorzystują zawiłe zjawiska i wciąż jeszcze nie w pełni rozpoznane i opisane stany odkrywane przez zaawansowaną technologię. Do pracy z nimi potrzebne są, w odpowiedzi na taki stan rzeczy, rozwiązania techniczne, które te wyrafinowane maszyny ubiorą w kulturowo przyjazne, symboliczne szaty. Są nimi interfejsy użytkowe powstające na styku software i hardware, których idea i forma nie tylko nadają postmediom kulturowo przyjazne kształty, ale i skutecznie przejmują dotychczasową rolę monolitycznych mediów [30].
Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].
Płynnie i przygodnie usytuowane w ten sposób w postgeograficznym i postpolitycznym krajobrazie media mobilne pozwalają swoim użytkownikom na permanentny kontakt z równie płynną i przygodną wirtualną przestrzenią danych i sieci, a jednocześnie nie wchodzą w konflikt z warunkami tradycyjnego bycia i życia w przestrzeni fizycznej. W rezultacie przestrzeń kulturowa, powstająca z nakładania się na siebie w doświadczeniu zanurzonego w obie człowieka staje się hybrydą. Zacierają się w niej dystynkcje pomiędzy niegdyś rozdzielnymi stanami materialności i cyfrowości, atomy przenikają się z bitami i/lub zamieniają miejscami. Za sprawą upłynnienia infrastruktury medialnej i wejścia z nią w przestrzeń fizyczną staje się ona w związku z tym również ekstrapolacją przestrzeni społecznej powstającej w mediach społecznościowych. Doskonałym przykładem takiej hybrydycznej koegzystencji elementu wirtualnego, sieciowego i materialnego są wszelkie serwisy odnoszące się do mechanizmów geolokacji i cyfrowych map – takie jak googlemaps, forsquare czy facebook. Nie sposób obecnie rozsądzić, która z warstw kompozytowej przestrzeni społecznej ma prymarne znaczenie, a która jest wobec tej ważniejszej wtórna. Wydarzenia inspirowane, konceptualizowane i częściowo aranżowane w sieciach elektronicznych znajdują kontynuację w materialnych rejonach przestrzeni publicznej. Dzieje się także na odwrót, „materialne” działania zyskują drugie, poszerzone życie w przestrzeni portali społecznościowych, na forach i serwisach publikujących filmy, fotografie i notatki. Jak konkludują badacze mediów mobilnych: hybrydyczna przestrzeń ustanowiona za pośrednictwem tych technologii jest przestrzenią połączeń, przepływów i transferów, mobilności i nowego typu sytuacji społecznych [39]. Nietrudno o inne przykłady dowodzące postmedialnego zanikania granic pomiędzy działaniem w przestrzeni atomów i w przestrzeni bitów. Jednym z nich jest nowy typ pracy, która staje się niezależna od fizycznego miejsca (tego dowodził już Alvin Toffler w swoich analizach poświęconych zjawisku telepracy), ale i nie posiada tradycyjnej struktury, w której pracodawca zleca zatrudnionemu jakieś zadania do wykonania i nadzoruje go w trakcie ich wykonywania. Praca mobilna (crowdsourcing) polega na udostępnianiu zadań do wykonania na zasadzie bazy prostych czynności, do których mogą zalogować się chętni do ich wykonania. Pracodawca może rozłożyć swoje potrzeby na dziesiątki czy setki drobnych czynności do wykonania i cierpliwie poczekać, aż zostaną zrealizowane pod nadzorem specjalnych aplikacji dystrybuujących zlecenia, nadzorujących ich wykonanie itd.. Na razie działania tego typu dotyczyć mogą jedynie prac analitycznych, związanych z przetwarzaniem informacji i ich pozyskiwaniem, jednak już dzisiaj takie modele zatrudniania i wykonywania pracy skutecznie zastępują tradycyjne przedsiębiorstwa i „materialne” reguły gospodarki postfordowskiej [40].
Około roku 2005 zdiagnozowano przełom w cyfrowej kulturze. Przedsięwzięcie ekonomiczne i kulturowe znane powszechnie jako „Internet” miało złapać drugi oddech, otrząsnąć się ze skutków katastrofalnego w sensie ekonomicznym okresu tzw. bańki dotcomów i wkroczyć do krainy Web 2.0. Momentem przesilenia okazały się krachy giełdowe przeinwestowanych i nienaturalnie zarządzanych fuzji, eksperymentów czy operacji giełdowych i strach przed „pluskwą milenijną” około roku 2000 (pośród nich szczególne znaczenie miała nieudana fuzja AOL i Time Warner – największego dostawcy usług internetowych w Stanach i jednego z największych przedsiębiorstw branży rozrywkowej z roku 2001). Po tym symbolicznym oczyszczeniu i restarcie kluczową rolę w nowych okolicznościach odegrać miały zastępy userów i tworzone przez nich wirtualne społeczności (o których przeszło dekadę wcześniej pisał Howard Rheingold [41]) – obdarzeni w nowej filozofii cyfrowego świata należnym im miejscem kreatorów i najważniejszych decydentów. W nowej mitologii cyfrowego świata chętnie przyznawano im zdolność do podjęcia roli wcześniej sprawowanej przez korporacje, rządy i organy kontroli i sugerowano, że kształt cyfrowości jest od tego momentu wyłącznie w ich rękach. Te i podobnie brzmiące nowe „reguły gry” zostały okrzyknięte mianem konstytucji odnowionej, społecznościowej wersji Internetu. Tezę o cyfrowym restarcie wspierały najważniejsze „tradycyjne” media. Rok 2005 BBC ogłosiło rokiem cyfrowego obywatela (The Year of Digital Citizen), a niedługo potem amerykański Time nadał prestiżowy tytuł człowieka roku (Time Person of the Year) każdemu poczuwającemu się do tego miana kreatorowi zawartości Internetu, który miał okazję zobaczyć swoje odbicie w lustrze zamieszczonym na okładce magazynu [42]. W taki sposób przedsiębiorstwa i koncerny medialne, zakorzenione w systemie poprzedniej analogowej, epoki ogłosiły rekonstrukcję projektu cyfrowego pod szyldem społecznej emancypacji wobec sił technopolu i zawłaszczonych przezeń cyfrowych narzędzi[43].
Matteo Pasquinelli książkę Animal Spirits. A Bestiary of the Commons poświęca właśnie analizie stopnia barbarzyństwa dzisiejszej cyberprzestrzeni, zajmuje się postępującym w niej upadkiem obyczajów i chaotyczną destrukcją wszystkiego, co relacyjne i co społeczne[47]. Pasquinelli opowiada się za wizją skutków społecznościowej rewolucji zainicjowanej przez kulturowe i społeczne ruchy w cyberprzestrzeni przeciwną wobec najbardziej popularnej mitologii cyfrowej rewolucji. Tam, gdzie cyberoptymiści widzą nowy ład kultury i urzeczywistnienie najbardziej wzniosłych marzeń i stojących za nimi wartości społecznych, stawia diagnozę przeciwną. Zamiast demokratyzacji życia społecznego, elektronicznej sfery publicznej, emancypacji obywatelskiej, widzi sieciowe zdziczenie obyczajów, dokonujący się krok wstecz w rozwoju społecznym i mimowolne wyjście na manowce kultury. Elektronicznymi zachowaniami zbiorowości rządzić mają instynkty pierwotne (tytułowe animals spirits będące nawiązaniem do kartezjańskiego oryginału, czyli tchnień żywotnych). Przekładają się one na szereg działań nieracjonalnych, nieprzewidywalnych i trudnych do jakiejkolwiek kontroli, kiedy już się objawiają. W części wynikają one z natury ludzkiej egzystencji, jednak ich przyczyną jest także „klaustrofobia kodu”, czyli zapisane w gramatyce nowych mediów mechanizmy władzy, reguły ekonomiczne, ideologie, z którymi nie potrafią racjonalnie walczyć, ani ich omijać, zanurzeni w cyfrową rzeczywistość userzy reagujący nieposkromioną agresją i dzikością. Do tego dochodzą także i inne znane antropologom mechanizmy zachowań zbiorowych, związane z celebracją anonimowości czy zachowaniami „stadnymi”. W rezultacie, wyrokuje Pasquinelli, nie istnieją wyłącznie racjonalne, jednoznacznie integrujące i moralnie nieskazitelne praktyki w cyfrowym świecie – wręcz przeciwnie stopień zawartości animals spirits w przestrzeni cyfrowej narasta. Co więcej, objawiając się i kumulując się online zostaje tam utrwalony i zmultiplikowany, by następnie, na zasadzie pętli sprzężenia zwrotnego, powracać z większą siłą do świata offline, zmieniając go.
W konsekwencji idealizowana przez wielu apologetów i marketingowców współpraca i wspólne życie w sieciach i na platformach cyfrowych, zawiązujące się w nich relacje społeczne i reaktywująca się sfera publiczna, szerzej: wszystko, co mieści w zbiorze desygnatów kategorii networking, przypomina raczej stan notworking.
Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.
David Bollier, kolejny z krytycznych analityków praktyk sieciowych, twierdzi, że nawet proste i prymitywne zachowania w sieci mają jednak głębszy, w swej istocie pozytywnie kulturotwórczy sens. Bollier argumentuje, że powstaje na skutek tych zachowań „nowy gatunek” człowieka społecznego, który w przyszłości, kiedy osiągnie przypisaną mu dojrzałość i właściwie rozpozna swoją grupową siłę, zupełnie zreorganizuje sferę polityczną i publiczną. Dzisiejsze viral spiral, czyli chaotyczne i niestabilne społeczne moce uwalniane online, okrzepną, przekształcą się w nowego typu struktury i staną się podstawą budowania zupełnie nowego ustroju społecznego i systemu kulturowego, którego zasady wyznaczą dzisiejsze słowa-klucze opisujące wirtualne społeczności, takie jak wolny dostęp do zasobów kultury i technologii, nieograniczona cyrkulacja danych, uwolniona kreatywność . Rozedrgana i targana przygodnością faktura życia zbiorowego w sieci z czasem uspokoi się i okrzepnie. [48]
Wpływowy holenderski krytyk Internetu Geert Lovink jest przekonany, że obecne stadium tzw. mediów społecznych pod szyldem 2.0 to sprawnie wyreżyserowane przez medialne korporacje działania, których zadaniem jest pozyskanie jak największej liczby danych o użytkownikach Internetu i nowych technologii. Media 2.0 są infrastrukturą nasłuchującą i tworzącą bazy danych, które potrzebne są do podtrzymywania modeli biznesowych w cyfrowym świecie – odwołam się raz jeszcze do tego wątku moich analiz. Dyskursywnej i społecznej zarazem niemocy mediów 2.0 dowodzi zdaniem Lovinka „tragedia komentarzy”, czyli ich zupełny brak w przeważającej ilości sieciowych miejsc dialogicznych. Zamiast nich doskonale funkcjonują działania i dyskursy pozorne, znaki faktycznych działań, dla których ikonami są przycisk „lubię to” na Facebook.com czy ćwierknięcia na Twitter.com [51]. Powstające w ten sposób dane, kapitał społeczny, okazują się jedynie kapitałem ekonomicznym, który służy interesom wchodzącym w jego posiadanie dostawcom infrastruktury. Praw do niego już z chwilą współtworzenia pozbawiani są zaś jego twórcy, którzy dla przykładu nie mają możliwości usunicia z Facebook.com trwale swojego profilu. Wraz z tymi prawami tracą oni także możliwości posługiwania się nim w inny, niż przewidziany przez dostawców, sposób. Niedawno głośna była seria wirtualnych samobójstw dokonywanych przez użytkowników na swoich społecznościowych profilach w proteście przeciwko polityce tych firm wobec danych użytkowników. Portale skutecznie zablokowały te subwersywne działania [52]. Wrócę do tematu pozyskiwania w ten sposób danych w części poświęconej postmedialnej roli baz danych.
Jeśli jednak media 2.0 nie spełniają kryteriów, które można by postawić wobec projektu mediów społecznych, to czy cyfrowe technologie połączone w sieciach mają szansę wyrwać się z uścisku technopolu i stać się faktycznie przestrzenią społeczną nowego typu, którą cechować będą przymioty wolności, otwartości, kreatywności, itd.? Sądzę, że obecny etap komercyjnie i politycznie inspirowanych i dyskretnie koordynowanych ruchów pseudospołecznościowych cechują dwa stany, które są charakterystyczne dla postmedialnego zwrotu. Po pierwsze, kontrola technopolu nie jest już tak skuteczna, jak w przypadku mediów masowych – w szczelnym dotąd systemie zdarzają się poważne wycieki i uszkodzenia, których nie da się już starymi metodami eliminować. To wspomniane wikileaks, działania hakerów, dziennikarstwo obywatelskie, piractwo. Po drugie, to interaktywność nowych technologii i egalitarny charakter cyfrowego kodu, do którego manipulacji i implementacji w formie software i protokołów mają zasadniczo dostęp wszyscy zainteresowani dysponujący odpowiednimi kompetencjami. Dostęp do kodu i możliwość użycia go wedle własnej wiedzy, wyobraźni i możliwości uruchomiły rzeczywistą emancypację technologiczną na niespotykaną wcześniej skalę. Skorzystanie z jej możliwości nie jest jednak ani automatyczne, ani proste. Wymaga wiedzy, której nie da się nabyć przez dekodowanie zawartości tych mediów. Potrzebne jest tu dekodowanie samych technologii i sterującego ich działaniem kodu, a to kompetencje, których wyrobienie wymaga przewartościowania w obszarach wiedzy, edukacji, wyobraźni kulturowej, prawa. Jeśli projekt cyfrowy można rozpatrywać w kategoriach uspołecznienia technologicznego środowiska komunikacji zbiorowej, to polem dla takiej refleksji jest właśnie ta emancypacyjna siła cyfrowych reguł, które do nikogo nie należą, nikogo nie preferują, nie mają formalnych ograniczeń. Można je opisać oczywiście jedynie na najbardziej fundamentalnym poziomie gramatyki technologicznego języka cyfrowości, gdzie istnieją cyfry i ich logika, czyli matematyka, oraz elektryczność jako przedmiot materializujący działania matematycznej abstrakcji. Wszystko, co istnieje w tym projekcie powyżej owego bazowego poziomu, jest już polityczne, wchodzi w reakcję z istniejącym systemem – staje się kwestią ekonomii zasobów kultury, społecznego systemu ról komunikacyjnych, regulacji prawnych, itd. Tylko towarzyszące rozwojowi technologicznemu nowego typu kompetencje medialne mogą tu zagwarantować faktycznie uspołecznioną kulturę mediów.
Spór o technikę zakorzenił się w wyobraźni społecznej i kulturowym dyskursie tak głęboko, że jego założeń nie są w stanie naruszyć ani radykalne zmiany technologiczne, które odmieniły oblicze technologii medialnych (cyfrowość, sieci i nowe media), ani rynkowe i polityczne narracje opiewające medialną „wiosnę ludów”. Rzeczywistość społeczna będzie się w tym zakresie zmieniała wolniej od okoliczności politycznych i technologicznych, stosowne zmiany zostaną społecznie wychwycone z czasem i dopiero wtedy status technologii komunikacyjnych ma szansę na zmianę. Analogiczny los spotka zapewne wyobrażenie o obywatelu zanurzonym w medialny świat. Postrzega on i rozumie siebie jako medialnego partyzanta, który znajduje się po przeciwnej niż technologia stronie barykady i stara się medialne maszyny, języki i ekosystem przechytrzyć, wykorzystać i/lub ośmieszyć. Z tego stanu rzeczy wywodzą się wszystkie najpopularniejsze medialne scenariusze rozpoznawane przez antropologów, takie jak przywołane „dzikie instynkty” piractwa, hakingu, anonimowych działań stadnych. Te wszystkie elementy współtworzą taktyczny opór wobec medialnego systemu i jego strategii, jakby to można określić odwołując się do terminologii Michela de Certeau.
W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.
Sytuacja mediów cyfrowych nie da się na tym etapie jasno zdefiniować jako rewolucja społeczna w obszarze komunikacji. W polu technologii wciąż obecne są siły analogowego systemu mediów masowych, które funkcjonują według formuł wypracowanych w okolicznościach upolitycznienia technologii medialnych i instrumentalnego z nich korzystania. Szansą na przezwyciężenie społecznego wywłaszczenia z obszaru technologii komunikacyjnych może okazać się nie partyzancka o nie walka prowadzona na zasadzie redefiniowania kształtu obiegu cyfrowych zasobów, tworzenia i korzystania z software, hardware i interfejsów ale odwrót od myślenia o medialnym świecie jedynie w kategoriach zbiorowych i specyficzny zwrot ku historycznej figurze medialnego rzemiosła. Technologie cyfrowe nie dość, że mają w sobie potencjał zaspokojenia takiego roszczenia, to jeszcze mogą stać się narzędziami faktycznego budowania tego, co społeczne, a nie tylko polityczne czy ekonomiczne. W tym celu potrzebna jest nowa komputeryzacja, która będzie mieć zrewidowany społecznie charakter. Polegać będzie na odrzuceniu fetyszu samodzielnych maszyn i niezgodzie na ich szczególną pozycję w hierarchicznym systemie społecznym. W to miejsce pojawi się ekosystem medialny stawiający w centrum człowieka, a wokół niego medialne narzędzia. To iście kopernikański zwrot.
Trzecim z elementów wyznaczających charakter postmedialnej zmiany jest człowiek i jego biologiczne i psychofizyczne cechy. W cyfrowych okolicznościach staje on naprzeciwko dwóch postmedialnych sytuacji. Pierwszą jest przeniesienie doświadczenia medialnego ze sfery percepcji do sfery interakcji. Drugą zaś przekroczenie szeregu granic o charakterze biologicznym, które dotąd wytyczały terytorium komunikacji i kultury. Sytuacja postmedialna oznacza dla niego wejście na powrót w renesansową integralność doświadczenia medialnego (kulturowego) oraz konfrontację z niedostrzeganymi wcześniej biologicznymi reżimami komunikacji.
Postmedia można w kontekście antropologicznym określić synonimicznie: media wyobrażone. Za sprawą interaktywnych software i interfejsów możliwe jest ich bezpośrednie i niemal nieograniczone formalnie (granicą są tu jedynie parametry hardware), dokonujące się w czasie rzeczywistym, sprzężenie z procesami myślowymi. Domena cyfrowa funkcjonuje na zasadzie nieustannie zapętlonego sprzężenia wyobraźni, języka i medialnej materii: interfejsów, kodu i baz danych. Wyimaginowane idee, fantazje, marzenia, utopie transformują się tu natychmiast w modele symboliczne, czyli wyrażenia językowe (kody kultury) i w dalszej kolejności interferują z materią cyfrowego systemu. Taka relacja pomiędzy wyobraźnią, językiem i materią dotyczy nie tylko programistów, projektantów czy inżynierów, którzy są w stanie dzięki swoim umiejętnościom rozmawiać z technologiami i formować je. Dotyczy także zwykłych jej użytkowników, którzy coraz sprawniej dysponują specjalistycznymi umiejętnościami i mają dostęp do coraz większej ilości zakodowanych w nich zasobów. Obowiązuje tu nieustanny loop transferów danych, obliczeń i sterujących nimi „zasobów” ludzkich. Miękka część cyfrowych mediów, czyli software i interfejsy, to ni mniej ni więcej jak tylko zakodowane i utrwalone cyfrowo wyobraźnia i wnikające/wynikające z niej, odbite i zamrożone w medialnych formach procesy myślowe.
Wejście w cyfrowy świat właśnie z tego powodu okazuje się tak bardzo angażujące – dowodzą tego np. doświadczenia z grami komputerowymi czy programowaniem, którym to czynnościom oddający się potrafią się zupełnie zapomnieć, tracąc kontakt z rzeczywistością offline. Tak wysoki i rozbudowany poziom zaangażowania był dla wcześniejszych form medialnych nieosiągalny. Żadna z nich nie mogła przecież zaoferować dwustronnej wymiany pomiędzy sobą a użytkownikiem, tak namacalnego i uchwytnego w czasie związku przyczynowo-skutkowego i potencjału interaktywności. Żadna z nich nie była w stanie zaangażować w takim zakresie swojego użytkownika w negocjacje własnego programu, definiowanie samego siebie – pozyskiwała jego wyobraźnię tylko w trybie „czytaj”, nie pozwalając mu „pisać” [56]. Wcześniejsze, analogowe kształty wyobraźni medialnej koncentrowały się na odczytaniu (dekodowaniu, dekonstrukcji) medialnego przekazu i jego formy. Wyobraźnia postmedialna pracuje natomiast w dwóch trybach jednocześnie. Potrafi jednocześnie percypować i kreować medialny świat; nie tylko przygląda mu się ale i wizualizuje go; słucha, ale i (d)opowiada go; dotykając czuje, ale i informuje, kształtuje.
Myśl o mediach wyobrażonych zainspirował dla teorii mediów niemiecki badacz Siegfried Zielinski w swojej archeologii mediów [58]. Zielinski sięgnął w niej w technologiczną i dyskursywną przeszłość mediów, odnajdując w niej niepodjęte lub podjęte w niewystarczającym zakresie formy, idee i kierunki rozwoju form technologicznych. Zainteresował się genetycznymi kodami stojącymi za poszczególnymi medialnymi formami, doszukując się płynności, wymienności i nieustannej transformacji w ich ewolucji. Śladami Zielinskiego podążają dzisiaj liczni badacze kultury mediów, ale też – mniej lub bardziej świadomie – ich budowniczowie. W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media zebrani autorzy, teoretycy mediów, poszukują medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się cywilizacji stworzyć. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są jedynie w części realne, a w części imaginacyjne. Formy imaginacyjne, choć nigdy niezmaterializowane, objawiały się „wirtualnym” życiem w zbiorowej wyobraźni i często miewały na nią konstruktywny wpływ[59]. Możliwa jest ich zdaniem alternatywna historia mediów, a zatem i ich krytyczna (transtechnologiczna i transmedialna) archeologia. Kategoria mediów wyobrażonych odnosi się już nie tylko do retrospektywnego spojrzenia na wielowymiarowe dziedzictwo medialnego świata: ma także zwrot ku przyszłości, wskazuje na media potencjalnie istniejące, formy „w budowie” i połączone z nimi dyskursy kulturowe i technologiczne, które dopiero nabierają siły i docelowego zasięgu.
Powróćmy do rozważań na temat medialnej wyobraźni. To nie tylko instancja konstytuująca indywidualne doświadczenie postmedialnego świata i pozwalająca na poruszanie się w nim. To również kategoria kulturowa, która obejmuje wrażliwość i kompetencje komunikacyjne w skali zbiorowej – synergiczna suma wyobraźni jednostkowych. Zaproponowane przeze mnie rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób właśnie na wartości analitycznej obecnego w gruncie rzeczy od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali we wspomnianych naukach Benedict Anderson, wykorzystując ją w studium poświęconym problemowi nacjonalizmu z początku lat dziewięćdziesiątych zatytułowanym Imagined Communities [61], oraz Charles Taylor w głośnej diagnozie społecznej, wydanej dekadę później, zatytułowanej Modern Social Imaginaries [62]. Sens tego pojęcia poszerzył także włoski filozof-marksista Paolo Virno za sprawą ukutego przez siebie terminu ogólnego intelektu [63]. Zbiór wspólnych desygnatów dla obu tych kategorii odwołuje do instynktów rządzących myśleniem i zachowaniem zbiorowości, posiadanych przez ich członków kompetencji, modeli symbolicznych i kodów, przy użyciu których postrzegają, rozumieją i kształtują swoje otoczenie. Dla przywołanych teoretyków status wyobraźni potwierdzają choćby takie elementy, jak wyobraźnia tworząca projekt moderny, wyobraźnia emancypacji, czy wcześniej wyobraźnia religijna. W warunkach nowoczesnego, tj. wyemancypowanego, zurbanizowanego, urynkowionego i posługującego się zaawansowanymi technologiami zbiorowej komunikacji społeczeństwa to właśnie element zbiorowej wrażliwości i wyobrażeń/wyobraźni staje się jednym z kluczowych konstytuantów życia społecznego. Jego ważnym podsystemem jest wyobraźnia medialna i komunikacyjna, która w obliczu epoki cyfrowej i elektrycznej staje się w związku z tym jednym z najważniejszych rezerwuarów sterujących postawami i działaniami komunikacyjnymi.
Bezpośredni link pomiędzy technologiami cyfrowymi a wyobraźnią ich użytkownika/użytkowników to powód, dla którego sytuację postmedialną można opisać za pomocą pojęcia mediów wyobrażonych. Społeczeństwa, kultury, narody obcujące z cyfrową i sieciową zmianą powoli uczą się mówić językiem mediów, wykorzystywać je jako aparat komunikacji z systemami władzy (wikileaks), ekonomii (open source) i samych hierarchicznych mediów (dziennikarstwo obywatelskie). W tym ogólnym sprzężeniu dostępne są formy mniej lub bardziej radykalnego połączenia, z których chyba najbardziej jaskrawą jest projekt rzeczywistości wirtualnej – wirtualności, dla którego modus operandi jest wyobraźnia starająca się na bazie niedoskonałych technologicznie reprezentacji świata zbudować pełnowymiarowy model świata przeżywanego.
Pierwsze słownikowe wyjaśnienia terminu wirtualny odwoływały się do czegoś, co jest wytworem wyobraźni i powstaje w mózgu. Dopiero potem semantyka tego terminu ewoluowała w kierunku światów istniejących dzięki maszynom cyfrowym, powoływanym za ich pomocą do życia. Wciąż jednak pojęcie to odnosi się przede wszystkim do sprzężenia pomiędzy tym, co wyobrażone na poziomie biologicznym i egzystencjalnym, a tym, co jest tego cyfrową reprezentacją i medialnym modelem [64]. Według Jeana Baudrillarda, jednego z najważniejszych znawców relacji pomiędzy rzeczywistością a jej medialnymi modelami/kopiami, wirtualne jest to, co jest bezpośrednią projekcją rzeczywistych doświadczeń do wewnątrz języka technologii medialnych. Wirtualność to cyfrowy projekt, którego wczesną charakterystykę (tj. w okresie kiedy miała ona status osobnego medium) można dziś (w fazie kiedy przeważająca większość cyfrowych systemów i protokołów poddana została wirtualizacji) uznać za kondycję właściwą mediom cyfrowym w ogóle. Wraz z ich wirtualizowaniem dystans pomiędzy medialnym doświadczeniem a medialną wyobraźnią został radykalnie zredukowany. Do poziomu, który, jak wspomniałem, w kontaktach z poprzednimi gramatykami mediacji był nieosiągalny.
Permanentne wpięcie w medialny ekosystem potencjału wyobraźni kulturowej i możliwość jednoczesnego czytania/pisania mediów/mediami to sytuacja, która z jednej strony powoduje nieustanne testowanie i weryfikowanie form mediów i ich bieżącą rekonstrukcję/programowanie prowadzące do ich remiksowania i zanikania. Z drugiej strony sprzyja zacieraniu się w kulturze konceptu mediów jako takich. W ten sposób niezależnie od kontekstu społecznego i technologicznych scenariuszy również w obszarze wyobraźni kulturowej media rozpływają się i znikają, wypełniając w ten sposób warunki kondycji postmedialnej. W miejscach wyraźnych materialnych medialnych kształtów i gramatyk ostają się tylko ich pojedyncze elementy składowe, które wchodzą w różne reakcje pomiędzy sobą.
W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media jego autorzy, teoretycy mediów, skupili się na poszukiwaniu medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się naszej cywilizacji wypracować. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są zawsze jedynie w części realne/ukończone, a w dużej części wyobrażone/imaginacyjne. Nie brak w pracy świadectw medialnych konfliktów, które, wielokroć przypadkowo, pozycjonowały w kulturze technologie mniej ciekawe i obiecujące kosztem tych doskonalszych (np. konflikt VHS kontra BETA)[65]. Ich zdaniem możliwa jest w konsekwencji alternatywna historia mediów, a zatem i ich krytyczna, transtechnologiczna i transmedialna archeologia. Zadaniem jej byłoby odsłanianie alternatywnych medialnych kultur zarówno tych opartych na istniejących formach technologicznych, jak i mediów niezmaterializowanych kulturowo, które zniknęły w mrokach przeszłości, zanim jeszcze na dobre wypłynęły na powierzchnię komunikacyjnej historii. Technologiczny świat mediów poddany rządom społecznej wyobraźni jawi się w analizach tego typu jako konstrukcja płynna, której kształty i losy dyktują nie tylko same technologie, odgórnie przypisane do nich polityki i estetyki, ale także społeczno-kulturowe odczytania i wynikające z nich reguły mocujące te media w systemie społecznym, ostatecznie formatujące ich oblicza i trajektorie.
Medialne wyobraźnie i wrażliwości komunikacyjne oraz mające w nich źródła imaginaria, czyli pojedyncze, utrwalone w czasie, miejscu i formach medialnych wyobrażenia, przekładają się na zespół kompetencji i reguł komunikacyjnych, kształtują medialną wrażliwość i budują dystans wobec mediacji w ogóle. W literaturze anglosaskiej obszar ten zwykło się określać mianem literacies, natomiast najbardziej chyba zasadnym polskim ich odpowiednikiem jest, według mnie, kategoria alfabetyzmów. Pojęcia te opisują sposób rozumienia technologii medialnych i posługiwania się nimi, towarzyszącą im wrażliwość i wyobraźnię medialną. Być alfabetą, posługiwać się alfabetyzmem, to tyle, co potrafić komunikować się za pośrednictwem technologii medialnej i rozumieć jej kulturowy i społeczny sens, osadzenie, ograniczenia. Być zdolnym do porównywania ich z innymi.
Postmedialne okoliczności powodują, że alfabetyzm staje się kategorią bezpośrednio istotną w indywidualnym kontakcie z mediami. Obejmuje on szereg predyspozycji, zasobów wiedzy i kompetencji, które okazują się kluczowymi wytycznymi współczesnego bycia w świecie i rozumienia go. Nie ma bowiem medialnej wyobraźni ani medialnych działań z wyłączeniem języka, kompetencji wizualnych, zmysłu pracy z techniką, tekstem, designem. Pozostaje alfabetyzm także w cyfrowych okolicznościach najważniejszym z dostępnych człowiekowi kulturowych narzędzi poznawczych i służących konstruowaniu świata. Bliskość medialnych procesów i wyobraźni przekłada się na budowane „w locie” medialne kodeksy, czyli zbiory reguł dotyczących posługiwania się mediami. Dla człowieka współczesnego, przynajmniej w obszarze rozwiniętej technologicznie cywilizacji zachodniej, postrzeganie świata i komunikowanie się z/w nim za pośrednictwem technologii komunikacyjnych jest jednym z najważniejszych wymiarów bycia. Medialne pośrednictwo przeniknęło tak głęboko w tkankę kultury, że w zasadzie trudno sobie wyobrazić jego brak. W konsekwencji także i medialne kompetencje, wrażliwość i zdolności stają się jednymi z najbardziej znaczących regulatorów kulturowych. Analfabetyzm medialny jest w tych okolicznościach niczym innym, jak tylko rozszerzoną wersją dobrze kulturze znanego zjawiska analfabetyzmu, który jest najważniejszą z trosk systemów edukacji i kultury i wciąż jednym z niepodważalnych wyznaczników rozwoju cywilizacyjnego.
Doświadczenie sytuacji postmedialnej wykracza poza granicę wytyczoną przez media w ogóle i, na powrót, okazuje się bardzo bliskie posługiwaniu się językiem. Polega na uznaniu pełni barw medialnego spektrum form i interfejsów i wymieszaniu ich technokulturowych cech. Tym samym, zataczając historyczną pętlę, sytuacja ta upodabnia się do kondycji premedialnej (przedtechnologicznej), za jaką uznajemy zjawisko mowy i regulujące je zasady języka. Samego języka nie sposób uznać za technologię medialną, choć taki status przypisany został w dyskursie medioznawczym piśmienności, alfabetowi i wszystkim kolejnym, wynikającym z nich, mowo- i pismopochodnym technologiom mediacji (radiu, telefonii). Język ma naturę poprzedzającą wszelkie technologie pośredniczące w komunikacji – jest najbardziej zinternalizowanym, intymnym i symbolicznie pierwszym, referencyjnym pomostem pomiędzy osobą a światem i innymi osobami, najważniejszym naturalnym „interfejsem” homo communicans. Nie da się go odseparować od mówiącego, jest przymiotem osoby, a nie (nie tylko) stworzoną przezeń formą/technologią, choć wpływom technologii, różnego rodzaju remediacjom poddaje się nieustannie. Różni się także od pozostałych naturalnych form postrzegania świata, w które człowiek został wyposażony. Pozwala nie tylko „widzieć”, ale i projektuje/kreśli „obrazy”, nie tylko „słyszy”, ale i wzbudza dźwięk. W tym sensie jest nie tylko pośrednikiem w postrzeganiu i rozumieniu rzeczywistości, ale i taktylnym narzędziem jej konstrukcji – wielkie religie pouczają, że świat zaczyna się od wypowiedzianych przez Boga słów, a powszechnie wierzymy, że niczym nie można dotknąć bardziej, do żywego, niż słowem.
Język uwikłany w medialne formy wciąż zasobny jest w swoje pierwotne przymioty, ale jednocześnie jego pole znacznie się, pod wpływem interferencji tych technologii, poszerza. Mówić, we współczesnej kulturze, to już nie tylko posługiwać się naturalnym aparatem mowy i słuchu czy pisma. To także, a w wielu sytuacjach przede wszystkim, komunikować się za pośrednictwem dostępnych maszyn i form medialnych (nie tylko tych, które – jak telefon, gramofon czy książka – zostały poświęcone utrwaleniu i transmisji mowy/pisma jako komunikatu akustycznego i wizualnego). To posługiwać się mediami z równą atencją i kompetencją, które umożliwiają akt mowy. Analfabetyzm medialny wyklucza dziś z życia społecznego i kulturowego, podobnie jak niegdyś wykluczał, skazywał na marginalizację, tradycyjny analfabetyzm związany wyłącznie z kulturą piśmenności. Mówić, to znaczy zarówno posługiwać się mową czy pismem, jak i wszelkimi technologicznymi przedłużeniami tych naszych naturalnych interfejsów (McLuhan) – pod warunkiem, że są to narzędzia działające na podobieństwo języka, to jest działające w obu komunikacyjnych kierunkach, od i do mówiącego, interaktywnie (jak to precyzuje dyskurs nowomedialny).
Wpływ technologii na język mówiony i pismo wydawał się szczególnie widoczny w obliczu Galaktyki Gutenberga, w której przejął od technologicznych form druku i drukowanej logiki narracji takie elementy, jak choćby indeksowanie, linearność, precyzję, gramatykę, itd. [69]. Technologizowana w ten sposób mowa stojąca w obliczu swojego technologicznego alter ego została w swej pierwotnej wersji zepchnięta na margines zdarzeń medialnych w epoce mediów analogowych (nie licząc telefonii i radia), przekształcając się w tekstualność. Wraz z nadejściem mediów elektrycznych, a szczególnie nowych mediów, na nowo staje się konstytutywnym dla kultury elementem – Walter Ong twierdzi nawet, że wraz z mediami transmitującymi ludzką mowę w formie akustycznie zbliżonej do oryginału pojawia się w kulturze wtórna oralność. Najpierw język spłodził pismo, pismo ewoluowało w kierunku kodów liczb i matematyki, jako ich gramatyki, oraz pisma w rozumieniu komunikacji językowej. Obecnie mamy do czynienia zarówno z językiem pisma, jak i językiem/pismem matematyki. Ich wzajemne relacje są, to naturalne, złożone i wielowymiarowe, jednak w alfabetyzmie, przez który rozumiemy dzisiaj technologie medialne i mówimy nimi/je, te osobne kształty języka schodzą się na powrót [70].
Bliskość medialnej wyobraźni, języka i technologii cyfrowych tworzy przestrzeń kulturową, która domaga się nieustannej systematyzacji i refleksji. Na obecnym etapie kompetencji medialnych rozwijają się niektóre jedynie elementy składające się na ten konglomerat. Równomierne i bezpieczne kulturowo rozwijanie kompetencji komunikacyjnych będzie miało zasadniczy wpływ na system edukacji, społeczną ekologię informacji czy ekosystem medialny. Zmienić się zatem będą musiały także systemowe rozwiązania związane z konstruowaniem i dystrybucją kompetencji medialnych. Obok już istniejących metaalfabetyzmów – piśmiennego i wizualnego objawia się nowa różnica rozpinająca się pomiędzy alfabetyzmami analogowym i cyfrowym.
Kształt nowego, cyfrowego alfabetyzmu wydaje się wyłaniać z kilku źródeł. Są nimi wspomniana już przeze mnie zdolność nie tylko do czytania mediów (epoka kultury masowej), ale i do ich pisania, mówienia nimi i współtworzenia – czyli podobieństwo gramatyki cyfrowego języka i jego fenomenologii do aktów mowy i konstrukcji językowych. Drugim najbardziej generalnym dogmatem cyfrowej wyobraźni medialnej i towarzyszących jej kompetencji komunikacyjnych jest świadomość natury cyfrowego kodu, która oznacza oswojenie z dematerializacją zawartości informacyjnej (symbolicznej) i form medialnych, uznanie ich hybrydycznego statusu ontycznego. Trzecim źródłem okazuje się wiara w liberalizującą i zapewniającą postęp siłę samej technologii. Cyfrowe kompetencje biorą się także z kulturowego przeświadczenia o zapisanej w postępie technologicznym obietnicy nieustannego rozwoju społecznego (której nie potrafi już zagwarantować polityka [71]).
Wspomniane źródła tworzące zręby nowego alfabetyzmu można, naturalnie, zredukować do szeregu mniej ogólnych konsekwencji. Wiele z nich, często odseparowanych od holistycznego kontekstu, służy jako budulec różnego rodzaju mitologii i strategii politycznych, ekonomicznych i technokratycznych. Jedną z nich jest choćby omówiona już wcześniej narracja Web 2.0 czy mity związane z funkcjonowaniem collective intelligence. Cyfrowa alfabetyczność stała się także przedmiotem troski różnego rodzaju organizacji rządowych, ministerstw i podmiotów międzynarodowych, które – w imieniu dotychczas istniejącego systemu komunikacji społecznej – rozpoczęły szeroko zakrojone działania mające na celu wykorzystanie tej optymistycznej retoryki do realizacji strategii odgórnego dystrybuowania oficjalnie opracowanych i uznanych modeli postępowania z cyfrowymi mediami. Także i nauka na obecnym etapie rozpoznawania i teoretyzowania nowego medialnego świata jest w stanie absorbować jedynie niektóre wątki tej zmiany. Dotychczas wielu teoretyków zabierających głos w sprawie natury cyfrowego alfabetyzmu skupiało się głównie na podkreślaniu jego transmedialności i inspirowaniu kreatywności. Pojawiały się diagnozy mówiące o możliwości skupienia się na ideach przekazywanych przez media zamiast na ich technicznych formach, o wolnym dostępie do informacji, o komunikacji możliwej ponad tradycyjnymi ograniczeniami czasu i przestrzeni [72]. Krytyczną edukację medialną wziął na siebie natomiast dyskurs sztuki mediów wraz z alternatywnymi środowiskami kultury medialnej. Nie wchodząc w ten temat głębiej, stwierdzę tylko, że to instytucjom i organizmom cyberkulturowym nowego typu: medialabom, centrom sztuki nowych mediów, uczelnianym klasterom i hubom, organizacjom pozarządowym, współczesność zawdzięcza zręby krytycznej wiedzy i świadomości cyfrowych mediów i sieci oraz inspirowanie rozwoju zupełnie nowych dyskursów i platform debaty związanych z tymi zmianami [73]. Oficjalne podmioty polityczne, administracja państwowa, instytucje tradycyjnej sztuki i edukacji zdają się wciąż postrzegać zarówno zmianę w medialnym świecie, jak i rekonstrukcję medialnego języka jako przestrzeń, którą da się klasycznymi sposobami i według klasycznych metod okiełznać i wykorzystać – w oparciu o istniejące rozwiązania prawne, instytucjonalne i rynkowe odnoszące się do własności intelektualnej, kontroli nad ekosystemem informacyjnym, dystrybucji techniki, itd.
Przejdę teraz do wstępnego szkicu postaw, do których przyjmowania i internalizowania mogą ośmielać swoich użytkowników cyfrowe media, nowy alfabetyzm i cyberkulturowe otoczenie. Odwołam się w tym celu w pierwszej kolejności do H. Arendt, przypominając jej filozoficzne rozpoznania kondycji ludzkiej. Filozofka zdefiniowała przemysłową, odtwórczą pracę jednostki jako zniewolenie, przeciwieństwo pełnego życia opartego na nieskrępowanym, kreatywnym działaniu i tworzeniu. Śladem Arendt można uznać, przypomnę, iż animal laborans to figura bliska kształtom medialnego konsumenta, bezmyślnego i manipulowanego elementu masowej publiczności mediów analogowych. Można też powiedzieć, że to postać posługująca się biernym alfabetyzmem czytelnika medialnego tekstu, który nie ma możliwości go zwrotnie mówić/pisać. Przeciwieństwem tej figury jest dla filozofki homo faber. To robotnik emancypujący się z niewoli powtarzalnej, mechanicznej i odtwórczej pracy. Arendt dowartościowuje w nim sferę działania (vita acitva), która w tradycji filozofii i kultury zachodniej została – także na skutek masowej produkcji przemysłowej, fordyzmu i mediatyzacji kultury – zdewaluowana na korzyść refleksyjnego i intelektualnego vita contemplativa [74]. W rezultacie przestrzeń rozciągniętą pomiędzy wyrobnikiem w technopolu a oddającym się jedynie myśleniu intelektualiście zagospodarowuje i odczarowuje świadomy swej roli i kompetentny rzemieślnik. W jego oglądzie i rozumieniu świata nie ma sztywnych, systemowych granic pomiędzy tym, co pomyślane, a tym, co stworzone z materii rzeczywistości, pomiędzy ideą i wyobraźnią a ich materializacją. Homo faber splata refleksyjność i działanie, czyniąc z nich, na powrót, nierozłączny w praktyce codziennego praktykowania życia monolit. Przy okazji neutralizuje homo faber także upolitycznione relacje pomiędzy sferą prywatną i publiczną, tworząc za sprawą swoich holistycznych działań sferę publiczną, bez której kategorie komunikacji społecznej czy mediów społecznych mają ograniczony sens.
Figura homo faber wydaje się modelowym przykładem aktywności inspirowanych w cyfrowym świecie i w dużej mierze już dziś widocznych w jego praktyce. Tę figurę podjęli jako pierwsi artyści pracujący z mediami, dla których łączenie wrażliwości estetycznej i artystycznej z wiedzą inżynierską i matematyczną okazało się zarówno naturalną ścieżką pracy, jak i koniecznością w kontakcie z coraz bardziej skomplikowanymi formalnie technologiami medialnymi, wybranymi przez nich artystycznym tworzywem. Miejsce artysty-romantyka wychowanego w oparach nowoczesności w obszarze sztuki nowych mediów zająć musiał sprawny technicznie artysta-rzemieślnik, osławiony przez mitologię cyfrowej rewolucji programista, inżynier, technolog wyposażony w krytyczną wrażliwość i wyobraźnię estetyczną. Homo faber to historyczna figura porzucona w okresie medialnej konsumpcji i medialnego fordyzmu, którą na nowo wywołuje stan postmedialny. Postmedialność ustawia medialny krajobraz przez wycofanie podmiotu z upolitycznionej i zawłaszczonej ekonomicznie sfery konsumpcji mediów i ich systemowego współtworzenia w ramach projektu mediów społecznościowych, interaktywnych i okoliczności transmedialności. Prowokuje w to miejsce restytucję postaci medialnego rzemieślnika, który łącząc praktyki postprzemysłowe i prosumpcyjne zarówno sensie materialnym (hardware – vita activa) jak i symbolicznym (software – vita contemplativa) struga, lutuje, projektuje, muruje, skręca, zdobi, sieciuje: konstruuje i rekonstruuje medialny świat, na nowo dekolonizując go mimowolnie/świadomie spod wpływu medialnego systemu kultury masowej. Dla homo faber nie mają znaczenia odsłonięte przez C. P. Snowa granice i różnice pomiędzy odseparowanymi przestrzeniami nauki i kultury [75]. Świat mediów cyfrowych to przestrzeń zaludniona przez emancypującego się z podziałów i reguł analogowej epoki technologii i politycznych/ideologicznych systemów medialnych cyfrowego homo faber. Współcześni geekowie, hackerzy, designerzy, programiści nie czynią sztucznych podziałów pomiędzy działaniem twórczym, pracą i kontemplacją życia. Rozłączone dotąd sfery nowoczesnego życia sklejają w codziennej pragmatyce swojego medialnego działania.
W ten sposób po epoce oświeconych specjalizacji i obiektywnych, scjentystycznie wyprowadzanych praw przypisanych do różnych dyskursów, dziedzin życia i dyscyplin naukowych powraca holistyczna wizja działania kulturalnego, której historycznie zawdzięczamy np. wspaniały rozkwit kultury renesansowej. W pierwszych słowach Traktatu o malarstwie Leonardo da Vinci, dziś uznawany za najbardziej emblematyczną i modelową z osobowych ikon renesansu, zalecał młodym adeptom sztuki malarskiej, by rozpoczynali swoją karierę od porządnych i wszechstronnych studiów zasad geometrycznych i praw natury. Jedynie wyposażeni w taką wiedzę i wynikającą z niej wyobraźnię będą w stanie oddać idee i kształty w formie obrazów [76]. Florencki mistrz wyraził na kartach swojego podręcznika ówczesne przekonanie dotyczące charakteru pracy artystycznej i zakresu kompetencji i umiejętności, którymi artysta powinien się cechować. Artysta nie może sobie pozwolić na niestaranną i niepełną wiedzę z zakresu matematyki, fizyki, filozofii, chemii, astronomii – wszystkie te zasoby potrzebne mu są do tego, aby był w stanie wypowiedzieć się kompetentnie w obszarze sztuk wizualnych, ale także architektury, rzeźby, muzyki.
W ten sposób sztukę, kulturę i pracę pojmowali także inni renesansowi wielcy mistrzowie, którzy równie twórczo i kompetentnie realizowali się jako inżynierowie, artyści i naukowcy. Tak działali i żyli Filip Brunelleschi, Rafael Santi czy Michał Anioł Buonarotti. W renesansowej praktyce rozmyty został w ten sposób tradycyjny, antyczny podział na techné i episteme, czyli obszar umiejętności związanych z mechaniką, a zatem i materią, oraz wiedzą, którą dziś określamy najczęściej jako teoretyczną. Zarówno w greckiej, jak i rzymskiej hierarchii wiedza i umiejętności związane z materią i jej mechaniką, czyli rzemieślnicze, oceniane były najniżej. Postrzegano je jako najmniej godne człowieka wolnego. Artyści cinquecento byli jednak z wyboru zarówno filozofami, jak i rzemieślnikami, równie sprawnie pracowali w obszarze idei, jak z materią. Da Vinci i jemu współcześni postawili sprawę jednoznacznie: sztuka to nauka, dzieło artysty jest zarówno ideą do wiedzy dzięki nauce się odnoszącą, jak i jej materialnym przejawem. Sam Leonardo u schyłku życia jednoznacznie definiował siebie samego jako człowieka nauki, niechętnie posługując się w kontekście kategorią „artysta” [77].
Za sprawą sztuki mediów i jej twórców wiedza i nauka na nowo trafiają do świata sztuki. Trudno przecież w obliczu niezwykłego zaawansowania technologicznego mediów uprawiać ich sztukę, kiedy nie dysponuje się wiedzą z zakresu programowania, optyki, fizyki, inżynierii, typografii, itd. Artyści pracujący w tym obszarze są z tego powodu współczesną awangardą sztuki w ogóle. Model artystycznej pracy z mediami powiela się w pracy programistów i inżynierów medialnych, którzy nie posiadając wiedzy z zakresu projektowania graficznego, typografii, psychologii kolorów, antropologii interakcji, nie są w stanie ani przemyśleć, ani realizacyjnie doprowadzić swoich projektów samodzielnie do końca. Homo faber pracujący z nowymi mediami uwikłany/skazany jest na nieustanne odnoszenie się do różnych gałęzi rozproszonej po dyscyplinach wiedzy i jej integrowanie w ramach realizowanych z mediami działań. To rzemieślnik technologicznej, medialnej materii (hardware) i filozof, teolog medialnych idei (software) – artysta, który w swoich dziełach integruje te sfery i nadaje im kulturową, tj. estetyczną twarz. Peter Weibel, jeden z najważniejszych współcześnie artystów medialnych oraz kurator sztuki mediów i jej organizator, podsumowuje, wyrażając przekonanie wielu przedstawicieli tego środowiska, tę bliskość parafrazując znane słowa Erazma z Rotterdamu: artysta mediów nie może być głupi – musi być naukowcem! [78] W tym holistycznym i renesansowym duchu sens projektu cyfrowego postrzega także polski badacz nowych mediów i ich sztuki Piotr Zawojski, który definiując cyberkulturę podkreśla syntopijny związek sztuki, nauki i technologii na nią się składających [79].
Przechodzenie ku kondycji postmedialnej w duchu renesansowych idei potwierdzają także ci badacze cyfrowych technologii i ich kultury, którzy w centrum swojego zainteresowania nie lokują sztuki mediów. Jednym z nich jest Ben Shneiderman, profesor informatyki zajmujący się ewolucją systemów komputerowych. W swoich rozważaniach Amerykanin odnajduje renesansowe inspiracje między innymi w paradygmatycznej zmianie w obszarze komputeryzacji: przejściu pomiędzy old computing a new computing [80]. W starym ekosystemie cybertechnologicznym człowiekowi powierzona została rola ostatniego, dodatkowego ogniwa. Jego zadanie było proste: instruować maszynę odnośnie do wykonywanych przez nią sekwencji, nadzorować poprawność ich kalkulowania oraz odbierać wyniki tego procesu. Funkcjonalnym centrum cybernetycznego świata był w tej fazie komputer: jego rdzenie obliczeniowe, szybkość prowadzonych kalkulacji, zdolność do przechowywania danych, umiejętności łączenia się z innymi maszynami.
Pierwsza ze zmian, której należy dokonać na drodze ku nowej komputeryzacji – sugeruje amerykański wizjoner – to dekonstrukcja tej maszynocentrycznej fazy. Ma ona polegać na przesunięciu inżynierskiego, technokratycznego punktu ciężkości w rozwoju cybernetycznego świata, opierającego się wyłącznie na „racjonalnych” parametrach, w kierunku potencjału człowieka. Nowa komputeryzacja winna odwoływać się do logiki ich docelowych użytkowników, ich wrażliwości, potrzeb, wartości, zdolności i ograniczeń. Druga, paralelna, transformacja miałaby polegać na przejściu od maszynocentrycznych czynności automatycznych do skupionych na użytkowniku modeli dostarczania usług i zasobów – to wizja tzw. universal usability, czyli uniwersalnej użyteczności cyfrowych maszyn. Na potrzeby tego porządku pojawią się już niebawem komputery kwantowe, które zastąpią komputery elektroniczne i dotychczasowe kulturowe kody cyfrowości. W miejsce modelu: 1 plik, 1 odbiorca, 1 przestrzeń, 1 czas pojawi się alternatywa w postaci: x plików, x odbiorców, x przestrzeni i x czasów. Każdy, wszędzie, o każdej porze – oto formuła przyszłości cyfrowej, w której dotychczasowy user zyskuje zdolność do permanentnego zanurzenia w cyfrowych sieciach. Użytkownik przyszłości staje się interfejsem pomiędzy sztucznym światem wirtualnym i realnym. Tym samym, za sprawą usera, światy wirtualny i realny będą się ze sobą przeplatać na tysiące różnych sposobów i będą od siebie nierozerwalnie zależne, a cyfrowe technologie z opartych na elektronach ewoluują do form opartych na fotonach.
Nowa komputeryzacja ma być narracją kulturową, która wyniesioną na piedestał ikonę rewolucji technologicznej maszynę obliczeniową zastąpi nową; dla jej użytkownikaa komputer będzie jedynie narzędziem. Przykładem myślenia o cyfrowym świecie w duchu podmiotocentrycznym jest ruch Do-It-Yourself, czyli środowiska i społeczności, które łączy pasja wspólnego kreatywnego „psucia” i remiksowania już istniejących mediów, ale także idea budowania od podstaw alternatyw dla oficjalnie dystrybuowanych rozwiązań technologicznych [81].
Trudno ten paradygmatyczny zwrot postulowany przez Shneidermana rozumieć inaczej, jak tylko na zasadzie odwrócenia procesów zaobserwowanych przez Arendt. Tak jak niegdyś nowoczesny animal laborens zastąpił w medialnym świecie homo faber, tak dziś, w cyfrowych okolicznościach, dochodzi do emancypacji konsumenta/odbiorcy podejmującego na nowo rolę medialnego rzemieślnika: twórcy i wytwórcy. Laptop Leonarda – taki tytuł dał swojej książce Shneiderman – to komputeryzacja w rękach człowieka renesansu, będącego zarazem artystą i programistą, architektem i elektronikiem, znawcą anatomii i specjalistą od baz danych i wyszukiwarek. Medialny homo faber holistycznie obejmuje praktykowanie technologii cyfrowych i sieciowych jako zarazem artystyczną i techniczną, materialną i ideową, komunikacyjną i poznawczą aktywność. Na obecnym etapie rozwoju sztuki, technologii i kultury mediów cyfrowych najbliżej do tego modelu artystom mediów. Znacznie trudniej w takiej praktyce działania odnaleźć się technologom i technokratom przekonanym o wyższości oświeceniowej wizji techniki i wiedzy. To wyzwanie dla obu postaw, aby w cyberkulturowym pędzie współczesności uzgodnić wzajemne relacje i na nowo zdefiniować kompetencje kulturowe związane z tworzeniem wiedzy i jej relacjami z rozwojem technologicznym i jego cyfrowymi formami. Pozostaje pytaniem otwartym, o ile unikalne rozumienie i konstruowanie świata ludzi renesansu okaże się wartościowe i pożądane dla stymulowanych przez cyfrowe maszyny medialne współczesnych modeli i strategii życia [82].
Postrzeganie postmedialnych okoliczności i doświadczeń w duchu renesansowym wypada zbalansować skrajnie przeciwną tendencją, której wpływ na kształt współczesnego dyskursu humanistyki jest znacznie bardziej uchwytny i zauważalny. Ogniskuje się ona wokół sfery biologicznej i stara się dyskursywnie poszerzyć rozważania na temat człowieka i kultury o obszar biologii, genetyki i ekologii. Chodzi o wywołany równolegle z pojawieniem się technologii cyfrowych, za sprawą odkrycia DNA i badań jego struktury/właściwości, dyskurs poświęcony ontycznej naturze życia i biologicznej, genetycznej charakterystyce człowieka jako gatunku oraz naukowemu definiowaniu życia. W rezultacie coraz większej popularności rozważań o świecie, człowieku i kulturze, dokonujących się w kontekście biologicznej natury życia, wykształcił się dyskurs posthumanizmu (inaczej nazywanego również transhumanizmem, choć to określenie odnosi się bardziej do możliwości technologicznego poszerzania definicji organizmu i jego zdolności [83]). Wraz z nim pojawiły się takie kategorie, jak biomedia, a semiocentryczny (uznający kulturę za komunikację) i cybernetyczny (uznający za komunikację wymianę napięć elektrycznych) model komunikacji uzupełniono o dyskursywne (w polu sciences) konceptualizacje poświęcone problematyce komunikacji genetycznej oraz zachodzącej pomiędzy ludźmi na poziomie niekulturowym (feromony, fale, zapachy), a także komunikacji transgatunkowej: pomiędzy ludźmi a innymi organizmami żywymi (DNA uznany został za kod – do konsekwencji tej decyzji wrócę w kolejnym rozdziale) i wreszcie pomiędzy nimi samymi. Jednocześnie twórców technologii cyfrowych niemal do białości rozpalała wizja sztucznej inteligencji, czyli możliwości stworzenia komputerowych systemów zdolnych do naśladowania ludzkiego myślenia, jego usprawnienie i uniezależnienie, w konsekwencji, od funkcjonowania mózgu, organizmu i człowieka. Systemy te powstać mają jako efekt zaawansowanych badań nad poznaniem ludzkiego genomu oraz tworzenia kognitywistycznych i behawioralnych modeli działania ludzkiego mózgu i systemu nerwowego w ogóle. Zbliżenie projektu cyfrowego z dokonaniami i wiedzą z zakresu biologii zaowocowało syntetycznymi teoriami ojców-założycieli cybernetycznego świata: Turinga, Wienera i wielu innych postępowych cybernetyków.
Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].
Dekadę później ten dyskurs jest już jednak na innym etapie swojej ewolucji. Z jednej strony posthumaniści upewnili się co do swojego przypuszczenia, iż rodzaj ludzki w swej obecnej formie jest dopiero w początkowej fazie rozwoju, zaś szansą dla całego gatunku jest rozwój technologiczny i możliwa dzięki niemu cyborgizacja natury ludzkiej. Z drugiej strony, współcześni posthumaniści coraz śmielej przyglądają się komunikacji transgatunkowej, której rozpoznania i konceptualizacje prowadzą do wniosków, że człowiek nie jest jedynym gatunkiem zdolnym do komunikowania się. Tym samym znaczenie czynnika technologicznego w praktyce tego dyskursu osłabło. Został uznany za jeden z wielu mających wpływ na nową sytuację kultury. W ten sposób z idei i teorii posthumanistycznych wyrósł także transhumanistyczny model komunikacji. Cary Wolfe, amerykański literaturoznawca i kulturoznawca, badacz dyskursu posthumanistycznego, sądzi, że punktem ciężkości transhumanizmu jest podważenie obowiązującego dotychczas w kulturze i nauce antropocentryzmu. Kulturowym wyzwaniem jest dzisiaj tworzenie etyki uniwersalnej, której zasięg obejmie poza ludzkimi zwierzętami także inne gatunki (non-human animals), dzięki niej możliwy ma być demontaż partykularnej, antropocentrycznej etyki tradycyjnej i nowy pluralizm jej form [85]. Wolfe fundamenty swojej teorii lokuje w krytyce derridiańskiej dekonstrukcji, która na długie lata zawładnęła studiami kulturowymi. Kultura i wszelkie jej wytwory są nie tylko tekstem, który można i należy dekonstruować poszukując ukrytych wymiarów, struktur i znaczeń, ale także, a może przede wszystkim, przestrzenią życia biologicznego, którego złożoność wciąż nie jest dobrze rozpoznana i która została w humanistyce przesłonięta przez zwrot lingwistyczny. Miejsce tekstocentrycznego antropocentryzmu winien zająć uniwersalny dyskurs poświęcony uznaniu podmiotowości, która obejmować będzie już nie tylko człowieka, ale i gatunki ujarzmione w jego swojego panowania [86].
Posthumanistyczna retoryka, choć skupiona coraz bardziej na elementach biologicznych i kierująca się w stronę propozycji transhumanistycznych, ma wciąż dużo wspólnego z dyskursem cybernetycznym i innymi związanymi z rozwijaniem i upowszechnianiem projektu cyfrowego. Wiele z posthumanistycznych wizji i hipotez zostało przejętych do powszechnej narracji związanej z rozwojem cyfrowości, co dodatkowo sprawia, że również z tej perspektywy stają się one przedmiotem ogólnokulturowej debaty. Pojawienie się wspomnianych tu pojęć i żywiołowa, budząca kontrowersje debata wokół nich prowadzi do pytań, na które odpowiedzi mogą zmienić nie tylko medioznawczy i humanistyczny stosunek do takich pojęć, jak nadawca, odbiorca, komunikat, kod, medium, ale prowadzić mogą również do redefiniowania uznanej wiedzy o podmiotach działań komunikacyjnych/kulturowych oraz radykalnie przekształcić kulturową przestrzeń mediacji/komunikacji [87]. 7 lipca 2012 roku grupa neurologów, neurofarmakologów, neurofizjologów i neuroanatomów związanych z Uniwersytetem w Cambridge podpisała deklarację potwierdzającą istnienie świadomości u zwierząt i postulującą w związku z tym zmianę podejścia nauki do świata organizmów żywych [88]. Choć to tylko jeden z epizodów, które wyznaczają koloryt tego dyskursu, to można na jego podstawie łatwo zorientować się co do ciężaru gatunkowego całej debaty. Podejście posthumanistyczne rezonuje wzrastaniem pojęć, które stają się także coraz bardziej istotnymi elementami konstytuującymi dyskurs cyberkulturowy i opisującymi dynamikę współczesnego świata w ogóle.
Kategorią, która bodaj najlepiej i najbardziej holistycznie łączy oba te dyskursy jest pojęcie biomediacji i wywołujących ją biomediów. Eugene Thacker, teoretyk mediów zajmujący się biomediacjami, sytuuje je w kulturowym i biologicznym zarazem polu, w którym spotykają się i reagują ze sobą kody życia, czyli zakodowane w genomach „informacje” i instrukcje, z kulturowymi kodami technologii. Biomediacje biorą się z faktu odkodowania informacji zapisanych w genomie, ale jednocześnie z faktu, iż takie odkodowanie interferuje z procesami i zjawiskami kulturowymi. Stają się nową modalnością kultury współczesnej, nowym punktem referencyjnego odniesienia dla takich form kulturowych, jak komunikacja, technologie, polityka [89]. Biomedia to pojęcie, którego semantyka wskazuje w rezultacie na możliwość cybernetycznej manipulacji kodem DNA oraz konstruowania cybernetycznego świata na podstawie matryc i modeli, które odsłaniają badania natury DNA i mechanizmów naturalnego życia. Tworzą informacyjną rekontekstualizację biologicznych zjawisk i procesów, która ma nie tylko znaczenie medyczne, ale wpisuje się także w kulturowe, społeczne, polityczne i naukowe dyskursy i praktyki [90]. To, inaczej mówiąc, postrzeganie biologicznego „kodu” jako bazy danych, którą można zarządzać za sprawą odpowiednio przygotowanego software oraz posługiwanie się wzorami, regułami, „Interfejsami” zawartymi w różnych formach biologicznego życia jako wzornikami form technologicznych, modelami mediacji i komunikacji, ekologii kultury.
Bardziej ogólne rozpoznanie biomediacji i jej kulturowych oraz technologicznych uwarunkowań znajdziemy w filozoficznej antropologii techniki Bernarda Stieglera. Jego zdaniem antropogeneza implikuje technogenezę, co oznacza, że historię technologii medialnych można interpretować jako doskonalenie form technicznych, które naśladują naturę i stanowią protezy wytyczające kształt życia w świecie. Stiegler pisze:
Łapy stają się rękami, kiedy zaczynają posługiwać się instrumentami i narzędziami. Dłoń pozostaje sobą dopóty pośredniczy w dostępie do sztuki, do sztucznego i do tekhné. Stopy mają wymiar ludzki dokąd niosą samodzielnie ciężar człowieka, a jego ręce wypełniają ich przeznaczenie, oferują możliwości manipulowania światem, nowe relacje pomiędzy dłonią i twarzą, mową i gestem… [91]
Oba procesy przebiegają równolegle, a w rezultacie technika i człowiek są ze sobą nierozerwalnie sprzężeni. Człowiek wynajduje technikę, a technika stwarza człowieka. W tej sytuacji trudno pominąć biologiczny aspekt tego zapętlenia i doniosłość sfery organicznej dla kształtu komunikacji. Biomediacje to jeden z naturalnych stanów kultury, a w nowomedialnym języku związek pomiędzy biologią a kulturą można porównać do hybrydy: hardware (biologia) i software (kultura), dla których człowiek jest referencyjnym, naturalnym interfejsem i systemem operacyjnym.
W tej części pracy zajmę się cyfrowym kodem. Uznaję go za substancję kondycji postmedialnej: jest on zawsze (w różnych software’owych i interfejsowych wcieleniach) samozwrotny i autoreferencyjny; pełni funkcję zarazem instrukcji informującej maszynę i jej interfejs co do logiki i formy potencjalnego działania, jak i jestmaterializującym się w medialnych faktach działaniem cyfrowym. Postmedia zaszyfrowane w kodzie cyfrowym są zarazem nieustannie potencjalne, jak i gotowe na różne, natychmiastowe wywołania i egzekucje. Posługiwanie się nimi oznacza podtrzymywanie tego kodu w stanie nieustannej płynności, niedopowiedzenia – zarówno wybranych jego ciągów zmieniających się na zasadzie update, personalizacji, przykładanych interfejsów, jak i w przeróżnych konfiguracjach środowiskowych, kiedy ciągi kodów napotykają na siebie w działaniu, muszą się ze sobą „uzgadniać” i „współpracować”, być lub nie być kompatybilne. Płynność ta, jednocześnie, w kontakcie z użytkownikiem, maszyną, interfejsem natychmiast się materializuje, zastyga w postaci jakiejś formy komunikacyjnej, powstrzymując na chwilę nieustanny ruch w bazach danych [97].
Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.
Zrozumienie natury i odkrywanie reguł matematyki oznacza dla tego klasycznego dla kultury europejskiej filozofa zdobycie mądrości, która pozwala na odsłanianie śladów doskonałości boskiego planu. To tradycją filozoficzna, astrologiczna, muzyczna i architektoniczna, którą stworzyli tacy wielcy intelektualiści, jak poza już przywołanymi: Johannes Kepler z matematyczną teorią budowy kosmosu czy Kartezjusz, który cyfry i matematykę uczynił podstawą myślenia naukowego. W siedemnastym stuleciu te liczbowe i matematyczne intuicje dobitnie potwierdził filozof Gottfried Wilhelm Leibniz, formułując swoje słynne zdanie: Cum deus calculat et cogitationem exercet, fit mundur (Gdy Bóg liczy i przemyśliwa, świat powstaje) [99] . W swojej pokartezjańskiej filozofii ugruntował w ten sposób pozycję matematyki i przekonanie o matematycznej naturze świata, wytyczając nowoczesną drogę dla teorii cybernetycznych i towarzyszących im maszyn kalkulujących w postaci teorii mathesis universalis, czyli uniwersalnej metody poznawczej i nauki, za których pomocą da się poznawać (przeliczać) rzeczywistość według reguł matematycznych [100]. Wiarę w uniwersalną matematyczność świata, jak nazywa tę jego cechę współczesny kosmolog i filozof nauki Michał Heller, potwierdzają nie tylko filozoficzne teksty różnych epok, ale i wiele innych kulturowych śladów minionych czasów, takich jak proporcje architektoniczne zawarte w egipskich piramidach czy gotyckich katedrach. Także i współcześnie zadziwia i inspiruje doskonałość matematycznych proporcji wpisana w strukturę bryły Cathédrale Notre-Dame de Chartres czy renesansowych, stosowanych w druku, malarstwie i architekturze poszukiwaniach i interpretacjach złotego podziału (łac. divina proportio). Inaczej mówiąc, wprost lub pośrednio, totalnie lub we fragmentach kultura i świat postrzegane bywają od momentu wynalezienie liczb i matematyki jako ich aplikacja, wcielenie. Wspomniana matematyczność to, obok racjonalności cechy świata pozwalające na jego badanie przy pomocy metody matematyczno-empirycznej, której kultura zawdzięcza oświecenie, nowoczesność i konstytucję współczesnych nauk i techniki.
Teza o boskiej/kosmicznej/pierwotnej/transcendentnej roli liczb i matematyki towarzyszy, jak widzimy, rozwojowi kultury, wiedzy i nauki od dawna i zdążyła na dobre przeniknąć większość znanych nam sposobów myślenia i konstruowania dyskursów i praktyk kultury. Wyrażone w postaci tych różnych form przekonanie o genetycznej i uniwersalnej w zasięgu matematyczności świata – to najbardziej doniosłe dla przedmiotu moich zainteresowań w tej książce przeświadczenie – stało się gruntem, na którym możliwe było uprawianie projektu cyfrowego. Jego fundamentem jest przecież, po pierwsze, przekonanie co do tego, że świat da się zakodować po postaci matematycznego kodu oraz, po drugie, że wartości tego kodu można poddawać matematycznym przeliczeniom, aby w ten sposób odsłaniać i zmieniać rzeczywistość. Projekt cyfrowy przejął w linii prostej ideową i formalną spuściznę tradycji filozoficznej, teologicznej, następnie technologicznej i nowoczesnej, które matematyczność świata uznały za jego referencyjną racjonalność i logikę.
Skoro tak wielka jest rola matematyki i matematyczności, to warto się zastanowić nad ich ontycznym charakterem. Zbadam teraz znaczenie matematycznego kodu oraz jego znaczenie dla rozwoju projektu cyfrowego. Pomimo generalnej dominacji nauk empiryczno-matematycznych i ich niepodważalnej siły eksplanacyjnej, która przyczyniła się do rozbłysku projektu nowoczesnego i wywołała rewolucję przemysłową, natura matematyki i sens liczb wciąż jednak pozostają problemem dla kultury i niektórych dziedzin nauki. Ich interpretacje okazują się skrajnie różne wśród analizujących ten fenomen badaczy. Można mówić o co najmniej trzech stanowiskach w zakresie filozofii matematyki i cyfr. Pierwsze z nich, dominujące i charakterystyczne dla dyskursu nauk wywodzących się z nurtu oświeceniowego (dzisiejsze nauki i metody ścisłe – sciences), precyzyjnie wyraża w swojej kosmologicznej teorii Heller wywodząc z racjonalnej i matematycznej natury świata także obiektywny charakter matematyki jako metareguły nim rządzącej i kształtującej go, wpisanej weń i będącej nim [101]. Drugie stanowisko zawdzięczamy ukształtowanym w wyniku zwrotu lingwistycznego dyscyplinom zaliczanym do ogólnego zbioru studiów kulturowych (nauk humanistycznych – humanities) i polega ono, najogólniej rzecz ujmując, na konstruktywistycznym przekonaniu, że liczby i matematyka są jedynie jednym z wielu języków/kodów, za pomocą których opisujemy świat i rozumiemy go. Jak każdy kod, tak i ten jest, ze swej natury, podatny na dokonujące się w czasie i przestrzeni (kontekst geograficzno-kulturowy) rekonstrukcje semantyczne, strukturalne, przybiera różne oblicza kulturowe pomimo wielu genetycznych podobieństw – jest społeczną konstrukcją, nawet jeśli uznać go za najbardziej abstrakcyjny z języków, za zasadniczy język wiedzy i nauki [102]. Z semiotycznym rozumieniem liczb i matematyki jako kodu kulturowego wiążą się także – to trzecie stanowisko – teorie kognitywistyczne, powstające na styku m.in. psychologii, neurobiologii, antropologii i lingwistyki, które definiują matematyczność jako twór ludzkiego mózgu, czyli strukturalną właściwość procesów myślenia i naturalną skłonność do porządkowania percypowanego świata właściwą gatunkowi, a być może także innym żyjącym gatunkom [103].
Przywołane idee i wydarzenia związane są z historią konstruowania i pozycjonowania matematyki jako dziedziny/dyskursu kultury. Z biegiem lat została ona uznana, jak to przedstawiłem, za uniwersalny kod, w którym został zapisany wszechświat i którego dekodowanie prowadzi do rozpoznania i zrozumienia jego istoty i podporządkowania jej cywilizacji. Taki stan rzeczy stał się najpierw jednym z aksjomatów przyjętych w ramach projektu oświeceniowego oraz w ramach napędzanej osiągnięciami empiryczno-matematycznej nauki rewolucji przemysłowej, a jednocześnie, jak wspomniałem, okazał się polem wywoławczym dla projektu cyfrowego. Na dobre od czasów Kartezjusza, Newtona (Matematyczne zasady filozofii przyrody [104]) i Leibniza kulturze towarzyszą idee i pomysły związane z wykorzystaniem matematycznej własności świata i przekształceniem jej, tu w sukurs przychodzi nabierająca tempa równolegle z projektem cyfrowym rewolucja przemysłowa, w narzędzie służące już nie tylko do czytania struktury wszechświata, ale i do jej konstruowania/pisania.
Taka rola cyfrowego kodu stała się właśnie fundamentalną podstawą maszyn liczących, których powołaniem miało być oparte na uniwersalnych zasadach matematycznych równie uniwersalne przeliczanie zawartości poszczególnych struktur – danych. Najpierw analogowe, a potem cyfrowe: wszystkie operowały na cyfrowym kodzie, mechanicznie kalkulując zadawane w tym „języku” zapytania. Konkurencyjne teorie matematyczności sugerują jednak, iż nie dla wszystkich taki status matematyczności jest akceptowalny. Szczególnie studia kulturowe i wiele dyscyplin bliższych współczesnej humanistyce (nie mylić z humanistyką w rozumieniu historycznym, dla której matematyka i liczby były fragmentami elementarnej filozofii) postrzegają matematykę zgoła inaczej. Niezależnie jednak od sporów o ontyczny, aksjologiczny i w zasadzie jakikolwiek inny wymiar matematyczności projekt cyfrowy możliwy był, jak to już mówiłem, dzięki systematycznemu wcielaniu w życie przekonania o tożsamości struktury świata i reguł odkrywanych przez matematykę. Uznającym wyższość tej teorii nie przeszkodziły nawet tak fundamentalne ustalenia co do charakteru matematyczności, jak to, które zawdzięczamy austriackiemu matematykowi Kurtowi Gödelowi. Austriak ten ostatecznie udowodnił w latach 30. ubiegłego wieku w postaci swojego równie znanego, co kontrowersyjnego, twierdzenia o niezupełności (incompleteness theorem), iż matematyka jest systemem otwartym, którego nie da się sformalizować/ograniczyć żadnymi aksjomatami ani regułami, ani zamknąć pod postacią danego systemu twierdzeń. Z tej reguły wynika dla cyberkultury jedno z najbardziej znaczących ograniczeń: nie można myśleć o doskonałej maszynie obliczeniowej, która byłaby w stanie skalkulować/przeliczyć model świata, całą rzeczywistość [105]. Niemożliwa jest również w związku z tym uniwersalna matematyczna wykładnia wszystkiego, swoisty digitalny „wzór na wszechświat”, ani odpowiadająca jej uniwersalna maszyna zdolna do realizacji uniwersalnego, totalnego zadania matematycznego. Istnieje za to wiele możliwych matematyk i wiele matematycznych prawd częściowych, podobnie jak i pracujących w oparciu o nie maszyn obliczeniowych. Podobnie z cyfrowymi kulturami – możliwe są różne ich odmiany, interpretacje, nieoczekiwane w nich zwroty i paradygmatyczne zmiany. Projekt cyberkulturowy pozostaje zatem otwarty, nigdy nie zakodowany ostatecznie, niesformułowany do końca [106].
Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.
Ducha debaty, która wciąż jeszcze nie zdobyła właściwego miejsca w dyskursie humanistyki, mogę bez ryzyka wykorzystać we własnej narracji dotyczącej sytuacji postmedialnej. To właśnie natura cyfrowego kodu i jego centralna pozycja w przestrzeni cyfrowych bytów i aktów medialnych powoduje, że postmedialność można innymi słowami określić jako stan, w którym wszystkie dotychczasowe formy i języki medialne poddają się cyfrowemu kodowaniu i jego wymogom. Tym samym (medioznawcy mają na to wiele określeń – cyfryzacja mediów, konwergencja, remediacje, mediamorfozy) stają się emanacjami, wersjami cyfrowej gramatyki, powielają jej reguły wcześniej dopasowując się do nich. Taki stan rzeczy oznaczać może rzeczywiste unieważnienie medialnego stanu rozplenienia medialnych języków, gramatyk i form, który jest technologicznym echem mitycznej sytuacji wieży Babel. Przekonanie co do tego jest oczywistością pośród twórców nowych mediów, dla których poszukiwanie uniwersalnej formuły kodu i programowania maszyn jest czymś w rodzaju poszukiwania świętego Graala, czyli zestandaryzowanego, zdolnego do wyrażenia wszelkich możliwych idei, wyobraźni i wrażliwości kulturowych na wszelkich dostępnych poziomach kodowania maszyn obliczeniowych. Idąc tropem tych rozważań automatycznie napotkamy pytanie o to, jak sytuacja postmedialnego ujednolicania języków i gramatyk medialnych wpłynie na kształt ich premedialnych pierwowzorów, czyli jakie są i jak się zmieniają relacje pomiędzy kodem cyfrowym a kodami lingwistycznymi? Jak ma się uniwersalny i wielowarstwowy kod komunikacyjny, tj. kod binarny i wszystkie zrealizowane w oparciu o niego warstwy software, do języków, i jego medialnych wcieleń, a pośród nich przede wszystkim pisma, którymi się na co dzień posługujemy? Skoro rozwój cyfrowości powtarza etapy ewolucji kultury, choćby te, które opowiada historia wieży Babel, to czy kod cyfrowy można uznać za budową nowej, technologicznej wieży Babel i czy taki projekt ma szansę powodzenia oraz czy karą za jego kontynuację będzie ponowne pomieszanie języków? [112]
Zbyt wcześnie jeszcze, aby odpowiedzieć na tak postawione pytania wiążąco. Widać jednak już dzisiaj artystyczne i technologiczne ścieżki, które do takich odpowiedzi prowadzą. Na pierwsze spośród postawionych pytań odpowiedzi udzielają uznani artyści mediów i ich teoretycy, Christa Sommerer i Laurent Mignonneau, pisząc:
Programowanie można porównać do pisania powieści: pomimo iż język, w którym powstaje jest skończonym systemem (na przkład niemiecki, francuski czy angielski), to kreatywność jego wykorzystania zależy od wyobraźni autora [113].
Z ich doświadczenia, które można uznać za miarodajne w praktykowaniu cyfrowego kodowania, wynika, iż posługiwanie się kodem bliskie jest mówieniu językiem naturalnym. To, oczywiście, założenie natury ogólnej, które należy obostrzyć dodatkowymi warunkami z zakresu teorii lingwistycznych, antropologicznych i kulturowych. Jednak już z tak ogólnej perspektywy widać, że w grę wchodzą tu podobne do tych warunkujących posługiwanie się językiem czynniki sprawcze i regulacyjne, jak emocje, wyobraźnia kulturowa, wrażliwość sensomotoryczna i estetyczna, kontekst kulturowy. Ich obecność sugeruje, iż sprawne programowanie za pomocą cybernetycznego kodu nosić może znamiona holistycznej ekspresji bliskiej innym, już antropologicznie i kulturowo oswojonym formom ekspresji i komunikacji, jak muzyka, język, dotyk (do tego wątku w szczegółach wrócę w ostatnim rozdziale) [114].
Dzieje się tak na skutek wielu różnych czynników, takich m.in.: jak rywalizacja ekonomiczna twórców maszyn cyfrowych i software, etnocomputing czy różnego rodzaju inne czynniki społeczne, polityczne i technologiczne.
W obliczu rozplenienia języków, dialektów i gwar w software’owej praktyce kodu cyfrowego, której wciąż daleko do uniwersalności i totalności cyfrowego lingua franca, można postawić także pytanie ile syntagma tego kodu układa się w formę tekstu, o ile bliska jest pierwszemu medium/medializacji komunikacji, za jaką należy uznać pismo. To pytanie o ile ciągi cyfrowego kodu można pisać i czytać jak tekst kultury, o ile emanują typograficznie, w obszarze designu (estetycznie) i poetycko? Czy ciągi kodu są tekstem w dosłownym tego pojęcia znaczeniu, czy są jedynie gruntem/alfabetem, na którym piszą się cyfrowe „teksty” kultury, takie jak software’owe interfejsy, interakcje, narracje i bazy danych? Wyrazicielem pozytywnej odpowiedzi na te pytania jest, dla przykładu, Loss Pequeno Glazier, który w artykule pod sugestywnym tytułem Code as Language dowodzi, że kod cyfrowy jest technologiczną formą ekspresji, za którą stoją czynniki podobne do stanowiących o formie języka i pisma. Kod jest w tym podobny do pisma i języka, że powstaje na skutek działania wzorców i wyobrażeń komunikacyjnych, które wykorzystujemy w konstruowaniu wypowiedzi i komunikowaniu się. Kod i kodowanie, podobnie jak alfabet i jego pisanie, wykorzystują płaską przestrzeń ekranu (odpowiednik analogowego nośnika – tabliczek kamiennych, pergaminu, papieru), na której w czasie pisania utrwalane są znaczenia nadawane kombinacjom znaków. Usytuowana w takich warunkach antropologiczna zasada cyfrowości wydaje się czymś bliskim tradycyjnym gestom i poetyce pisma [116].
John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].
W odczytaniu Kittlera kod ma nie tylko znaczenie „językowe”, związane z szyfrowaniem informacji. Chodzi mu przede wszystkim o zwrócenie uwagi na kulturowe kody/języki samych mediów, a zatem ich wpływ na sposób postrzegania rzeczywistości, konstruowanie komunikacji i zdarzeń medialnych przy udziale konkretnych medialnych maszyn. Wszystkie one narzucają kulturze własne gramatyki, przekształcają rzeczywistość według własnego „kodu” (programu). To właśnie na tym poziomie, na którym rozważania Kittlera wpisują się w deterministyczny styl myślenia uprawiany wcześniej przez McLuhana (medium is the message) czy Flussera (filozofia aparatu), kod staje się zjawiskiem wykraczającym poza matematyczną formułę szyfru. Ich regułą jest nie tylko bycie interfejsem pomiędzy wyobraźnią i kulturą a maszynami, ale i działanie przeciwne polegające na szyfrowaniu według określonych założeń także rzeczywistości poza zamkniętym układem twórca-kod-maszyna. W przypadku kodu cyfrowego chodzi o unifikację kodów wcześniej istniejących mediów w ramach uniwersalnego języka cyfrowości. Różnice pomiędzy tym, co wizualne, audialne czy posiadające postać pisaną, istnieją w domenie cyfrowej tylko dla nienadążających za rozwojem technologii potrzeb kulturowych ludzi, mają znaczenie operacyjne i wynikają z natury naszych zmysłów, sposobów rozumienia świata i tradycji kulturowych. W rzeczywistości technologia nie mówi językiem ludzkim, kieruje się swoją własną, wewnętrzną logiką, której przejawy coraz silniej oddziaływają na świat kultury i jego tradycyjne języki. Powstają w ten sposób sieci dyskursów (discourse network), które umożliwiają na danym etapie rozwoju kultury i życia społecznego budować systemy, instytucje, reguły prawne, by w pożądany sposób kodować, przechowywać i wykorzystywać określone zasoby (Kittler 1990: 369). Jeśli uznać, że cyfrowy kod ma zdolność do wchłonięcia wszystkiego, co jest kulturą, transmisji wszystkich danych w ramach uniwersalnego języka/kodu komunikacyjnego, to w konsekwencji uznać należy także, że kultura zatoczyła koło. Antyczne systemy komunikacyjne, czyli systemy znaków, reguły pisma oraz transmitujące je/poddane im instrumenty (interfejsy), takie jak lira, usystematyzowały wedle zasad matematycznych i alfabetycznych wiedzę o muzyce, a sposoby jej wykonywania i percepcji z czasem stały się funkcjami tej systematyzacji. Dziś podobnie uniwersalną i totalna rolę odgrywa matematyczny kod i jego emanacje, czyli wszelkie projekty software. Kittler przeciwny jest jednak optymistycznej antropocentryczności mediów w wydaniu McLuhana, uważa ją za iluzję. Technologie nie są zwykłym przedłużeniem, protezą człowieka, ale prowadzą jego systematyczne wymazywanie i rozmywanie. Wszystko, co pozostaje po człowieku myślącym w kategoriach cyfrowych i posługującym się cyfrowymi maszynami, to abstrakcyjne kody i materialne zasoby medialnej pamięci zakodowanej w postaci danych i formy ich wykorzystywania – interfejsy i software [119].
Różnice w pojmowaniu natury cyfrowego kodu lapidarnie podsumować można w sposób następujący: kod cyfrowy można postrzegać jako specyficzny język, który przekłada się na w bezpośredni sposób na działania. Żadna inna forma językowych opisów, gramatyk, pojęć czy semantyk nie jest w stanie poruszyć świata materii [120].
Bywają jednak sytuacje, kiedy kod może okazać się tekstem, a tekst kodem – zarówno kiedy brać pod uwagę tekstualne znaczenie tekstu, a także kiedy postrzegać go szerzej, jako różne w kulturze wypowiedzi i ich różne formy. Takie przenikanie kodów cyfrowych i analogowych, medialnych i digitalnych, objawia się, co prawda, w większości jako próbkowanie, impresje artystyczne wynikające z potrzeby uzgadniania obu podobnych do siebie formatów komunikacyjnych, lub celowym działaniem programistów, którzy ponad skierowanymi do maszyn ciągami poleceń wyposażają swój software w warstwę skierowaną do użytkownika. Jednak w przypadku domeny cyfrowej działania przekraczające naturę kodu, zmieniające jego kontekst i redekonstruujące zaszyfrowane w nim znaczenia, stały się także jedną z najważniejszych strategii działania w ogóle – zarówno twórczego/projektowego, jak i w powszechnej skali użytkowej. Przedostawanie się technologii cyfrowych ze światów militarnego, naukowego i merkantylnego do obszaru powszechnego użytkowania możliwe było w dużej mierze dzięki subwersywnym działaniom środowisk, które z czasem zaczęto nazywać hakerskimi. Sytuująca się na pograniczu świata sztuki i inżynierii cyfrowej domena hakingu właśnie z artystycznej wrażliwości i krytycznego działania uczyniła rdzeń swego etosu. Hakerski sposób patrzenia na cyfrowy świat stał się jednym z najbardziej popularnych nurtów myślenia o wczesnych stadiach kultury cyfrowej – był on i wciąż pozostaje związany ze strategiami i taktykami, które biorą się z krytycznych sposobów używania cyfrowego kodu, programowania i budowania cyfrowych zdarzeń komunikacyjnych. Hakowanie kodu, czyli obnażanie niedoskonałości technologicznych (bug, glitch), ale i wyszukiwanie w nim celowo umieszczonych ciągów, które spełniają zadania ideologiczne, mitologiczne, związane z panoptyczną obserwacją używających go – to postawy, które mają w rezultacie czyścić kod, poszukiwać jego najdoskonalszej (najprostszej, wolnej od manipulacji, bezpiecznej) formy.
Przenikanie, obnażanie i hakowanie cyfrowego kodu mediów jest także jedną z najważniejszych strategii artystycznych podejmowanych w domenie sztuki mediów cyfrowych. Cyfrowy kod i software postrzegane są przez kulturę cyfrowości z jednej strony jako domena nieustannego konstruowania i projektowania designerskiego, interfejsów, języków komunikacji, a z drugiej – tu pojawiają się subwersywne wrażliwości pracujących z tymi mediami artystów – jako obszar nieustannej pracy krytycznej, dekonstruowania zaszytych w kodzie znaczeń, polityk, estetyk, mitologii.
Zdaniem Bentleya kolejne generacje systemów informatycznych powinny pracować właśnie w oparciu o te zasady rządzące ewolucją. W przyszłości mamy powierzać komputerom zadania takie, jak np.: zoptymalizuj model elementu turbiny silnika odrzutowego, które maszyny rozwiążą na drodze eliminacji niedostatecznie wyrafinowanych, nie dość skutecznych i/lub nieopłacalnych ekonomicznie propozycji. Nowy typ komputerowego kodu to kod samoorgranizujący się, samoewoluujący i homeostatycznie się korygujący. Aby mógł takim się stać i w „naturalny” sposób pracować, należy jednak wcześniej znacznie lepiej i dokładniej poznać mechanizmy rządzące naturą – to właśnie zadanie, które staje przed przestrzenią biomediów, ich sztuki, inżynierii, aksjologii. Na horyzoncie tego cywilizacyjnego wyzwania rysuje się nagroda, której wartości przecenić się nie da: jest nią zdolność do sterowania ewolucją, wyznaczanie przed nią zadań i korzystanie z dobrodziejstwa pozyskiwanych w ten sposób rozwiązań.
Marzenia o samosterującym się cyfrowym świecie stoją jednak wobec ograniczeń technologicznych projektu cyfrowego w obecnej postaci – nie mówiąc o sporach natury etycznej ich dotyczących. Fundamentalna z zasad rządzących cyfrowością: podział na software i hardware, w naturze nie występuje. Hardware jest zazwyczaj formułą zamkniętą, stanowi sztywną ramę strukturalną, na którą nakładać można płynny i elastyczny software. Kod genetyczny, choć zmienny w czasie, jest w naturalny sposób wpleciony w „hardware’owy” kształt bytów żyjących. W oderwaniu od naturalnych nośników, czyli od swojego naturalnego kontekstu, DNA przestaje być kodem – traci zdolność kreacji życia, przestaje komunikować. Dopiero rozmycie twardych granic pomiędzy software i hardware dawałoby możliwość nawiązywania pomiędzy nimi „organicznych” relacji. W takim kontekście kod stawałby się zarazem hardwarem, znajdowałby naturalne „ucieleśnienie” i nie tracił jednocześnie swojej miękkiej natury. Powstać mogłaby z takiego zatarcia/zbliżenia maszyna autodekonstruująca się i nieustannie „myśląca” o sobie samej, autogenerująca się w czasie rzeczywistym.
Dziś te i podobne pytania biomediacjom zadają przede wszystkim artyści mediów, tacy jak Edouardo Kac, Paul Vanouse. Ich kontrowersyjne i pionierskie zarazem prace wydają się wybiegać daleko w przyszłość kultury, natury i techniki – jeśli jednak zestawić je z dokonaniami przemysłu farmakologicznego, chemicznego, medycyny czy wojska, to widać, jak bardzo teraźniejsze problemy wchodzą tu w grę [123].
Cyfry i matematyczność to kulturowa część natury mediów cyfrowych. Dla perspektywy studiów kulturowych, które zdefiniowały tożsamość teorii mediów i w dużej mierze generalne oblicze humanistyki w kilku ostatnich dziesięcioleciach, stanowią one zakodowany szyfr będący jednym z wielu obecnych w kulturze kodów komunikacyjnych. Matematyka – przypomnę – jest gramatyką tego kodu, na który składa się zespół symboli-znaków o składni poddającej się kulturowym (logicznym) konstrukcjom i negocjacjom. Cyfry podlegają działaniu czynników etnicznych, społecznych, antropologicznych, politycznych, komunikacyjnych, tak jak litery i tworzone z nich słowa w kodzie językowym. Kod cyfrowy ma jednak szczególne, nadrzędne znaczenie dla kultury współczesnej. Pełni funkcję kodu kodów kultury, metakodu wiedzy oraz jej najważniejszego narzędzia: nauki – wspomniałem o tym przedstawiając usytuowanie matematyczności w historii nowoczesnych idei.
Niewidzialna elektryczność projektu cyfrowego to zagadnienie, które można rozważać w kontekście teorii mediów. Francuski filozof techniki, Bernard Stiegler, mówiąc o przezroczystości i znikaniu technologii, posługuje się terminem mętności (deep opacity). Nie jesteśmy w stanie w prosty sposób i szybko zrozumieć, na czym polega właściwy sens technik, którymi się posługujemy w naszym życiu – twierdzi. Nie rozumiemy zarówno tego, w jaki sposób działają one same, jak i tego, jaki mają wpływ na to, jak działamy my, pomimo iż nieustannie podejmujemy ważne decyzje odnoszące się bezpośrednio do działania techniki jak i w oparciu o jej kulturowego ducha. Powstające w ten sposób kulturowe niezrozumienie powoduje, że techniki definiujemy jedynie w zarysie, w sposób przybliżony. Bardziej za sprawą naszych intuicji i odczuć niż racjonalnych przesłanek [126].
W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].
Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.
Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].
Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.
Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].
Jego dalekosiężne intuicje dotykały także kodu, o którym pisał:
Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].
Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualne i parawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.
Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.
Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].
Dotychczas rozważałem matematyczność jako wyrafinowaną, abstrakcyjną zasadę myślenia o świecie, porządkującą go wedle logicznych zasad i ich liczbowego kodowania. Przywołałem także, za Michałem Hellerem, wynikające z tego faktu postrzeganie i rozumienie rzeczywistości na kształt konstrukcji matematycznej – matematyczność świata. W tym podwójnym sensie matematyczności osadziłem kod cyfrowy, który uznałem za uniwersalną dla kultury współczesnej, zanurzonej w cyfrowe technologii i sieci, gramatykę komunikacji i konstruktora modeli świata. Idąc dalej tym tropem, przyjrzę się teraz kulturowej implementacji kodowania matematycznego – dającej się „programować” i „kodować” wyobraźni kulturowej i wyrastającym z niej kompetencjom komunikacyjnym. Iloczyn obu pojęć daje w rezultacie terminy, które w dyskursie krajowej humanistyki nie zadomowiły się jeszcze. Chodzi o „nowy alfabetyzm” (new literacy) i „media wyobrażone” (imaginary media)[162]. To właśnie kod cyfrowy, ze względu na swoją bliskość wobec tradycyjnego kodu kultury, języka, jest dla form tej nowej wyobraźni najważniejszym z budulców, a dla medialnego krajobrazu przez nią inspirowanego naturalnym medium wypowiedzi i konstruowania świata za jego pomocą. W definiowaniu nowego alfabetyzmu i mediów wyobrażonych skojarzenia z wyobraźnią i wyobrażeniami są i dla mnie niezwykle istotne. Zaproponowane tu czytelnikowi rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób na wartości analitycznej obecnego od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali w dyskursie wspomnianych nauk Benedict Anderson wraz ze swoją głośną pracą Imagined Communities oraz Charles Taylor w swojej równie głośnej Modern Social Imaginaries [163]. Ja kategorię tę w oparciu o możliwości dwukierunkowego posługiwania się kodem cyfrowym, służącym zarówno do swobodnego czytania jak i pisania medialnych kształtów i treści, dopasowuję do warunków światów medialnych, w których przybiera ona postać medialnych i komunikacyjnych wyobraźni [164] .
Związek efemerycznego pojęcia „alfabetyzmu” z cyfrowym kodem polega na konstruktywistycznym uznaniu kulturotwórczej siły technologii medialnych, które funkcjonują w powszechnym obiegu. Ta współzależność kodu i kultury polega, ogólnie rzecz ujmując, na dwóch przeciwważnych procesach. Najpierw kultura preparuje technologie i pisze dla nich kody i kodeksy (to historia kilku tysiącleci cywilizacji i tworzenia kodów abstrakcyjnego myślenia – matematyki), by równolegle za ich pośrednictwem zmieniać samą siebie. Kultura tworzy narzędzia, techniki i ich kody/konteksty/wyobraźnie, poddając się jednocześnie ich potencjałowi, wrażliwościom, wyobraźniom i dyskursom, które wzbudzają.
Cyfrowa konfiguracja kultury to jednak zjawisko szersze i głębsze niż trajektorie poszczególnych narzędzi i technik epoki analogowej, takich jak pismo, obrazy, dźwięki i poszczególne ich medialne technologie. Cyfrowość – odwołam się po raz kolejny do mojej ogólnej tezy o sytuacji postmedialnej – sprowadza wszystkie dotychczasowe języki mediów, ich kulturowe gramatyki i konteksty do wspólnego mianownika. Wchłania je, digitalizuje i zamienia na układ, w którym rozparcelowane są pomiędzy software, bazy danych i interfejsy użytkowe. W ten sposób obok wielu dostępnych języków/kultur medialnych, które wspólnie składają się na „alfabetyzm” epoki analogowej, pojawia się także nowy, cyfrowy alfabetyzm. Powstaje on na zasadzie kulturowych negocjacji już istniejących obyczajów i wyobrażeń komunikacyjnych zderzonych z nowym środowiskiem technologicznym, w którym funkcjonują. Przejawia się jako nowy zbiór komunikacyjnych zasad i mitów, takich jak usieciowienie, programowalność, remiks i transmedialność. Nie będę wchodzić głębiej w definiowanie samego alfabetyzmu ani też rozważać wszystkich jego cech. Skupię się jedynie na tych jego aspektach, które wynikają z obecności cyfrowego zakodowania komunikacji i logiki działania software. Są nimi programowalność i wyobraźnia sztucznego.
Nowy alfabetyzm, a zatem społeczne praktyki i wyobrażenia dotyczące pisania i czytania [166], czy inaczej mówiąc kulturę komunikacji, komunikacyjną wrażliwość, kompetencje i wyobraźnię, można zdefiniować także w relacji do społecznego konstruowania praktyk dyskursywnych, budowania i podtrzymywania dyskursów [167]. W tym nowym alfabetyzmie obecność kodu cyfrowego i jego form matematycznych, ale także jego społecznych praktyk, takich jak digitalizacja zasobów kultury czy dyskurs programistyczny (języki, instytucje, formy działania) wprowadza alternatywę dla jednowładztwa najważniejszego z analogowych kodów – tekstu. Otwierający się na nową wyobraźnię nie tylko zyskuje wejście w świat tekstu i jego kultury – tekstualności, epoki Gutenberga, i stosowny wobec nich dystans poznawczy ale i – tu objawia się programowalność – dopuszcza programowalność/płynność tekstualności. Tym samym wchodzi w dyskurs rozpoczęty już w obszarze literatury i liberatury, kontynuowany w cyfrowości jako dyskurs hipertekstu i cybertekstu, i podejmuje wyzwanie bycia współtwórcą, programistą, operatorem i współkonstruktorem jego formy i treści. Linearność tekstualną, która stała się także linearnością kultury analogowej, poddaje w cyfrowej wyobraźni różnego rodzaju remiksom, personalizacjom, update’om, wariacyjności. Czytając i pisząc kulturę-tekst posługuje się innymi, oderwanymi od gutenbergowskich, narzędziami i sterującymi nimi wyobrażeniami, bardziej ją programując, budując skojarzenia i konstruując mentalne modele i reprezentacje świata w oparciu o znane mu aplikacje i interfejsy software.
Drugą z najważniejszych cech nowego alfabetyzmu, reagującego na obecność kodu i programowalności, jest wpływ wyobraźni sztucznego (the imaginary of artificial). Pomimo iż komputer jako projekt cywilizacyjny (interfejs kultury) został pomyślany w taki sposób, aby swymi funkcjami naśladować działanie człowieka, powstał na jego obraz, to jednak obcowanie z nim i programowanie go prowadzi w innym kierunku. Jest nim poszukiwanie tradycyjnych przymiotów ludzkiego intelektu, takich jak kreatywność, zdolność do budowania skomplikowanych, złożonych skojarzeń i dedukcji, w czynności struktur sztucznych (sztuczna inteligencja), które działają automatycznie i mechanicznie w logice rewolucji informacyjnej. Radykalne założenia wczesnej cybernetyki (ujmę to szerzej: wyobraźni w duchu pokartezjańskiego dualizmu) polegające na konstruowaniu matematycznej paraleli pomiędzy komputerem a człowiekiem sugerowały, że możliwe jest osiągnięcie przez maszyny obliczeniowe stanu autoświadomości, maszynowej autokreacji i samodzielności w definiowaniu własnego rozwoju, nieustannym autoremodelowaniu i poddawaniu się działaniom algorytmów. Miałaby ona polegać na zdolności do prowadzenia takich kalkulacji, które wygenerują kolejne kalkulacje oraz ich poziomy i przejmą kontrolę nad procesami wykonywanymi przez maszynę, co w rezultacie doprowadzi do powstania maszynowej, automatycznej auto-wyobraźni. Z zetknięcia wyobraźni kultury, obejmującej projekt maszyny kalkulującej sztuczną rzeczywistość i nieustannie go projektującej/programującej/renderującej, oraz rozrastającej się i zarazem emancypującej tożsamości tego projektu bierze się daleko posunięta we współczesności (nie tylko w dyskursach cyberkultury) fetyszyzacja zdolności maszynowych/automatycznych. Wyobraźnia sztucznego wycenia nieustanny, samozwrotny remiks i loop algorytmów, bardzo wysoko dopatrując się (projekcja odwrócona) w takiej obietnicy konstytuowania się siły, którą wykorzysta we własnej kulturowej, społecznej i antropologicznej emancypacji [170].
Inne cechy nowego alfabetyzmu biorą się z wyobraźni kulturowych, które za sprawą technologii cyfrowych przesuwają akcenty z porządku, totalności, linearności i centralnie zarządzanej dystrybucji ku fragmentacji i rizomatyczności – od linearnej tekstualności ku bazom danych; z uporządkowanej odgórnie totalności ku syntezowaniu dostępnych elementów; ku logice analitycznej z pozycji dekodowania; z jednolitości form i treści medialnego świata ku postmedialnej regule hardware + software + interfejs; z regulowanej syntagmy ku semantyce i semantyzowaniu [171].
Bazodanowa ekologia to w tym dualnym kontekście emblematyczna dla postmedialnej kondycji sytuacja: bazy danych heterogenizują medialne i technologiczne środowisko; oferują konsumentowi mediów nową poetykę, estetykę i władzę (wariacji i remiksu) przyćmiewając dotychczasowe uzurpacje autorów i tekstów (nadawców, kontrolerów, gatekeeperów i samych mediów w ich technologicznych gramatykach i instytucjonalnych i społecznych platformach). Victoria Vesna, znana nowomedialna artystka i teoretyczka, wstęp do redagowanej przez siebie antologii poświęconej sztuce danych i estetyce baz danych zatytułowała Zobaczyć świat w ziarenkach piasku. Bazodanowa estetyka wszystkiego (Seeing the world in the grain of sand: the database aesthetics of everything [175]) i myślę, że ten tytuł dobrze oddaje klimat towarzyszący kulturoznawczemu dyskursowi, który podejmuje temat wpływu elementów konstytuujących świat nowych mediów na przestrzeń kultury i życia społecznego. Rzeczywistość (kultura, natura, my sami) konstruowana w podobnych odczytaniach składa się z atomów (i odpowiadających im bitów), czyli metaforycznych ziarenek piasku. Na różne sposoby możemy nimi – zarówno w sensie fizycznym jak i przede wszystkim metaforycznym – zarządzać, tworząc mniej lub bardziej trwałe/unikalne/powtarzalne kompozycje, układy i kształty. Świat z ziarenek piasku jest elastycznym tworem gotowym przyjąć dowolny kształt, który mu nadaje ręka budowniczego.
Myśleć bazodanowo znaczy uznać atomistyczną konstrukcję wszechświata, życia i kultury jako stan naturalny, w którym dokonują się nieustanne rekonstrukcje, w którym atomy/bity są w nieustannym ruchu poddane coraz to nowym zarządzeniom, przybierają nieustannie nowy kształty, i nauczyć się w nim żyć. Myśleć bazodanowo o kulturze i komunikacji oznacza więc, że o ich składowych, czyli zasobach informacyjnych, myśleć należy w taki sam sposób, w jaki myślimy o cyfrowych bitach. Informacje, a na nie składają się przecież wszystkie kulturowe znaczenia, znaki, reguły komunikacyjne, podobnie jak atomy materii, ta wyobraźnia rozpoznaje w nieustannym ruchu – są jak ziarenka piasku w dalekowschodnich mandalach, częściami nigdy nieokrzepłej kompozycji, którą kultura ustanawia/odbudowuje/podtrzymuje wciąż na nowo.
Bazodanowa percepcja i wyobraźnia odwracają się od narracyjnego i hierarchicznego porządku epoki linearnych mediów analogowych, służących głównie zideologizowanej i jednostronnej komunikacji na skalę masową. Dopuszczają w jej miejsce przygodność, płynność, otwartość i akceptują stan permanentnej gry i wiążącego się z nią ryzyka. I taka właśnie, płynna, związana z ryzykiem, otwarta, przygodna jest współczesna kultura w ogóle, jak o tym zgodnie przekonują jej współcześni diagności [176]. Usytuowana w niej, za sprawą triumfalnej siły kolonizacji domeny cyfrowej, baza danych staje się przy naszym udziale elementem naturalnego status quo; fundamentalną regułą i referencyjnym wzorcem strukturalnym myślenia o świecie, komunikowania się w nim i postrzegania wszelkich jego fenomenów. Podchwyconą wraz z pieśnią buntu kulturowego melodią wyzwolenia z ucisku przemysłu kultury, technopolu i uprzedmiotowiającego uniwersum mediacji analogowych.
Mówiąc o postmedialnej sytuacji baz danych mam zatem na myśli technologiczne obiekty, będące zestawem reguł dotyczących postępowania z zasobami cyfrowego kodu. To jednocześnie software’owy stan otwartych, płynnych w czasie i kształcie, znajdujących się pod kontrolą użytkowników procesów wykraczających poza analogowe rozumienie medialnej materialności hardware’owych obiektów. To wreszcie także wyobrażone figury i logika działania w środowisku cyfrowym, jego symboliczne i komunikacyjne modelowanie. Ten trójwarstwowy konglomerat ma swoje kulturowe preteksty i projekcje; bazy danych narodziły się fuzją scjentystycznych i technokratycznych dokonań rewolucji przemysłowej i naukowej w ramach projektu nowoczesności, ale nie byłoby ich, gdyby nie poszukiwania artystyczne, kondycje kulturowe i społeczne inicjujące/podtrzymujące technologiczną dynamikę. Podobnie rzecz ma się w odniesieniu do pochodnych baz danych. Są nimi zarówno rozszerzenia technologiczne, jak i komunikacyjne i kulturowe reakcje, mniej lub bardziej bezpośrednie czy trwałe. Do poszczególnych z nich będę się odwoływać w trakcie niniejszej analizy.
Przeciwieństwem kultury selekcji jest dla Weibla kultura Web 2.0. Pomijam w tym miejscu spory na temat zasadności i ograniczenia tego sformułowania, podzielam – podobnie jak sam Weibel – ponad nie jego olbrzymią siłę semantyczną, której sens wynika z prostej zakodowanej (zaprojektowanej designersko na poziomie samego znaku) w nim konstatacji o radykalnej zmianie w obszarze kultury medialnej. W logice 2.0 Weibel upatruje fundamentów nowego krajobrazu kultury. Rolę analogowej arki zajmują w nim dyskowe przestrzenie magazynowe, które oferują swoim użytkownikom nieograniczoną chłonność i dostępność. Pomieszczą każdą ilość cyfrowo zakodowanych opowieści o świecie, jego digitalnych reprezentacji i alterwersji (technologiczne marzenia o infinity storage). W obliczu gigantycznych baz danych otwierających swoje podwoje na wielu poziomach naszej immersji w cyberprzestrzeń, a w szczególności metabazy danych (jednocześnie bazy metadanych), jaką jest Internet (na ten temat więcej niebawem), metafora arki wyczerpuje swój dotychczasowy sens. Kultura nie jest już (wpływ tego mechanizmu jest radykalnie osłabiony i ograniczony do wybranych obszarów rynkowych, politycznych, gospodarczych, takich jak instytucje kultury, jej ministerstwa, fundacje organizujące prace artystów i wydarzenia kulturalne) zasobem poddawanym selekcji (cenzurze) elit koneserów i urzędników, limitowana przez znawców i systemy cyrkulacji. Wraz z pojawieniem się cyfrowej nakładki na rzeczywistość stała się miejscem schronienia dla wszystkich chętnych. Sceną, na której amatorzy pokazują mniej lub bardziej udane, unikalne i powielane po wielokroć dzieła (teksty). W tym nowym krajobrazie masy produkują na masową skalę sztukę (kulturę) dla samych siebie, nie dbając o jakiekolwiek uwierzytelnienia czy świadectwa jakości ze strony starego systemu elit i ich oragnzacji. Ekosystem baz danych oznacza kulturową platformę sztuki dla mas tworzonej i konsumowanej przez nie same.
Co jednak w takim razie z tradycyjnymi instytucjami, takimi jak muzeum, szkoła, uniwersytet, biblioteka, galeria, archiwum w obliczu tych przeciwieństw? Wszystkie one działają w duchu elitarnych selekcji informacji i masowej, bezzwrotnej ich transmisji. Weibel słusznie obawia się o ich motywacje i zdolność do adaptacji. Dla wielu instytucji zmiana 2.0 oznacza w perspektywie radykalny kryzys tożsamości. Wiele z nich z pewnością okaże się mało podatnych na zmiany, nie mając na nie, na dodatek, ani ochoty, ani niespecjalnie czując potrzebę adaptacji do nich. Jeśli taką zdystansowaną postawę uznamy za reprezentatywną dla oficjalnej polityki państw i poszczególnych sektorów działań kulturalnych i społecznych, to wokół sporu o oficjalną selekcję i dystrybucję informacji oraz nowe społeczne formy i cyrkulacje informacji może narastać nie tylko finansowy czy polityczny konflikt, ale także pokoleniowe, cywilizacyjne pole sporne i objawiać się mogą potencjalne przestrzenie nowego rodzaju wykluczenia kulturowego i społecznego. Do tego wątku powrócę jeszcze przy okazji rozważań na temat alternatywnych obiegów danych.
Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.
Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.
Zasadność drzewa wystawiła na dziejową próbę przede wszystkim rozpoczęta w okresie renesansu rewolucja społeczna w Europie, odkrycia geograficzne i podboje kolonialne w połowie ubiegłego tysiąclecia czy odkrycia nowoczesnych nauk i rewolucja przemysłowa. Nauka sprowadziła istnienie do poziomu pojedynczych cząstek elementarnych – wiemy, że świat wokół nas i my sami składamy się z cząstek, atomów, elektronów. Niedawno temu, biorąc pod uwagę ciągłość myślenia w duchu drzewa, potwierdziła się w powszechnym odbiorze teoria Kopernika, kiedy zobaczyliśmy na własne oczy naszą planetę spoza niej, z kosmicznego dystansu. Potwierdziły się w ten sposób obawy i nadzieje wszystkich tych, którzy sądzili, że Ziemia jest wyjątkowym miejscem – jedynym w swoim rodzaju elementem kosmosu. Zamiast tego okazała się jednym z wielu punktów na świetlnej mapie niebios, fragmentem nieogarniętej galaktycznej przestrzeni wszechświata. Wreszcie na naszą tożsamość i gatunkową ewolucję spojrzeliśmy przez pryzmat wizualizacji kodu DNA, który okazał się skomplikowanym układem kilku samodzielnych elementów. Do tego atomistycznego, zdekomponowanego pojmowania stanu rzeczy przyczyniły się także takie osiągnięcia, jak psychoanaliza, mechanika kwantowa i doświadczenia z energią jądrową, mikroskop, dokonania biologii i chemii z tablicą Mendelejewa i teorią ewolucji jako ich ikonami, kartezjański dualizm świata, teoria względności.
Współczesna kultura postrzega drzewo życia w konsekwencji tych i wielu innych zdarzeń już tylko jako jedną z możliwych porządkujących ją i objaśniających metafor. W duchu tych przemian nie zaskakuje dla przykładu skojarzenie ziaren piachu Victorii Vesny przywołane już wcześniej. Ta i podobne nowe figury, kryjące się za nimi kształty i opowieści zasilają współczesną wyobraźnię z siłą, która systematycznie wypiera okrzepłe w niej i oswojone kształty, takie jak mityczne drzewo. Jedną z najchętniej przywoływanych nowych metafor, w której jak w soczewce skupiają się nadzieje, obietnice i perspektywy związane ze zmianami społecznymi i kulturowymi, jest dzisiaj sieć. Odwołuje się ona do kształtu pajęczej lub rybackiej (dziś poszukiwanie precyzyjnych odniesień i pierwotnych kontekstów nie ma już racji bytu) sieci, której struktura składa się z przecinających się nawzajem linii tworzących siatki. Sieciowa metafora stała się ikoną globalnej w zasięgu metabazy danych (a zarazem bazą metadanych), jaką jest elektroniczna infrastruktura komunikacyjna zorganizowana i zarządzana w zdecentralizowany sposób. Na skutek popularności nowej figury elektroniczne sieci uznać trzeba również za semantyczne środowisko cyfrowych danych, w którym połączone są ze sobą generujące je, przechowujące i transmitujące maszyny cyfrowe wymieniające się nieustannie się tymi danymi przy świadomym współudziale użytkownika lub bez niego. Sieć to wirtualna przestrzeń, w której dane znajdują się w nieustannym ruchu, przekraczając tradycyjne ograniczenia kulturowe i technologiczne (czas, miejsce, kultura, geografia, hierarchie społeczne) wedle zarządzeń swoich właścicieli, administratorów czy tymczasowych dysponentów (piraci, hakerzy) po to, by na ustanawiać nowe, sieciowe związki między sobą.
Schyłek drzewa i narodziny sieci rozpalają także i popkulturowe wyobraźnie i stają się inspiracją dla tworzonych i rekonstruowanych w nich mitologicznych opowieści. Topos ten eksploatuje np. coraz częściej kino i pozostałe media masowe: weźmy choćby motyw drzewa życia obecny w mitologiach i tradycji wielu kultur, skomentowany ostatnio w głośnym Avatarze J. Camerona. W popularnych technokratycznych i popkulturowych narracjach zdehierarchizowaną antystrukturę sieci przeciwstawia się hierarchicznie uwikłanym drzewom. Powiązanych jest z nią zatem – nie wchodzę tu w źródła różnego typu ideologizacji, relacji władzy i estetyk wiążących w praktyce społecznej znaczenia z tym terminem – wiele społecznych nadziei związanych z równością, innowacyjnością, kreatywnością, sprawiedliwością, wyzwoleniem spod jarzma władzy i kontroli, nowymi możliwościami komunikacyjnymi społeczeństwa kapitalistycznego, które wybrało drogę liberalizmu, demokracji i poszanowania indywidualnych strategii życiowych. Sieć to metaforyczny lejtmotywów społeczeństwa demokratycznego, liberalnego, otwartego wobec upłynnionej nowoczesności, pogodzonego z ryzykownymi wyborami codzienności i strategiami życia, gotowego na nieustanną transformację i rekonstrukcję.
Zestawienie linearnego i hierarchicznego drzewa oraz sieci poststrukturalnie powiązanych elementów to nie jedyne figury inspirujące współczesne myślenie o komunikacyjnych zmianach. Różnicę zawierającą się pomiędzy strukturą drzewa i kłącza (to humanistyczny pierwowzór pojęciowy sieci) inaczej postrzega i nazywa francuski filozof Paul Virilio. W centrum swojej teorii kultury ustawił kategorię prędkości, której wzrost powoduje zmianę kulturowej optyki. W prędkości analogowego świata widoczne było przede wszystkim to, co bliskie oczom patrzącego – szczegóły naturalnego otoczenia dające się ogarnąć i rozpoznać nieuzbrojonym wzrokiem. Świat widziany w ten sposób to zbiór punktów, które łączą się nie tylko w widzialną całość, ale i konstruują matrycę patrzenia kulturowego. Świat postrzegany z perspektywy prędkości współczesności układa się w linie i mało wyraźne punkty na pograniczu zdolności widzenia patrzącego – wyraźne i namacalne pod jej wpływem staje się dalekie drzewo na widnokręgu, kiedy poruszamy się szybkim środkiem lokomocji, gdyż to co bliskie w takiej sytuacji, traci wyrazistość, zamienia się w plamy i linie.
Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].
Chciałbym teraz przyjrzeć się bazodanowym praktykom współczesności, czyli sprawdzić, jakie mechanizmy i zjawiska uruchamiają bazy danych, co dzieje się w świecie dookoła nas, kiedy wchodzą weń dane i pojawia się konieczność zarządzania ich bazami? Pomimo oznaczonych już szczegółowych kontekstów obecności i wpływu danych chciałbym wskazać na zjawiska, które mają bardziej uniwersalny charakter, dotyczą kultury i życia społecznego w ogóle, a w tych specjalistycznych obszarach działają wedle ogólnego modusu. Pośród palety tych praktyk kilka wydaje się mieć znaczenie priorytetowe dla mojej analizy, są to: wizualizowanie danych (infoestetyka i visual culture); zarządzanie danymi w domenie informacyjnej (data journalism, data mining i data art) oraz społeczna ekologia danych, tj. ich generowanie, indeksowanie oraz alternatywne w sensie politycznym, kulturowym i ekonomicznym obiegi/cyrkulacje. Odwołuję się do kryjących się za tymi hasłami praktyk, bo mają one postmedialny charakter. Wpisują się w ogólny nurt emancypacji technologicznej, tj. procesu społecznego przejmowania/konstruowania władzy nad technologiami komunikacyjnymi. Dotyczą zjawisk semiotycznych i związanych z dominacją wizualności w kulturze, są także świadectwem erozji/dezintegracji/rekalibracji formatu medium, rozmywania się jego form i ujednolicania/rozpraszania różnych medialnych gramatyk. Wszystkie te postmedialne okoliczności i scenariusze najpierw ogólnie umocuję pośród zjawisk nadrzędnych, a następnie przejdę do analizy dwóch wybranych przypadków, za pomocą których zilustruję najbardziej, jak sądzę, namacalne wpływy technologii baz danych i bazodanowego myślenia.
Skupię się po tej wstępnej charakterystyce kultury wizualnej na wizualizowaniu danych. Sens tej praktyki można, po pierwsze, rozpoznać idąc tropem ustaleń psychologii percepcji i kogniwistyki. To dyscypliny, które generują wiedzę o tym, jak postrzegamy i jak rozumiemy rzeczywistość odbierając i analizując docierające do nas bodźce. Współczesna wiedza o pracy mózgu podpowiada, że łatwiej jest mu rozumieć i interpretować informacje, które mają postać wizualną. Kiedy lewa, analityczna półkula zajmuje się obróbką liczb, liter i generalnie informacji, prawa jednocześnie przetwarza kolory i kształty, a zatem skupia się na projekcie graficznym. Kiedy obie zajmują się tym samym bodźcem, to nasze myślowe zaangażowanie wobec niego jest pełniejsze, bardziej emocjonalne, wywołuje pozytywne utrwalenie w pamięci. Mózg identyfikuje i interpretuje kształty, proporcje i kolory jako nierozłączny element przekazu, nie pomijając wysublimowanych związków pomiędzy treścią a formą [223].
W szczególnej sytuacji wobec danych i ich wizualizacji znalazły się m.in. takie dziedziny, jak nauka, biznes czy media. Sugerując się samymi tytułami publikacji poświęconych tej tematyce, można śmiało orzec, że wraz z wizualizowaniem baz danych w ramach dyskursów tych sfer następuje radykalna zmiana jakościowa, której efekty powoli stają się widoczne i zmieniają dotychczasowy w nich układ sił. Nauki ścisłe dzięki modelom wizualnym analizują kod DNA (genetyczna baza danych), socjologowie i geografowie społeczni generują interaktywne mapy pokazujące szeregi zależności między zmieniającymi się faktorami nakładanymi na siatkę topograficzną, ekonomiści posługują się wizualizacjami procesów ekonomicznych poszukując w nich uniwersalnych praw i próbując przewidzieć przyszłość, architekci projektują budynki publiczne o zmieniających się wizualnie fasadach-ekranach, a humaniści tworzą mapy pojęć i teorii [226].
Chociaż nieustannie wzrasta zakres sfer objętych różnego typu cyfrowym monitoringiem oraz sprawność w pozyskiwaniu i analizie danych o społeczeństwie, konsumentach, kulturach, itd., to jednocześnie można zaobserwować swoistą nonszalancję społeczeństw wobec tego zagadnienia. Sądzę, że można obecnie zaobserwować paradoks związany z wiedzą o wspomnianych grupach i ich zachowaniem: z wielką chęcią i w wielu wypadkach bez jakiejkolwiek krytycznej refleksji obnażające nas dane sami generujemy i udostępniamy w cyfrowym świecie, cyfrowo obnażamy nasze życie. Być może takie są społeczne koszty odzyskiwania/przejmowania władzy nad technologicznym uniwersum: tak dobrze czujemy się władając cyfrowymi maszynami, że nie zauważamy, lub lekceważymy, czerpiących z naszej euforii wiedzy mechanizmów i mechaników. Społeczne odrzucenie modelu komunikacji jednostronnej realizowanej za pośrednictwem mass mediów analogowych ma swoją wysoką cenę: dowolność podejmowanych działań komunikacyjnych kosztuje nas wyzbywanie się komunikacyjnej prywatności.
Pisałem o wizualizacjach danych jako interfejsowej estetyce coraz bardziej powszechnej na styku cyfrowości i kultury. Za pomocą wizualizowania możliwe jest kulturowe wykorzystywanie danych jako zasobów informacyjnych i wpuszczanie ich w szeroki obieg kultury. Analizowałem także różne cyrkulacje i obiegi danych, które da się zauważyć w cyfrowym ekosystemie. Chciałbym teraz zwrócić uwagę na zjawisko łączące dwa poprzednie. Chodzi o kulturowe i społeczne informowanie danych. To zbiór praktyk, których wspólnym zadaniem jest tworzenie zasobów wiedzy i kultury w oparciu o surowe dane, translacja surowych danych na pełnowartościowe semiotycznie informacje. Nie ma przy tym znaczenia ani pochodzenie danych, ani ich rodzaj – wszystkie dane na jakimś etapie kontaktu z nimi domagają się takich interpretacji. Tylko wtedy możliwe jest osiągnięcie nad nimi poznawczej władzy, kontrolowanie ich formy i efektywne wykorzystywanie, kiedy zostają oznaczone, posegregowane według semiotycznych kryteriów i przetłumaczone na dostępne w kulturze kody komunikacyjne (interfejsy).
Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.
Jednokierunkowe media analogowe (radio, telewizja) takich semiotwórczych możliwości nie udostępniały. Media cyfrowe wykonują cały cykl semiotyczny, czyli komunikują od znaku do odbiorcy i z powrotem ze wszystkimi tego procesu konsekwencjami i dla znaków, i dla odbiorców. Telewizja, to najważniejsze z mediów masowych współczesności, nie zdaje sobie sprawy z faktu, że jest oglądana na konkretnym odbiorniku telewizyjnym, a radio nie wiedziało i nie wie, kiedy kto i gdzie go słucha – w domenie cyfrowej takie sprzężenie jest regułą naturalną i zasadniczą dla charakteru tej mediacji. W tym sensie bazy danych można rozumieć jako poststrukturalną przestrzeń dyskursywną. Ich techniczna specyfika otwartości na zarządzanie i niekategoryzowanie jakości i parametrów tego zarządzania powołują do życia bazodanowych aktorów, którzy wirtualnie tworzą w nich realny kapitał symboliczny, konstruując w ten sposób cyfrową przestrzeń dyskursywną. Baza danych dodatkowo utrwala w czasie przebieg tego dyskursu, czyli oferuje nieustanne zapętlenie pomiędzy dokonującą się komunikacją a jej utrwaloną historią. W rezultacie w bazach danych ma miejsce nieustanna negocjacja relacji władzy, nadzoru i kontroli nieustanny dyskurs dotyczący kultury i życia społecznego w ogóle [238]. Ich indeksy są logicznie otwarte i podatne na strukturalne, a w konsekwencji na semiotyczne zmiany – bazy danych to format, który urzeczywistnia płynność znaczeń we współczesnej kulturze i inspiruje ich semantyczną ruchliwość. Można powiedzieć, że na skutek tak daleko posuniętej niestabilności i otwartości indeksów, które nadajemy danym, one same stają się elementem drugorzędnym. Chyba najbardziej dosadnym przykładem takiego społecznego indeksowania danych są krążące w cyberprzestrzeni memy obrazkowe, które stają się ikonami określonych, ale – co ciekawe – zmiennych w czasie, tekstów kultury. Takimi memem stało się zdjęcie sowy z szeroko otwartymi oczami, która symbolizuje zdziwienie i dystans poznawczy wyrażony za pomocą podpisu O’RLY (od ang. zwrotu: oh, really?, co na polski można przetłumaczyć jako: czyżby?). Stają się memami także wycięte z filmów pojedyncze sceny wypełnione charakterystyczną mimiką aktorów czy wypowiadanymi przez nich zdaniami [239].
W borgesowskim i baudrillardowskim (z perspektywy dyskursu teorii mediów trudno dziś osądzić, któremu z nich należy się laur pierwszeństwa) odwołaniu do mapy i kartografii współczesne teorie mediów usytuowały punkt orientacyjny dla kulturowej logiki wizualności i reprezentacji [254]. Dwaj wielcy konceptualiści wizualności przypominają, iż mapa jest pierwszą wizualną reprezentacją rzeczywistości, pierwszym „wirtualnym” kodeksem pozwalającym postrzegać (rozumieć) abstrakcyjnie przestrzeń i orientować się w niej. Reprezentacyjną i komunikacyjną regułę mapy wraz z towarzyszącym jej gestem mapowania i modelowania przestrzeni (= świata rozpoznanego i poddanego refleksyjnej obróbce) postrzegają jako przedtechnologiczną konstytucję medialności. Historyczne próby mapowania, powstające w ich rezultacie mapy – teksty i obrazy kultury oraz dyskurs kartografii jako metody reprezentacji przestrzeni i kultury – możemy zatem uznać za elementarne zadania genetycznego kodu współczesnych kondycji medialnych i kultury w nie uwikłanej. W przyjętej przez mnie postmedialnej perspektywie ich dotychczasowe znaczenie jest podwójne: 1) mapa jest zarazem matematycznym modelem/kodem rzeczywistości i jej semiotyczną reprezentacją; 2) mapa jest specyficznym, wizualnym pre-interfejsem kultury.
Kartograficzny instynkt, praktyki mapowania i figura mapy wpisały się także na dobre w fundamenty cyfrowego świata. Za ich pośrednictwem cyfrowe mediacje odwołują się do dziedzictwa wykraczającego daleko poza ontyczne regulacje technologii mediów analogowych i sięgają do początków kultury w ogóle. Mapa ustanowiła figuratywne podwaliny dla wyobraźni interfejsowej i interfejsowych form użytkowych (takich jak pulpit, przeglądarki, hipertekst), a orientacja w przestrzeni to praktyka, która leży u podstaw nawigacji po oceanie danych. Cyfrowym echem kulturowych mitologii mapy i kartografii są również metafory cyberprzestrzeni, oceanu informacji i nawigacji po jego wodach. Posiłkując się nimi objaśniamy sobie samym strukturę cyfrowego świata i lokujemy/lokalizujemy się w nim, tak jak to instynktownie czynimy w realnym świecie wokół nas. Terytorium za sprawą mapy i kartografii, a przestrzeń dzięki euklidesowej geometrii zyskały kulturowy porządek i strukturę. Zasilana elektrycznie domena cyfrowa potrzebuje analogicznych (ale nie analogowych) działań. Dla mojej narracji najważniejszy jest w tym kontekście fakt, że mapę uznać można za pierwszą medialną bazę danych o świecie, jego pierwszą infoestetykę.
Cyfrowe zakodowanie formy i treści mapy otwiera ten kulturowy tekst/obraz na wszelkie możliwe bazodanowe praktyki, estetyki i polityki – czyni ją podatną na remiks, wariacje użytkowe i niezliczoną ilość nakładających się na siebie/przenikających się narracji semiotycznych i interfejsów. Przez to wprowadza ją na obszar po „śmierci autora”, choć powinienem napisać w tym przypadku o śmierci kartografa, w którym miejsce i rola dla wielkich wizjonerów i kartografów są ograniczone, poddane różnorodnej konkurencji i weryfikacji. Przywołajmy w tym miejscu średniowiecznego hiszpańskiego mnicha Beatusa z Lièbany, któremu zawdzięczamy wspaniale ilustrowaną Mappa Mundi uznawaną za jedną z najważniejszych, a przy okazji i najpiękniejszych, map świata. Ta mapa była nie tylko poruszającym estetycznie wizualnym modelem świata. Była jednocześnie wielką o nim opowieścią; kodem zawierającym w sobie teologiczną, polityczną, społeczną i artystyczną summę wiedzy, historii i kultury w ich ówczesnych autodefinicjach. W cyfrowych okolicznościach powinności i kompetencje niegdysiejszych zakonnych kartografów-narratorów przejmują w dużej mierze maszyny medialne. To wspomniane powyżej autoreferencyjne technologiczne systemy skanujące i modelujące (satelity, fotografie lotnicze, street wiev), które samoczynnie mapują powierzchnię globu i przetwarzają zebrane dane w gotowe modele software’owe (Google Earth) regulujące kształt olbrzymich zasobów pozyskanych tą drogą geodanych. Powstaje dzięki ich skanowaniu i przetwarzaniu mapa – baza danych, która jest dokonała kartograficznie i technologicznie. Brakuje jej jednak duszy kulturowej metafory, nie jest intrygująca estetycznie i nie opowiada świata, a jedynie go odtwarza.
Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].
Pozostając w obszarze map uzupełnijmy tę ogólną diagnozę interfejsowego zwrotu o teorie i metafory Deleuze’a i Guattari’ego związane z przestrzenią oraz jej postrzeganiem i rozumieniem. Teoretyczne intuicje filozofów, wynikające z badań nad organicznymi i kulturowymi uwarunkowaniami percepcji i jej naturalnego sensorium, tworzą imaginacyjny grunt, w którym sytuuje się haptyczny potencjał cyfrowej wizualności i taktylna logika medialnych gestów użytkowników cyfrowych technologii. Efemeryczne propozycje językowe i pojęciowe francuskich filozofów w tym zakresie rysują generalny podział pomiędzy widzeniem hierarchicznym a widzeniem rizomatycznym. Francuzi odróżnili także pojęcia przestrzeni gładkiej (smooth space) i przestrzeni pręgowanej (striated space). Ta pierwsza kategoria odnosi się do środowiska naturalnego i krajobrazu, w którym operuje podmiot. Nie ma ona granic ani centrów. Jej percepcja implikuje płynne doznania i wyobrażenia wynikające z doświadczenia takich niestałych, amorficznych elementów, jak morze, wiatr, piach, czas, dystans. Jest ona bardziej haptyczna niż optyczna, tj. ma namacalną, dającą się sensorycznie odczuć fakturę. Można ją skojarzyć ze sferą nieświadomości. Wymaga nieustannego przystosowywania się, cechują ją krótkie stany, zbliżenia, wariacje, przeżycia, odczucia. U siebie są tu nomadowie, a źle czują się bez wytyczonych ścieżek pielgrzymi. Przestrzeń pręgowana jest natomiast homogeniczną w strukturze siatką powiązań, zależności i hierarchii, które wytyczają na niej kulturowo, przez działania polityczne, ekonomiczne, historyczne w ogóle, ustanowione linie demarkacyjne (blizny). Wpisane są w nią znaczenia i hierarchie, zależności i perspektywy [265].
Wizualne bazy danych, które zrastają się ze swoimi dotychczasowymi interfejsami mieszczą się w centrum krajobrazu postmedialnego. Unieważniają zarówno dotychczasową funkcję i język mediów, jak i regułę terytorium, osłabiają kulturowy dystans między nimi do niemal niepercypowanej, znajdującej się na granicy kultury percepcji różni. Za sprawą taktylnych map-interfejsów terytorium zrasta się ze swoją reprezentacją, przekraczając nawet borgesowsko-baudrillardowskie wyobrażenia o skutkach takiego stanu – terytorium staje się bowiem, śladem mapy, kartograficzną bazą danych, którą daje się prostymi, wizualnymi interfejsami manipulować. Bazodanowa mapa konstruuje terytorium i zarządza nim, a nie tylko je poprzedza [267]. Bruno Latour powiada, że terytorium staje się w ten sposób jedną z przestrzeni ryzyka, raczej mimetyczną a już nie tradycyjnie abstrakcyjną, nawigacyjną {[268]. Kartografia zaś w obliczu tych zmian zmienia się nie tylko na drodze od hierarchicznych narracji do społecznościowych praktyk, ale zbliża się także ku kartografii semantycznej, w której nie chodzi już o obrazowanie i reprezentowanie terytorium naturalnego i cywilizacyjnego, ale jego kulturowe modelowanie, opowiadające/konstruujące świat przez pryzmat różnych, dobieranych w tym celu, kryteriów symbolicznych. To dlatego najbardziej dziś intrygujące nie są już obrazy/mapy odbijające wiedzę o materialnym świecie, nawet te najbardziej doskonałe, ale mapy, które pokazują świat społeczny, kulturowy, symboliczny. Takimi są mapy społecznościowe, w których na topografię miasta nałożona jest wizualizacja najchętniej odwiedzanych w nim miejsc, najciekawszych tras spacerowych czy obszarów, gdzie spotkać można określone grupy ludzi [269].
Bliskość wobec mapy i jej postrzeganie jako żywego organizmu/terytorium powiązane są nie tylko ze społecznym i indywidualnym zaangażowaniem w jej indeksowanie, ale także ze zmieniającym się na skutek takich medialnych bytów kulturowym postrzeganiem przestrzeni, jej wyobraźnią. Rozumieć przestrzeń, podobnie jak i zmieniającą się czasie filozofię kartografii i formę mapy, to uznać ją za zmienny w czasie kod, jedne z wielu kulturowo-społecznych okularów, przez które przyglądamy się światu. Kod ten zmienia się historycznie i geograficznie w ramach takich faktorów, jak spojrzenie lokalne i globalne, zdystansowane i immersyjne, rytualne i strukturalne [270]. Tę kulturową dynamikę patrzenia potwierdza bliskość wobec współczesnych map, immersja w nie i splatanie się kartograficznych wytworów z terytorium. W ten sposób objawia się moc sprawcza sytuacji postmedialnej – jest ona w stanie podkopać fundamenty nawet takich kulturowych dogmatów, jak materialne, naturalne terytorium.
Pozostając wciąż przy interfejsach taktylnych i ich związkach z wizualnością, a wychodząc poza bezpośrednie skojarzenia z kartografią i mapami, przyjrzyjmy się teraz jednemu z najbardziej oczywistych w swej taktylno-wizualnej formie projektów, który ma szansę stać się jednym z drogowskazów w rozwoju cyfrowości w ogóle, wytyczając kierunek od rzeczywistości wirtualnej ku rzeczywistej wirtualności. Chodzi o projekt interfejsu Sixth Sense autorstwa amerykańskiego inżyniera i projektanta hinduskiego pochodzenia Pranava Mistry. To osobisty interfejs służący w zamyśle codziennej obsłudze popularnych czynności związanych z używaniem cybertechnologii. W prosty sposób sprawdzimy dzięki niemu pocztę, zrobimy zdjęcie, przeczytamy gazetę czy napiszemy fragment tekstu. Wszystkie te działania możliwe są tu jednak nie dzięki domyślnym ich interfejsom – klawiaturze, ekranowi, łączom internetowym – ale za sprawą obrazów wyświetlanych na dowolnej materii, na której możliwa jest projekcja światła. Monitorem a zarazem panelem dotykowym staje się dla tego interfejsu dowolna ściana, ręka, odzież. Z pomocą obrazu rzutowanego przez komputer połączony z niewielkim projektorem światła całą otaczającą rzeczywistość można potraktować jako element interfejsu. Świat staje się w tym projekcie jednym wielkim zbiorem przycisków, klawiaturą i myszą, którymi go obsługujemy [271].
Tak oto zarządzanie bazą danych, czy też bardziej ogólnie – obcowanie ze światem cyfrowym skonstruowanym w oparciu o jej gramatykę, stało się działaniem sprzężonym z naszą motoryką, przeniknęło do fizycznego świata przekraczając wszelkie granice dotąd te dwa „programy” rzeczywistości separujące. Taktylność/haptyczność obrazo-ekranów i zatomizowanych interfejsów to sytuacja, która różnie jest interpretowana na gruncie teorii interakcji i teorii interfejsów. Na początku pierwszej dekady XXI wieku kanadyjscy krytycy technokultury, A. Kroker i M. A. Weinsten, tak ostrzegali przed nadmiernym zbliżaniem się do siebie ciał i maszyn cyfrowych, które miałoby skończyć się symbolicznym wchłonięciem cielesności przez wirtualność [272]:
Technotopia to znikanie: ciała w relacyjnych bazach danych, systemu nerwowego zanużonego w logarytmach i skóry ewoluującej w kierunku wetware. Kiedy technologie ożywają i przybierają formę unikalnych gatunków, wchodzimy w okres końca (ludzkiej) historii i początek historii wirtualnej. To czas nieustannej cielesnej cyrkulacji pomiędzy synapsami a technologicznymi magazynami danych: sieciami.
Jak się okazało, tego typu kulturoznawcze obawy pozostały w cieniu cyberoptymistycznego dyskursu emancypacji cielesności w cyberświecie, głoszonej przez takie postaci, jak Donna Haraway z jej cyberfemistycznym Manifestem Cyborga [273], czy dyskursu nowej dyscypliny zajmującej się relacjami ciała i techniki, kogniwistyki. Jej przedstawicielom, wywodzącym się z dotychczasowej psychologii, neurobiologii, psychiatrii i studiów kulturowych, można jednak zarzucić zbytni uniwersalizm, uproszczenia i redukcjonizm: według ich krytyków ze szkoły teorii aktywności (Leontiev, Vygotsky) stworzyli oni jedynie mechanizm rozumienia interakcji człowiek-komputer jako sfery budowania takich rozwiązań interakcyjnych, które generowałyby mentalne odpowiedniki matematycznego software. Myślenie (a zatem percepcję, myślenie abstrakcyjne i działanie według niego) kognitywiści ci rozumieli jako uniwersalną strukturę, którą można odczytywać komputerowo, w taki sposób ją analizować i poddawać programowaniu – stworzone komputerowo matematyczne modele percepcji i myślenia następnie kodować według wszelkich znanych zasad matematycznych, stosując sprzężenie zwrotne pomiędzy człowiekiem i maszyną. W tym podejściu popularność zyskały takie hipotezy, jak ta o strukturalnym podobieństwie mózgu do komputera, o możliwości budowy w oparciu o rozpoznania w tym polu sztucznej, matematycznej inteligencji, itd. Myślenie tego typu dominowało wśród technokratycznych zwolenników rozwoju cybertechnologii.
Innym, skrajnie różniącym się od kognitywistyki, tropem metodologicznym, który warto przyłożyć do obszaru interakcji pomiędzy cyfrowymi maszynami i ich użytkownikami, jest etnometodologia. Doszukuje się ona sensów w ludzkich działaniach bez odwołań uniwersalnych, ani tych biologicznych, ani technologicznych. Na pierwszym miejscu stawia natomiast konkretny kontekst sytuacyjny i kulturowy, w którym wypadł działać człowiekowi i zbiorowościom. Etnometodologia rozumie działania jako kulturowo i środowiskowo uwarunkowaną improwizację wobec zmieniających się okoliczności. Nie ma zatem mowy o uniwersalnych prawdach dotyczących percepcji, myślenia, zachowania – są za to mikrodziałania i kulturowo-środowiskowe ich uwarunkowania, do których zaliczyć należy także technologie, a w szczególności technologie komunikacyjne. Takie unikające generalizacji rozumienie i dyskurs naukowy można w zasadzie określić mianem antyteorii. Oba skrajne stanowiska zdaje się godzić wielowątkowa teoria aktywności, która stara się przyglądać aktywnościom rozumianym jako holistyczne działania podmiotu angażującego w nie psychomotorykę i sferę emocjonalno-racjonalną, osadzonego w konkretnym kontekście kulturowym, technologicznym i społecznym [274].
Poza kartografią i mapowaniem taktylność znaków i obrazów obecna jest także w takich praktykach kultury współczesnej, jak design. Nie wchodzę tu w spory dotyczące jego definiowania, pozostanę natomiast przy takim jego rozumieniu, które określiłbym jako wywodzącą się z typografii, wzornictwa przemysłowego, projektowania graficznego oraz kultury mediów audiowizualnych i sztuk plastycznych metodę konceptualizowania i estetyzowania przedmiotów codziennego użytku. Design ma swoje korzenie w typografii, kartografii, malarstwie i innych pokrewnych sztukach plastycznych. Z nich czerpie metody pracy i wyobraźnię wizualną wraz z jej historycznymi kodami artystycznymi i rzemieślniczymi. Estetyczną wrażliwość uzupełnia w nim wiedza projektantów z zakresu materiałoznawstwa, inżynierii, mechaniki, itd. Design to zatem praktyka, która polega na graficznym estetyzowaniu rzeczywistości technologicznej w celu wydobycia ich wspólnego znaczenia komunikacyjnego. W tym sensie jest to jedna z odnóg kultury wizualnej w ogóle. Jest jednak przedłużeniem krytycznym – zawsze subwersywnie patrzy na tradycyjne obrazy i media je transmitujące, poszukując krytycznych dla nich alternatyw [275].