Abstrakt
Tekst jest formą krytycznej relacji opisującej stan i wybrane kierunki odbywających się we współczesnej kulturze poszukiwań form i sensów cyfrowych interfejsów użytkownika. Autor przybliża i poddaje krytycznej analizie dominujące kierunki rozwoju tych technologii i zastanawia się nad ich antropologicznymi oraz społeczno-kulturowymi uwikłaniami i konsekwencjami. W tekście pojawiają się odwołania do koncepcji uniwersalnej maszyny obliczeniowej i obsługującego ją kodu cyfrowego, antropologii komunikacji i mediów oraz ewolucji form nowych mediów.
Abstract
Author presents directions in searching for cultural interfaces that allows user to communicate with digital technologies and cyberculture and critically analyses their social and cultural meanings, influences and links with other subsystems of everyday life. There are few main perspectives taken under consideration: relationships between technologies and culture; anthropology and archeology of media. Article deals with crucial for contemporary media studies concept/problem: universal computing machine/medium, digital code(s) that runs it and interfaces that translate “digitality” into familiar cultural sings and languages.
W poszukiwaniu interfejsu idealnego
Poszukiwanie rozwiązań idealnych to immanentna cecha rozwoju sfery technēē. Także w historii jej podsystemu technologii medialnych widać dążenie do tworzenia doskonałych, a przynajmniej doskonalszych od tych w danej chwili dostępnych, lepiej zaspokajających aktualne potrzeby, form i obiektów. Jej karty zapełniają ślady urządzeń, za pomocą których starano się możliwie najpełniej i jak najbardziej adekwatnie wyrazić ducha czasów, przetłumaczyć zmieniające się pod względem kulturowym oraz społecznym imaginaria komunikujących się użytkowników.
W interesującym mnie obszarze nowych mediów oraz cyberkultury wysiłki te zmierzają przede wszystkim w dwóch, i to rozbieżnych, kierunkach. Pierwszy z nich wytycza idea radykalna, którą propagują „ekologowie” medialnej kultury współczesności: idea powrotu do organicznej, niezapośredniczonej technologicznie komunikacji „twarzą w twarz”. Chodzi o zwrot ku pierwotnym, naturalnie referencyjnym zdarzeniom komunikacyjnym, w których – odwołam się tu do klasycznego słownika Shannona-Weavera – nie ma oporu, szumów i zniekształceń wnoszonych do transmisji nawet przez najdoskonalsze, najbardziej wyrafinowane z dostępnych, techniczne, sztuczne przekaźniki. Wizja ta wydaje się utopią w obliczu niebywałego namnożenia nowoczesnych technologii medialnych i zawłaszczenia/mediatyzacji sfery komunikacji przez zdarzenia i formy, które ją technologicznie zapośredniczają. Takie stanowisko prezentują głównie antropologowie, psychologowie oraz filozofowie mediów i komunikacji. Drugi z kierunków poszukiwania idealnych rozwiązań komunikacyjnych wytyczany jest przez, mające źródła już w oświeceniowym kulcie przemysłu i techniki, technocentryczne zaufanie do mediów oraz wiarę w możliwości wynikające z ich technologicznego rozwoju. Społeczeństwa i kultury, podążając tym tropem, poszukują medialnego Grala – idealnej, mitycznej formy technologicznej, która umożliwiałaby swobodną, wielowymiarową interakcję i wielokierunkową wymianę zasobów. Jednym z etapów tego nieustannego dążenia jest pojawienie się technologii cyfrowych (pamiętajmy o ich kontrkulturowym, antysystemowym obliczu[1]), które zastosowane w praktyce komunikacyjnej uruchomiły w medialnej kulturze formułę interfejsu.
Nie wchodząc w tym miejscu w szczegółowe kwestie definicyjne, powiem, że cyfrowe interfejsy są technologiami postmedialnymi czy też metamedialnymi – łączą w sobie i transkodują wiele dotychczas istniejących formatów medialnych. Kategoria interfejsu w znaczącym stopniu podważyła i ograniczyła znaczenie fundamentalnego dla dyskursu medioznawczego pojęcia medium. W epoce cyfrowej idea medium jako formuły łączącej maszynową podstawę z możliwością różnych form jej użytkowania, nadawanych w trakcie procesu społeczno-kulturowego oswajania, uległa erozji i redefinicji[2]. Technologie cyfrowe, w odróżnieniu od mediów analogowych, są jednolite, zestandaryzowane pod względem technicznym. Nowe media funkcjonują w oparciu o uniwersalną architekturę obliczeniową, w skład której wchodzą procesory numeryczne, które przy pomocy czipów pamięci tymczasowej operują na dostarczanych zasobach danych i transformują je według zaimplementowanych algorytmów. Wokół obliczeniowego jądra umieszczane są przeróżne interfejsy wejścia i wyjścia z tego cyfrowego systemu. To ich konfiguracja i specyfika decyduje o rzeczywistym kształcie określonego cyfrowego formatu komunikacyjnego. Współczesny telefon komórkowy – będę jeszcze o nim wspominał – technicznie niewiele się różni od, dajmy na to, odtwarzacza dvd czy nawigatora GPS. Sercem każdego z tych automatów są elektroniczne układy obliczeniowe, a różnicę stanowią jedynie interfejsy wejścia i wyjścia – ich dobór, konfiguracja i współzależności. Telefon potrzebuje nadajnika i odbiornika sygnałów w formacie gsm, odtwarzacz dvd ma za to zaawansowane procesory sygnałów dźwiękowych, które umożliwiają dekodowanie sygnału przeznaczonego do odtwarzania na kilku elementach głośnikowych jednocześnie. GPS potrzebuje anteny do odbioru sygnału satelitarnego. Niezależnie od tego, jak „rozbroimy” technologie cyfrowe na analityczne fragmenty, to ich interfejsy wytyczają cyfrowo-analogową płaszczyznę, na której wyłaniają się technologiczne kształty i użytkowe reguły komunikacji. Dowodem na technologiczną jednolitość mediów cyfrowych i jednocześnie na ich formalną zależność od rozwiązań interfejsowych jest konkurencja producentów sprzętu cyfrowego, którzy oferują coraz bardziej eklektyczne, transmedialne rozwiązania – notebooki, netbooki, tablety, telefony gsm z klawiaturami i ekranami dotykowymi, touchpady.
Najważniejsza różnica pomiędzy analogowymi a cyfrowymi mediami wynika jednak z rozbicia tych ostatnich na niezależne od siebie w procesie tworzenia, choć ściśle sprzęgnięte i nierozerwalne funkcjonalnie, poziomy. To twarda, fizykalna rama rozwiązań technologicznych obleczona w twory software, czyli sekwencje programistyczne, które regulują i kontrolują pracę twardej maszyny. Sprzęgnięte ze sobą twarde interfejsy wejść i wyjść wraz z rozwiązaniami interfejsowymi w ramach poziomu software współtworzą generalny interfejs użytkownika, który będzie dla mnie punktem odniesienia w tym tekście.
Pytanie, które chcę sobie w nim postawić, brzmi: jakie są, czy też jakie być mogą, idealne postacie tych interfejsów? Obserwacja aktualnego stanu prac nad technologiami cyfrowymi i sieciowymi nie pozwala bowiem na wyciągnięcie jednoznacznych wniosków. Przede wszystkim dlatego, że zarówno konstruowanie, jak i waloryzowanie interfejsów odbywa się jednocześnie na wielu funkcjonalnych płaszczyznach rzeczywistości kulturowej. Ich ewolucja dokonuje się równolegle, choć z różną dynamiką, w sferach technologicznej, artystycznej, społecznościowej, rozrywkowej czy praktyki użytkowej, a w każdym z tych ważnych cyberkulturowych systemów pożądane są nieco inne rozwiązania i dostępne różne zasoby oraz gramatyki. W rezultacie trudno o jakieś uniwersalne rozwiązania komunikacyjne, które okazałyby się idealne we wszystkich wymienionych odczytaniach i uwikłaniach jednocześnie. Odpowiedź na postawione pytanie jest też trudna ze względu na właściwą twórcom/użytkownikom cyberkultury i jej technologicznych machinerii skłonność do ich nadmiernego mitologizowania, podobnie jak i do, częstokroć bezkrytycznego, przyswajania raz uruchomianych przez nie zjawisk kulturowych. Jest to zresztą zjawisko charakterystyczne dla „młodzieńczej” fazy kulturowego żywota wielu technologii. Pojawianiu się kolejnych mediów zawsze towarzyszyła społeczna i kulturowa euforia oraz brak dystansu. Sądzę jednak, że taka odpowiedź, pomimo wspomnianych trudności, jest – przynajmniej częściowo – możliwa.
Udzielę jej, wskazując na dwie przeciwstawne tendencje dające się zaobserwować w rozwoju technologii cyfrowych. Każda na swój własny sposób projektuje model interfejsu idealnego. Pierwsza z nich polega na tworzeniu form możliwie jak najbardziej uniwersalnych, które sprostać mogą wielu wyzwaniom jednocześnie i zdolne są do wchłonięcia, zastąpienia form starszych. Takim interfejsem okazała się, z historycznego punktu widzenia, idea uniwersalnej maszyny obliczeniowej, która z czasem przybrała postać komputera osobistego, a współcześnie – wielu jego pochodnych. To właśnie jej formuła wytyczyła dla wielu pokoleń ontyczny, antropologiczny sens cyberkultury – interfejs ten stał się wspólnym doświadczeniem kulturowym i zdominował powszechną wyobraźnię na temat cyberkultury. Podobny sens ma sieć stron www i organizujący je język programistyczny html. Dzięki tym interfejsom cyberkultury oswoiliśmy kulturowo i nauczyliśmy się wykorzystywać technologie cyfrowe do zadań komunikacyjnych. Druga tendencja, którą chciałbym przybliżyć, wynika z zaproponowanej już w okresie popularności desktopa idei komputeryzacji „niewidocznej” kulturowo, pozbawionej interfejsów w tradycyjnym sensie tego pojęcia i zorganizowanej w oparciu o wszechobecne, wyspecjalizowane mikrokomputery. Analiza obu tych wykluczających się, ale i wchodzących w przeróżne, nieoczekiwane, hybrydowe kompromisy, trendów prowadzi do rozbieżnych odpowiedzi na pytanie o kulturowe oblicze idealnej formuły komunikacji pomiędzy człowiekiem a inteligentnymi maszynami.
Uniwersalny meta-interfejs
Przyjrzyjmy się najpierw idei interfejsów uniwersalnych i jej niejednolitym technologicznym odczytaniom. Poszukiwania uniwersalnych interfejsowych form rozpocznę od twardego poziomu cyberkultury. Sądzę, że na tym poziomie jest to współcześnie najpowszechniej obierana strategia rozwijania interfejsów, przez wielu uznana w zasadzie za niepodważalny standard i priorytet cyfrowej architektury. Taka ich pozycja wynika z faktu, iż zdolne są do wchłaniania i synergicznego spajania wielu dotąd wyspecjalizowanych, mniej wszechstronnych maszyn medialnych. Komputer, w postaci jaką dzisiaj najlepiej znamy, desktop czy laptop, to transmedialna, uniwersalna użytkowo synteza form i gatunków medialnych.
Uniwersalność w obszarze technologii cyfrowych nie ogranicza się do tego typu interfejsu. Posiada dużą dłuższą historię kulturową. Za funkcjonalny fundament maszyny obliczeniowej uznali ją już na etapie tworzenia pierwowzorów dzisiejszych komputerów tacy ich historyczni wizjonerzy, jak Leibniz czy Babbage. Wierzyli oni, że rzeczywistość można zakodować przy użyciu uniwersalnego kodu cyfr, stosując się do zasad matematyki, zaś powstałe w ten sposób sekwencje – przetwarzać, wykorzystując uniwersalne automaty obliczeniowe. W gruncie rzeczy skonceptualizowali w ten sposób maszynę idealną, która przeliczałaby dane ze wszystkich dających się zakodować obszarów rzeczywistości. Kolejny z „ojców założycieli” technologii cyfrowych, Alan Turing, posunął się jeszcze dalej. Wyobraził sobie automat zdolny do przetwarzania wszelkich znaków i symboli, zarówno cyfrowych, jak i wywodzących się z innych niż matematyczne kodów kultury. Maszyna Turinga (jak się ją dzisiaj określa) mogłaby potencjalnie wcielić się w rolę każdej innej dowolnej maszyny, albo przynajmniej stać się jej istotnym funkcjonalnym elementem – stałaby się tym samym maszyną totalną[3]. Byłaby ona, potencjalnie, otwarta na dowolne kody i formuły komunikacji. Zdolna do współpracy z wieloma obsługującymi ją wejściami i wyjściami.
Z punktu widzenia dzisiejszych standardów komunikacji na linii maszyna – cżłowiek opisana koncepcja ma ograniczony sens. Przez wiele stuleci wizjonerom i inżynierom projektującym podobne uniwersalne rozwiązania technologiczne nie towarzyszyła troska o nie. Skupieni na mocy obliczeniowej projektowanej maszyny sądzili, że sposób komunikowania się z nią – nasz interfejs użytkownika – ma znaczenie znikome i wtórne wobec jej obliczeniowego potencjału. W zasadzie dopiero zaistnienie technologicznych możliwości translacji wyników procesów obliczeniowych – wraz z nastaniem epoki kineskopu i telewizji – do postaci modulowanych elektronicznie obrazów wymusiło najpierw rekonstrukcję wyobraźni twórców i użytkowników mechanicznych oraz tekstowych maszyn liczących, a następnie w szybkim tempie odmieniło komunikacyjne oblicze cyfrowych automatów. Spośród wielu użytkowych koncepcji i projektów interfejsów mechanicznych, tekstowych oraz graficznych akurat format wizualizującego wyniki obliczeń komputera osobistego, popularnego desktopa (wraz z młodszymi krewnymi, takimi jak laptopy, palmtopy, netbooki, tablety), zainicjował szeroką popularność cyberkultury i Internetu, stając się najważniejszym autorem powszechnej historii cyfrowości. Ten popularny interfejs zaistniał – jak już wspomniałem – jako powszechny standard funkcjonalny cyberkultury. Większość użytkowanych współcześnie technologii cyfrowych to w dużym stopniu klony i wariacje na temat funkcjonalnej struktury uniwersalnego, choć przeznaczonego do personalizowanych zastosowań, osobistego komputera. Można go zatem uznać nie tylko za maszynę uniwersalną, ale i uniwersalne meta-medium – cyfrową platformę, na której zadomowiły się wszystkie wcześniejsze media. Peter Weibel powiada, że komputer jest w zasadzie post-medium, bowiem przez swoją uniwersalność wchłania i tym samym unieważnia dotychczasowe technologie medialne[4].
Reactable i Tenorio-On
Przejdźmy do przykładów uniwersalnych interfejsów hardware. Audialną maszyną Turinga można nazwać cyfrowy metainterfejs muzyczny Reactable[5]. To dotykowy, interaktywny „stół” odtwarzający na podobieństwo tradycyjnych, analogowych i elektrycznych, instrumentów brzmienia i dźwięki. Wykonując różnego rodzaju gesty i ruchy na powierzchni jego „blatu”, wydobywać można różne składnie dźwiękowe na bazie dowolnych sampli i loopów odtwarzanych na życzenie grającego. Interfejs ten stanowi uniwersalne narzędzie dla twórców muzyki – na życzenie użytkownika może mieścić w sobie wszystkie już istniejące brzmienia, rytmy i harmonie. Nad podobnymi rozwiązaniami pracują najważniejsi producenci klasycznych instrumentów. Yamaha od kilkunastu miesięcy sprzedaje metainstrument o nazwie Tenori-On[6]. Jest to mieszczący się w ręku prostokątny tablet wyposażony w świecące i wrażliwe na dotyk, programowalne przyciski. Firma sprzedaje ten produkt jako wizualny interfejs muzyki, zachęcając np. do malowania dźwiękowych pejzaży, tj. używania touchpadu jako sztalugi i wizualnego modulowania generowanych dźwięków. I want to handle both light and sound simultaneously and pleasantly, as we play music or draw pictures – tak opisuje ideę swego projektu jego designer, Toshio Iwai.
Interfejsy Reactable i Tenori-Ona są czymś więcej niż tylko wyidealizowanymi narzędziami do tworzenia muzyki. Ich funkcjonalna uniwersalność predestynuje je także do roli ekwiwalentu wielu tradycyjnych, nie-dźwiękowych, mediów oswojonych w różnych przestrzeniach kultury. To wszechstronne metainstrumenty, które pozwalają na tworzenie postinstrumentalnej muzyki – choć być może bardziej adekwatne byłoby tu określenie: pejzaży audialnych. Przy okazji są także interfejsami inter- i transmedialnymi, które łączą sferę audialną cyberkultury z pozostałymi. Zapewne niebawem podobnie będą wyglądać i działać także urządzenia przeznaczone do obróbki obrazu, tekstu czy panele kontrolne dla graczy. Trzeba jednak od razu przyjrzeć się im nieco bardziej krytycznie. Metainstrument nie tylko ogarnia fakturę brzmieniową muzyki, odrywając ją od świata analogowych artefaktów – metalowych strun, drewnianych gryfów czy ebonitowych klawiszy, ale czyni bezużytecznymi wszelkie „tradycyjne” techniki gry i ekspresji związane z analogowymi instrumentami. Gesty i zachowania, które powołuje do życia ten interfejs, są gestami uniwersalnymi: wspólnymi dla wielu możliwych zastosowań podobnych interfejsów. Identycznymi ruchami ręki można modulować dźwięki wydobywane przy pomocy Reactable, czyli grać muzykę, i, dla przykładu, przerzucać stronice elektronicznej książki. Czy w ogóle możliwa jest muzyka wykraczająca poza gramatykę cielesności? A może chodzi o jakąś utopijną kategorię uniwersalnych, prostych metagestów, przy pomocy których będzie można w nieskomplikowany sposób zarządzać rzeczywistością? Jeśli dotąd mieliśmy do czynienia z koniecznością ruchowej kompetencji i zgodności ciała w kontakcie z wieloma urządzeniami oraz ich przeróżnymi interfejsami, to dziś stajemy wobec redukcji sposobów zachowań niezbędnych do obsługi nawet najbardziej wyrafinowanych technologii. W efekcie zostajemy przy niewielkim zbiorze podstawowych ruchów rąk i kontakcie wzrokowym. Gesty, które nie muszą posługiwać się materialnymi przedmiotami, mogą okazać się kulturowo i biologicznie puste. Nie obcują przecież z materią i nie wprawiają jej w ruch. Możliwe, że uniwersalizacja i standaryzacja interfejsów doprowadzi przyszłe pokolenia do kroku wstecz w antropologii cielesności, który dzisiaj sceptycznie nazwałbym nasilającym się wtórnym analfabetyzmem psychomotorycznym lub – za McLuhanem – stanem postępującej amputacji zmysłów (do tego wątku jeszcze powrócę).
W kulturze znane były już wcześniej takie interfejsowe formy hybrydyczne – np. połączenie gitary i instrumentu klawiszowego.
Zgoła przeciwnie ocenić można interfejsy uniwersalne, przyglądając się projektowi interfejsu gier interaktywnych Natal. Jego działanie polega na transmisji do cyberprzestrzeni obrazu rzeczywistych ruchów i gestów grającego (z pomocą obserwującej go kamery), przetworzeniu ich na potrzeby wirtualnego środowiska i wykorzystaniu jako zinternalizowanej procedury operacyjnej. Inaczej mówiąc, użytkownik tego interfejsu wykonuje przed kamerą ruchy, które następnie obserwuje jako jedną z części rzeczywistości wyświetlanej na ekranie. Omawiany interfejs szanuje język ciała swojego użytkownika – przenosi jego mimikę i motorykę do cyberprzestrzeni, tworząc jej wirtualną reprezentację. Tego typu interfejsowe koncepty posiłkujące się naturalną motoryką i gestami są dzisiaj przedmiotem ożywionego zainteresowania przemysłu komputerowego. Kilka firm oferuje już komercyjnie technologie pozwalające na czytanie gestów i ruchu ciała. Wprawdzie potrzeba do tego skomplikowanego osprzętu (skafandry z sensorami, kamery 3D) i wyszukanych rozwiązań software, jednak efekty przenoszenia złożonej cielesnej dynamiki do cyberświata są obiecujące i imponujące – wystarczy spojrzeć na realistyczne ruchy bohaterów współczesnych gier czy grę postaci w kinowym hicie ostatnich miesięcy „Avatar” – możliwe dzięki takiej translacji.
Telefon komórkowy – mobilnie uniwersalny
W rozważaniach na temat interfejsów uniwersalnych nie sposób pominąć telefonu komórkowego – największego konkurenta komputera osobistego w wyścigu o tytuł najbardziej rozpowszechnionego interfejsu cyberkultury. Jego użytkowa postać stanowi kolejne, jeszcze nowocześniejsze, wcielenie idei uniwersalnej maszyny medialnej, będąc efektem postępującej miniaturyzacji podzespołów obliczeniowych oraz mobilności, którą oferuje bezprzewodowy dostęp do sieci. W rodzinie mobilnych interfejsów uniwersalnych, której głową jest telefon komórkowy, a członkami wszelkie jego technologiczne pochodne, takie jak smartfony, tablety czy czytniki ebooków, można dostrzec esencję konwergencji technologii cyfrowych. Spotykają się tu w ramach jednego interfejsu użytkownika niemal wszystkie dostępne współcześnie technologie cyfrowe: komputer, terminal sieciowy, monitor, klawiatura, kamera, itd.[7] Coraz częściej prognozuje się, że rosnąca popularność komórek doprowadzi z czasem do marginalizacji innych powszechnych dziś interfejsów, takich jak komputery osobiste czy nawet laptopy. Telefony są mniejsze, potrzebują mniej energii, są ruchome w przestrzeni, a jednocześnie dościgają i niejednokrotnie prześcigają starsze interfejsy pod względem efektywności i funkcjonalności. Wystarczy wspomnieć zawrotną karierę i popkulturowy kult Iphone’a, który stał się szybko jednym z najbardziej wziętych interfejsów cyfrowego świata ostatnich lat.
Poszukiwanie uniwersalności funkcjonalnej w przypadku telefonów ma zupełnie inny sens niż w przypadku komputerów. Konkurencja pomiędzy tymi dwoma uniwersalnymi formatami polega w gruncie rzeczy na rywalizacji dwóch odmiennych wizji technologii cybernetycznych. Pierwsza wywodzi się z historycznych idei maszyn obliczeniowych i jest – nazwijmy to – „maszynocentryczna”. Opiera się na przekonaniu, że to komputer stanowi centrum nowopowstającej kultury, nieruchomy odnośnik i punkt referencyjny, wokół którego orbitują zarówno użytkownicy, jak i interfejsy wraz z transmitowanymi przez nie danymi. Druga wizja ma charakter iście kopernikański. Jej fundamentem jest przekonaniu, że to człowiek, a nie – choćby najbardziej doskonała – maszyna, znajduje się, czy też powinien się znajdować, w centrum cyberkultury. Idealne maszyny, według tej „humanocentrycznej” logiki interfejsów, to te, które nie ograniczają użytkownika w praktykach i zwyczajach codziennego życia, lecz towarzyszą mu i wspomagają w codzienności – są, tak jak on, mobilne, posłuszne przestrzeni i regułom biologii.
Rosnąca systematycznie popularność komórek sugeruje, że epoka człowieka znieruchomiałego przed statycznym terminalem dostępowym odchodzi do lamusa. Taki model organizacji interakcji z cyberkulturą okazuje się jedynie przejściowy. Jego obecność wynikała, patrząc na zjawisko z dzisiejszej perspektywy, jedynie z niedoskonałości (niemowlęctwa) samej technologii. Mobilność jako priorytetowy parametr interfejsów to objaw ich humanizacji – tendencji wpisywania ich w naturalny kontekst antropologiczny, psychologiczny i kulturowy. W domenie telefonii cyfrowej widać jeszcze jedno rozwiązanie technologiczne, które ma podobny sens. W toku prac nad ulepszaniem infrastruktury komunikacyjnej GSM pojawiła się koncepcja ENUM – uniwersalnego numeru identyfikującego i uwierzytelniającego każdego pojedynczego użytkownika cyberprzestrzeni, przypisanego na stałe do użytkowanych przez niego różnych kanałów i interfejsów zdarzeń komunikacyjnych[8]. Z jednej strony taki cyfrowy identyfikator jest projektem budzącym w wielu środowiskach olbrzymie kontrowersje natury etyczno-prawnej. Z drugiej jednak, z wielu pragmatycznych i humanistycznych powodów, bywalcy cyberświata prawdopodobnie będą skłonni zrezygnować z niektórych sfer swojej anonimowości na rzecz zwiększania wiarygodności i gwarancji bezpieczeństwa, które taka technologia im zapewni[9].
Interfejsy uniwersalnie determinujące
Jak widać, wiele przemawia za tym, by interfejsy uniwersalne postrzegać jako idealne formuły komunikacyjne. W zestawieniu z wielością analogowych i cyfrowych form ich skonwergowana, synergiczna postać pozwala m.in. na prosty dostęp do wielu medialnych form i języków oraz na łatwą translację i przeszczepianie doświadczeń czy gestów medialnych pomiędzy nimi.
Medioznawcy wskazują jednak także na ich liczne, nie mniej uniwersalne niż wspomniane funkcjonalności, ograniczenia. Stawiają one bowiem komunikacyjny opór wobec użytkownika. Kierują na siebie jego uwagę, nakazują mu posłuszeństwo i zmuszają do myślenia oraz działania w ramach udostępnianych możliwości – oferowanego menu. Są tym samym, przynajmniej w najbardziej rozpowszechnionych dziś postaciach, nieproporcjonalne komunikacyjnie. Nie oferują, choćby na zasadzie interaktywnej symetrii, możliwości personalizowania i programowania przez użytkowników[10]. Sięgnijmy w tym miejscu do terminologii stworzonej przez Vilema Flussera na potrzeby analizy technologii medialnych. Użytkownicy nie mają możliwości przekraczania interfejsów, bo ich kreatywność jest tylko funkcją możliwości aparatu medialnego, zaś oni sami stają się jedynie mniej lub bardziej kompetentnymi ich urzędnikami[11].
Biorąc pod uwagę tę krytykę potencjału interaktywności interfejsów, można powiedzieć, że idealny interfejs uniwersalny to formuła symetryczna komunikacyjnie. To taki interfejs, który z jednej strony stanowi uniwersalną platformę medialną – swoiste meta-medium, z drugiej zaś jest otwarty i podatny na personalizację użytkowników, podatny na ich programowanie i antycypujący ich strategie użytkowe. Tylko wówczas może się okazać uniwersalny w zakresie zaspokajania potrzeb i kompetencji różnych użytkowników – stać się interfejsem uniwersalnym, ale także uniwersalnie personalnym, unikalnie uniwersalnym.
Software – tendencje etnocentryczne
Uniwersalność to kryterium projektowania i wytwarzania dominujące dziś także w sferze interfejsów software. Według strategów globalnych korporacji tworzących rozwiązania programistyczne idealny jest właśnie software uniwersalny. Tę strategię lapidarnie uchwycili marketingowcy jednego z potentatów rynku oprogramowania, SUN Microsystems, w sentencji reklamowej: write once, run anywhere[12]. Przytoczona formułka opisuje wiodącą dziś politykę tworzenia i dystrybucji, charakterystyczną dla większości komercyjnych podmiotów. Stosuje się ona zarówno do rozwiązań systemowych, jak i do poszczególnych aplikacji niższego rzędu.
Na poziomie interfejsów software dostrzec można, poza uniwersalizacją, także znamiona zgoła innej polityki, a mianowicie otwarcia produktów na potrzeby lokalne, uwzględniania wielokulturowej specyfiki globalnego rynku. Wspomniany SUN udostępnia użytkownikom z wielu krajów świata podstawowy panel programistyczny, który w niewielkim zakresie umożliwia uruchomienie obsługi w różnych językach. Taka strategia realizuje multikulturowość jedynie jako powierzchowną i ograniczoną funkcję swojego oprogramowania. Przykładem software’u, którego twórcy starają się odhegemonizować kulturowy ładunek zapisany w sekwencjach kodu cyfrowego, jest system operacyjny Linux Ubuntu. Globalna społeczność współtwórców tego systemu uznała za jeden ze swoich priorytetów scedowanie kompetencji w zakresie dopasowania struktury systemu do lokalnych uwarunkowań na programistów z poszczególnych zaangażowanych w projekt krajów. W rezultacie jądro systemu pisane jest w krajach o wysokiej kulturze informatycznej (Europa, USA, Japonia), ale funkcjonalna i estetyczna powłoka tego systemu powstaje w pracowniach lokalnych programistów, którzy najlepiej znają specyfikę i oczekiwania lokalnego odbiorcy. Społeczność Ubuntu urzeczywistniła w ten sposób model współtworzenia oprogramowania, który polega na dialogu z lokalnymi kulturami. System jest otwarty na potrzeby tychże kultur i przede wszystkim wpisuje się w obecne w nich mechanizmy poznawcze i działania. Twórcy Ubuntu reklamują go jako, znów powołam się na slogan reklamowy, Linux dla ludzi (Linux for Human Beings).
Ten i wiele innych przykładów kulturowej tożsamości software dowodzi, że na tym poziomie uniwersalność nie jest postrzegana i waloryzowana jednoznacznie. Kultury i społeczności lokalne, które przy pomocy kodu cyfrowego mają możliwość przeciwstawić się softwareowej zależności od globalnych korporacji i zachodniej genetyki cyberkultury, zdają sobie z tego sprawę coraz wyraźniej. Zachodni teoretycy mediów znaleźli już trafne pojęcia, za pomocą których mapują rodzącą się w ten sposób wielokulturowość oprogramowania. W literaturze pojawiły się m.in. takie kategorie jak ethnocomputing czy też internacionalization of computing. Opisują one nowy paradygmat rozwoju komputeryzacji polegający na kulturowym i etnicznym pluralizowaniu, tj. na otwarciu na lokalne języki i systemy wartości. Niezależnie od prób spluralizowania software podejmowanych przez różne środowiska i społeczności użytkowników cyberkultury, generalne oblicze interfejsów software pozostaje jednak wciąż, podobnie jak w przypadku hardware, uniwersalne i totalne. Zarówno sam kod binarny, jak i większość wyrażanych w nim sekwencji operacyjnych ograniczona jest do matematycznej i logicznej kultury świata zachodniego – postoświeceniowego i postindustrialnego. Praktyka popularyzowania cyberkultury w obecnej postaci opiera się na przyjęciu za podstawowy profilu użytkownika opisanego za pomocą kategorii standardowości i masowości. W kulturowo-społecznej wyobraźni tworzących rozwiązania technologiczne przetrwało w ten sposób dziedzictwo epoki kultury masowej, w której podmiot, awansowany wraz z pojawieniem się nowych mediów do roli ich użytkownika i współtwórcy, postrzegany był przede wszystkim jako bierny, niekompetentny i pozbawiony indywidualności konsument. Zrozumiały jest dla niego tylko pewien zasób standardowych kombinacji w obrębie kodu, dysponuje bowiem kapitałem kulturowym wystarczającym jedynie do tego, by właściwie odczytać zaszyfrowane w interfejsach programistycznych proste kulturowe kody i polityki[13].
W tym miejscu wkraczamy w obszar etnograficznych i antropologicznych fundamentów cyberkultury. Teoretyczne ustalenia na tym poziomie pomogą nam zrozumieć ograniczenia idei uniwersalności miękkich interfejsów. Antropologowie matematyki dowodzą na przykład, że nie istnieje jedna, uniwersalna idea liczb oraz wspólny dla gatunku homo sapiens model działań logicznych i matematycznych. Tak jak różne są języki, muzyki i twarze kultur świata, tak i różne jest w tych kulturach dzielnie świata na jednostki obrachunkowe oraz wyobrażenia o zależnościach pomiędzy nimi. Istnieją zatem różne liczby i różne, wytyczone przez lokalne kultury i ich uwarunkowania, matematyki. Poprzedzają je języki, instynkt związany z użytkowaniem ciała, mimika, itd. Matematyka stanowi jeden z wielu języków kulturowych. Przywołajmy na dowód tej tezy konkretny przykład: nie wszystkie kultury matematyczne świata uznają za potrzebną wartość zero, zaś nawet te, które ją uznają, nie zawsze rozumieją ją w ten sam sposób. W kulturze zachodniej zero stało się niezbędnym, fundamentalnym warunkiem proceduralnym, a także – co kluczowe dla reguły kodu cyfrowego i statusu cyberkultury – nieredukowalnym składnikiem uniwersalnego kodu cyfrowego[14]. Sięgnijmy po inny przykład. W głośnych badaniach przeprowadzonych na pracownikach globalnego koncernu IBM socjolog Geert Hofstede udowodnił, że nawet w funkcjonowaniu tak wyspecjalizowanej i scentralizowanej instytucji etniczna dywersyfikacja personelu odgrywa zasadniczą rolę. Osoby zatrudnione w różnych narodowych oddziałach firmy, wykonując identyczne czynności, posiłkowały się różnymi „kulturowymi inteligencjami”. W rezultacie realizowane przez nie zestandaryzowane procedury przebiegały zawsze odmiennie, a rezultaty ich pracy okazywały się nieraz diametralnie różne[15].
Na tych i na wielu innych badaniach oraz interpretacjach wspiera się idea multikulturowego ethnocomputingu. Jej obecność uruchomiła na softwareowym poziomie cyberkultury myślenie i działania sprzeciwiające się dominującej strategii poszukiwania rozwiązań uniwersalnych w zakresie użytkowym i mających globalne zastosowania. Zamiast tego w cyberkulturowych imaginariach zaczęły się pojawiać idee etnocentryczne, nasączone unikalnymi cechami kulturowymi i lokalnymi wartościami. Trudno już teraz wyrokować na temat potencjału, który wygenerują tego typu rozwiązania. Można zakładać, że cyberkultura stanie się obszarem polifonicznym technologicznie i wielobarwnym kulturowo w stopniu, w jakim dzisiaj jest to niemożliwe. Kultury zdobywające możliwość aktywnego współtworzenia cyfrowych światów wniosą w nie – niejako w zamian – świeże, pluralizujące je imaginaria, „inteligencje” i kompetencje kulturowe. Być może w ten sposób cyberkultura uodporni się na uniwersalne, globalne oddziaływanie szeregu zjawisk, takich jak: cyberterroryzm, złe praktyki marketingowe (spam) czy wirusy. Można wyobrazić sobie, że w miejsce jednej – homogenizowanej i hegemonizowanej przez Zachód – cyberkultury funkcjonować będą równolegle cybertwory wywodzące się z innych źródeł. Posuwając się w tej imaginacji jeszcze dalej, można sądzić, że lokalność interfejsów ostatecznie przyczyni się także do konkurencji na poziomie najświętszych, fundamentalnych pokładów cyfrowej kultury, tj. na poziomie zerojedynkowego kodu.
Wszechobecne, choć niewidzialne
Pomimo tych ważnych softwareowych rekonstrukcji poszukiwanie interfejsów uniwersalnych jest dziś wciąż dominującym kierunkiem rozwoju, zarówno twardych, jak i miękkich technologicznych form cyberkultury. W cyberkulturowej wyobraźni istnieją jednak alternatywy dla takiego stanu rzeczy. Naprzeciw idei uniwersalnego komputera-terminala stanęła konkurencyjna wizja obecności, a w zasadzie „nieobecności”, technologii cyfrowych w kulturze. To idea komputerów wszechobecnych i niewidocznych (ubiquitiuos computing, invisible computers), której twórcą jest amerykański inżynier, programista i wizjoner Mark Weiser – wieloletni szef laboratoriów Xerox w Palo Alto. Różnice pomiędzy koncepcją uniwersalnych, wiążących i centralizujących w sobie wiele, zarówno technologicznych, jak i antropologicznych, wejść i wyjść komputerów osobistych a koncepcją komputerów wszechobecnych są zasadnicze. Weiser jest przekonany, że interfejsy użytkowe w obecnej postaci są mało efektywne i nie sprzyjają kreatywnemu wykorzystaniu olbrzymich możliwości nowych mediów. Terminal ewidentnie konkuruje z człowiekiem jako podmiotem działań w cyfrowym świecie – oto staje się dla niego bramą regulującą dostęp i jakość wejścia w cyberprzestrzeń, jasno i precyzyjnie wytycza granicę pomiędzy światem technologii a przestrzenią antropologii i biologii kultury.
Według Weisera technologie cyfrowe mogłyby jednak „zniknąć” z kulturowego pejzażu. Powinno się je w ten krajobraz wtopić tak, by stały się nieobecne, niewidoczne. Musiałyby w tym celu stać się powszednie, naturalne i nieabsorbujące w obsłudze. Heidegger powiedziałby, że musiałyby zniknąć z „horyzontu” naszej świadomości. Maszyny cyfrowe posiadają własności potrzebne, by taki stan z łatwością osiągnąć: są niewielkie i z zasady uniwersalne w zastosowaniu. Weiser sądzi, że absorbujące terminale-centra powinny zostać zastąpione przez setki niewidzialnych, wyspecjalizowanych mikrokomputerów niższego rzędu wtopionych w funkcjonalne struktury istniejących technologii i rzeczy. Wspomagałyby wtedy i kontrolowały ich działanie, poprawiały wydajność, zapewniały możliwość kontroli na odległość. Mogłyby także komunikować się pomiędzy sobą. Byłyby dedykowane i zaprogramowane do konkretnych działań. Wszechobecne, ale niewidzialne. Wielofunkcyjne, ale nie totalizujące[16]. Współcześnie takimi niewidzialnymi technologiami cyfrowymi są systemy komputerowe automatycznie wspomagające pracę samochodów, „inteligentna” odzież czy fotokomórki otwierające drzwi i bramy.
Rozważając projekt Weisera w kontekście rozwiązań interfejsowych, można dojść do wniosku, że wraz ze znikaniem komputerów unieważnieniu uległby kulturowy sens interfejsu jako takiego. Dotychczasową uniwersalną taktylność komputera Weiser zamienia bowiem na uniwersalny brak kontaktu, na nieprzenikalność i antymedialność wyemancypowanych maszyn. W tym duchu łatwo pójść jeszcze o krok dalej. Coraz chętniej mówi się dziś o możliwych cyberkulturze i Internecie maszyn i przedmiotów (Internet of Things)[17]. Poza funkcjami zleconymi bezpośrednio przez użytkowników maszyny i przedmioty tworzyłyby system samodzielnie się komunikujący i regulujący, częściowo żyjący własnym życiem. Sądzę, że fizycznie namacalne i motorycznie kontrolowane interfejsy technologii cyfrowych, pomimo szeregu funkcjonalnych ograniczeń, na które wskazuje Weiser, są jednak bliższe „analogowej” antropocentrycznej kulturze (że ją tak nazwę w kontekście promowanych przez cyberentuzjastów wizji). Nie wchodząc w tym miejscu w problematykę interfejsów neuronalnych, łączących mózg bezpośrednio z technologiami, powiem tylko, że ciało wciąż pozostaje w tak rozumianej kulturze jedynym miarodajnym, referencyjnym testerem i regulatorem technologii, stanowi dla nich naturalny, organiczny probierz i uwiarygodnia je w kontakcie z nami. Dowodem na tę referencyjność niech będzie choćby stosowane powszechnie przez projektantów oprogramowania i sprzętu kryterium funkcjonalności tworzonych rozwiązań (usability). Uznaje ono za właściwe te spośród nich, które są wygodne, intuicyjne i efektywne dla użytkowników.
Niewidzialne amputacje
Interfejsy cyfrowe mogą – paradoksalnie – znikać także w innym sensie. Dzieje się tak na skutek ich systematycznego przenikania pod skórę, do wnętrza organizmu. Ten kierunek ewolucji form technologii komunikacyjnych można opisać jako porządek interfejsów neuronalnych. Oferują one możliwość zastępowania poszczególnych zmysłów dostępnych w ramach biologicznego sensorium człowieka przez technologiczne substytuty – czipowe implanty – „podłączone” bezpośrednio do kory mózgowej i wybranych ośrodków wewnątrz mózgu. Takie podskórne interfejsy są kulturowo i antropologicznie „niewidoczne” z innego powodu i na innych zasadach. Znikają na skutek zdublowania i/lub odłączenia postrzegania biologicznego i zastąpienia go strumieniem danych płynących z dowolnych, znajdujących się poza ciałem przetworników i skanerów: kamer, mikrofonów, termostatów i potencjometrów. Formaty tego technopostrzegania różnią się, co oczywiste, od naturalnego. Różnica jest analogiczna do tej, którą uwidacznia fotografia w zestawieniu z obrazami zdejmowanymi z rzeczywistości nieuzbrojonym okiem, powstającymi na skutek biologicznego patrzenia.
Mózg, który utracił połączenia z sensorium, okazuje się bezbronny, wystawia się na oddziaływanie nieorganicznych sił oraz translacji o trudnym do antycypowania charakterze i możliwościach sprawczych. Traci dotychczasowy kontakt z otoczeniem i otwiera się na dowolne inne interfejsy zdolne dostarczyć mu danych niezbędnych do bieżącej koordynacji procesów życiowych, na przeróżne mediacje, spośród których chyba najbardziej kontrowersyjną i wieloznaczną jest możliwość hakowania mózgu. Można powtórzyć w tym miejscu klasyczną wątpliwość cybersceptyków, która nie wydaje się dziś tak surrealistyczna, jak się przyjęło o niej sądzić jeszcze kilka lat temu – co to znaczy neurobezpieczeństwo? Czy możliwe jest sterowanie mózgiem, a nawet przejęcie nad nim kontroli, przy użyciu wyspecjalizowanych kodów, interfejsów i napisanego w tym celu software’u (brainhacking)?[18] Niezależnie od zasobności i celów uruchamianych na neuronalnym poziomie transferów danych interfejsy i formatowane przez nie zasoby zostają w ten sposób oswojone i znaturalizowane. Wchłonięte w sensorium nie są już postrzegane jako zewnętrzne, obce. Brakuje wobec nich tradycyjnych, warunkowanych na poziomie psychosomatycznym, ale i kulturowym, dystansu i kompetencji. Co prawda obecnie takie interfejsy wykorzystuje się wyłącznie w celach terapeutycznych dla osób niepełnosprawnych oraz w ramach badań naukowych, ale w przyszłości zostaną zapewne znalezione różne inne, bardziej pospolite, zastosowania dla ich możliwości.
Wspomniałem już wcześniej o kondycji postmedialnej, jak ją nazywał Peter Weibel. W obliczu inwazji technologii transmisyjnych do wnętrza organizmu można też mówić o specyficznej, cyborgicznej i cybernetycznej postkomunikacji oraz posthumanizmie. Weibel powiada, jak pamiętamy, że cyfrowe, uniwersalne postmedium kolonizuje i unieważnia dotąd istniejące media. W swojej diagnozie posuwa się dalej: komputerowo symulowane stare media są wydajniejsze, lepiej kontrolowalne od swoich analogowych odpowiedników. Automatyczny, cyfrowy perkusista gra równiej, samplowana i loopowana perkusja brzmi dosadniej, łatwiej jej używać, itd. Analogiczne orzeczenia można formułować w odniesieniu do diagnoz postkomunikacji i posthumanizmu. Postkomunikacyjne cyfrowe technologie sensoryczne „widzą”, „słyszą” i „czują” z większą (inną) wrażliwością i dynamiką niż organiczne. Cyfrowe oko – obiektyw, sensor i przetworniki neuronalne – potrafi zoomować, manipulować charakterystyką barwną obrazu, poddawać go działaniu różnych automatycznych formuł cyfrowych, takich jak: stopklatka, przewijanie, montaż czy filtry. Podobnie cyfrowe ucho – składające się z mikrofonów, przetworników ADA i procesorów dźwięku – słyszy w różnych stylistykach akustycznych, zdolne jest do rozbijania krajobrazu akustycznego na poszczególne tworzące go „ścieżki” oraz do ich dowolnego selekcjonowania i remixowania (cyfrowy nos pracuje na podobnych zasadach).
Medioznawcy w różny sposób oceniają prezentujący się w ten sposób potencjał postkomunikacyjnych interfejsów neuronalnych. Na gruncie antropologii, w głośnym eseju Manifest cyborga, Donna Haraway nadała im optymistyczne, wręcz mitologiczne, genderowe znaczenie. Haraway przedstawiła wizję cyborga jako interfejsu, który umożliwia zespolenie człowieka z technologiami antropogenicznymi. Dla tej amerykańskiej badaczki, nieukrywającej swojej ideologicznej postawy, cyborg jest przede wszystkim postpłciowym ideałem kulturowym – podmiotem wyemancypowanym ze wszelkich kulturowych „gorsetów” dzięki możliwościom technologicznego poszerzania. Wolnym od ograniczeń fizyczności, nowym, uniwersalnym (cyber)człowiekiem[19]. Nie brakuje również głosów krytycznych, skrajnie odmiennych od genderowej wizji cyborga. Idący tropem mcluhanowskiej metafory o amputacji zmysłów z zaniepokojeniem przyglądają się mediatyzowanemu, poszerzonemu technologicznie człowiekowi. Proponowany przez nich słownik zawiera następujące kategorie: patogeniczna cyberontologia, technologiczna schizofrenia, telepatologia czy ostateczna amputacja[20].
Zakończenie
Rozważałem w powyższym tekście cyfrowe warianty komunikacyjne, które okazują się być skrajnymi przeciwieństwami: komunikację zapośredniczoną i bezpośrednią; interfejsy uniwersalne i partykularne; globalnie standardowe i unikalne, etnocentryczne; ich formy postrzegalne, namacalne za pomocą sensorium i te niewidzialne, postmedialne. W obliczu tak wielu możliwych idei interfejsowych (i antyinterfejsowych) trudno jednoznacznie stwierdzić, które z nich mogłyby stać się komunikacyjnym standardem (standardami). Wskazanie rozwiązań idealnych, czy choćby kierunków ich projektowania i rozwijania, wydaje się tym samym niewykonalne. Być może wraz z postępem technologicznym komunikowanie okaże się przestrzenią triumfu technologii – nasze doświadczenia medialne i w dużej mierze zestandaryzowane gesty oraz mentalne konstrukty komunikacyjne zostaną przez nie skolonizowane, a ostatecznie przestaną mieć jakiekolwiek znaczenie w obliczu postkomunikacji pomiędzy mózgiem a cyfrowymi maszynami. Równie prawdopodobny jest wzrost znaczenia tendencji „ekologii” komunikacyjnej i medialnej – rehabilitacji form organicznych, powrotu do zdarzeń pierwotnych antropologicznie, w których nie pośredniczą żadne technologie albo ich udział pozostaje ograniczony do minimum.
Scenariusze mniej radykalne także nie są oczywiste i jednoznacznie prawdopodobne. Z jednej strony można się spodziewać rozwiązań coraz bardziej uniwersalnych i transmedialnych, będących skutkiem postępującej konwergencji różnych technologii i platform medialnych. Z drugiej strony coraz większego znaczenia nabiera konkurencja pomiędzy producentami i kulturami w tym obszarze. W miejsce technologii ujednoliconych, hegemonicznych oferowane są różne, często nie do końca kompatybilne, standardy i rozwiązania. Tutaj ważnym czynnikiem mogą się okazać lokalne, etnocentryczne oblicza technologii cyfrowych wdrażane w lokalnych przestrzeniach cyberkultury.
Jedyne zasadne dziś stwierdzenie dotyczące rozwoju interfejsów cyfrowych technologii komunikacyjnych mogłoby brzmieć następująco: w dobie konwergencji i implozji/remediacji mediów w środowisku cyfrowym to interfejsy przejmują zasadniczą rolę w komunikacyjnym pośrednictwie pomiędzy człowiekiem, kulturą i technologią. Stają się one, niezależnie od organizujących je idei i gramatyk kulturowych, meta-mediami. To wystarczające powody, by uważnie się im przyglądać.
Informacje o autorze
www.umcs.lublin.pl/pracownicy/Piotr Celiński
Kontakt: piotr.celinski[at]umcs.pl
Przypisy
[1] Zob. np.: J. P. Barlow, A Declaration of the Independence of Cyberspace, publikacja online z 8 lutego 1996 r. Dostęp online: www.w2.eff.org/A Declaration of…
[2] Problemy definicyjne kategorii interfejs, a szczególnie jej bliskoznaczność wobec pojęcia medium, wyjaśniam obszernie w monografii im poświęconej. Zob. P. Celiński, Interfejsy. Cyfrowe technologie w komunikowaniu, Wrocław 2010.
[3] A. Turing, Maszyna licząca a inteligencja, [w:] Fragmenty filozofii analitycznej, tom II, Filozofia umysłu, red. B. Chwedeńczuk, Fundacja Aletheia – Wydawnictwo SPACJA, Warszawa 1995, s. 271-300. Zob. także J. Agar, Turing and the Universal Machine: The Making of the Modern Computer, Totem Books 2001.
[4] P. Weibel, The post-media condition, www.medialabmadrid.org/Weibel. Weibel idzie jeszcze dalej w swoich rozważaniach: komputerowo symulowane stare media są lepsze, bardziej kontrolowane od swoich rzeczywistych odpowiedników – cyfrowy perkusista gra równiej, cyfrowa perkusja brzmi dosadniej).
[5] Zob. www.reactable.com/reactable/
[6] Zob. www.global.yamaha.com/tenori-on/
[7] I. de Vries, Mobile Telephony: Realising the Dream of Ideal Communication?, [w:] Mobile World: Past, Present, Future, red. L. Hamill, A. Lasen, London 2005, s. 11-23.
[8] www.arstechnica.com/business/news/2010/01/enum
[9] Zob. szerzej np.: Privacy 2.0. Give a little, take a little, “The Economist”, Jan 28th 2010.
[10] M. Fuller, Behind the Blip: Essays on the Culture of Software, Autonomedia 2003, s. 13-14. Fuller pisze: The whole can be fine-tuned, pixels shifted, operatives retrained: the loop between stimulus and response tightened into a noose. This is the fatal endpoint of the standard mode of HCI. It empowers users by modeling them, and in doing so effects their disappearance, their incorporation into its models.
[11] V. Flusser, Ku filozofii fotografii, Katowice 2004.
[12] Zob. np.: www.en.wikipedia.org/wiki/Write_once,_run_anywhere
[13] B. Shneiderman, Leonardo’s Laptop: Human Needs and the New Computing Technologies, MIT Press 2002, s. 32.
[14] Zob. więcej: Software studies: a lexicon, red. M. Fuller, MIT Press 2008, s. 157-158.
[15] G. Hofstede, Kultury i organizacje. Zaprogramowanie umysłu, Warszawa 2000. Zob. też: R. E. Nisbett, The geography of thought: How Asians and Westerners think differently… and why, New York 2003. Pojęcie “inteligencji kulturowej” wprowadzili C. Earley i S. Ang w książce Cultural Intelligence: Individual Interactions Across Cultures, Stanford 2003.
[16] Zob. np. M. Weiser, The Computer for the 21st Century, publ. online: www.ubiq.com/Weiser/The Computer for the 21st Century, czy M. Weiser, The World is not a Desktop, publ. online: www.ubiq.com/Weiser/The World is not a Desktop
[17] Zob. więcej np.: The Internet of Things, ITU Internet Reports 2005, www.itu.int/The Internet of Things.pdf
[18] Zob. na ten temat np.: H. Leggett, The Next Hacking Frontier: Your Brain?, Wired 07.2009, dostęp online: www.wired.com/Leggett, czy B. Keim, Wires Inserted Into Human Brain Reveal Speech Surprise, Wired 10.2009, dostęp online: www.wired.com/Keim
[19] D. Haraway, Manifest cyborga, dostęp online: www.dsw.muzeum.koszalin.pl/Manifest cyborga
[20] Zob. np. M. Peasce, Final Amputation: Pathogenic Ontology in Cyberspace, “SPEED: A Journal of Technology and Politics” 1994, dostęp online: www.hyperreal.org/Peasce.