Abstrakt:
Artykuł analizuje badawczy potencjał błędu komputacyjnego (ang. glitch) dla współczesnych badań w ramach nauk o kulturze – zwłaszcza antropologii nowych mediów. Autor proponuje analizę glitch’u z wykorzystaniem nowej metodologii software studies, którą można zaliczyć do jednego z post-cyfrowych nurtów w ramach nauk o kulturze / humanistyki cyfrowej. Błąd komputacyjny dyskutowany jest w tekście zarówno w wąskiej jak i szerszej perspektywie. Pierwsze podejście koncentruje się na przejawach zaburzeń w estetyce cyfrowych mediów wizualnych – błędach kompresji obrazu, artefaktach, pikselizacji itp. Drugie podejście analizuje potencjał glitch’u dla wyłonienia się krytycznej analizy ograniczeń technologii komputacyjnych oraz ich wpływu na współczesną kulturę, poprzez koncentrowanie się na błędach i niezamierzonym – innym niż zaprogramowane – działaniu.
Abstract:
The article analyses glitch by concentrating on its research relevance for contemporary cultural studies and particularly for new media studies. The author proposes to analyze glitch using a new post-digital methodology in cultural studies / digital humanities — software studies. In the article glitch was analyzed by implementing both specific (case-oriented) and more general approach. The first perspective focuses on glitch considered an an aesthetic phenomenon of various digital media — compression errors, visual artifacts, pixelization etc. The second perspective analyses the relevance of glitch for proposing an emergence of critical analysis of computational technologies and their impact on contemporary culture by focusing on errors, aberrations and their non-intended — not programmed — functioning.
Rozczarowanie technologiami – perspektywa postcyfrowa
Technologie komputacyjne stały się nieodłącznym elementem współczesnej cywilizacji, a właściwie kręgosłupem na którym dziś się ona opiera. Digitalizacja kolejnych obszarów naszego funkcjonowania – gospodarki, nauki, kultury – doprowadziła do radykalnej ewolucji każdej z tych sfer. Pierwszy masowo dostępny komputer osobisty zaprezentowano w 1984 r., internet rozpowszechnił się w ostatniej dekadzie XX w. Kolejne zjawiska społeczno-techniczne takie jak WEB 2.0 czy opracowanie urządzeń mobilnych i technologii pozwalających na dostęp do Internetu za pośrednictwem sieci GSM, sprawiły, że świat cyfrowy i ten realnie istniejący obecnie praktycznie się przenikają.
Artykuł ma na celu przybliżenie założeń nurtu studiów nad oprogramowaniem (ang. software studies) w zakresie badań nad wizualnością cyfrową. Szczególnie zaakcentowana zostania rola, a dokładnie fenomenem błędu komputacyjnego, objawiającego się występowaniem artefaktów oraz zakłóceń wizualnych (ang. glitch). Sam glitch był przedmiotem zainteresowania badawczy niemalże od początku istnienia sztuki nowych mediów, jednakże dziś jego znaczenie wykracza poza wąski kontekst galerii sztuki. Biorąc pod uwagę skalę integracji współczesnej kultury z technologiami cyfrowymi, glitch ma szansę stać się jednym z kluczowych zjawisk pozwalających wydobyć na pierwszy plan techniczne warunki jej istnienia oraz ograniczenia związane z jej cyfrową materialnością. Zwłaszcza, jeśli zdecydujemy się analizować to zjawisko w duchu postcyfrowym (ang. post-digital), który to stara się krytycznie oceniać oddziaływanie nowych technologii na współczesną cywilizację. O jego odrębności wobec klasycznego już podejścia do badań nad nowymi mediami najlepiej świadczy fakt, że jego przedstawiciele dystansują się od samego pojęcia nowych mediów.
Wzrostowi zakresu oddziaływania technologii komputacyjnych na świat realnie istniejący, towarzyszył jak dotąd postępujący zanik podejścia krytycznego wobec ich długofalowego wpływu na społeczeństwo i kulturę. Kultura uczestnictwa, chmury obliczeniowe, nowe typy urządzeń, miały stać się katalizatorem zmian społecznych, a usługi i produkty firmy takich jak Google, czy Apple miały wprowadzić nas w nową erę dostępu do informacji i uwolnienia kreatywnego potencjału mieszkańców globalnej wioski. Jednak w obliczu faktów ujawnionych przez Edwarda Snowdena, skrajnie neoliberalnych postaw gigantów Doliny Krzemowej, którzy monopolizują kolejne obszary rynku, wreszcie kolejnych ataków na chmury i sieci informatyczne dotykających milionów użytkowników sieci, technologie cyfrowe ujawniają też swoją mroczną stronę. Obecny kierunek rozwoju technologii z perspektywy krytycznej najlepiej opisuje motto tegorocznego festiwalu Transmediale – “capture all” – oddające to, w jaki sposób technologie cyfrowe (algorytmy, urządzenia) wkraczają w szereg sfer współczesnej cywilizacji – pracę, życie ludzkie, kulturę i rozrywkę – zapisując nasze aktywności w zbiorach przetwarzalnych danych, które stały się kluczowym towarem cyfrowej gospodarki XXI w.
Era postcyfrowa
Głęboka zależności naszej cywilizacji od technologii komputacyjnych doprowadziła do stanu, w którym trudno mówić już o dychotomii między tzw. światem wirtualnym i realnym, wydaje się, że poruszamy się obecnie w poszerzonej przestrzeni, której granice rozciągają się także na jej dynamiczną warstwę opartą na technologiach cyfrowych (ang. augmented space) (Manovich, 2005). To, co cyfrowe stało się codziennością, nieodłącznym elementem współczesności, którą David Berry określa jako erę komputacyjności (ang. computationality). Berry rozumie komputacyjność jako nową epokę historyczną opartą na konkretnych społecznych i kulturowych praktykach zakorzenionych w cyfrowych technologiach. Komputacyjność byłaby ontologicznym warunkiem istnienia współczesnej cywilizacji, która jest kształtowana w głębokim stopniu przez oprogramowanie i zarządzanie cyfrowymi danymi. (Berry, 2011: 27; Berry, 2014: 15, 53, 89, 96)
Komputacyjność, rozumiana jako specyficzna epoka historyczna oraz zjawiska kulturowe i społeczne, które są na niej niejako ufundowane, stanowią przedmiot zainteresowania badaczy ery postcyfrowej. Choć sam termin pojawił się już w 2002 r. w artykule Kima Cascone’a badacza sound studies, renesans zainteresowania tą perspektywą można obserwować na przestrzeni ostatnich kilku lat. Florian Cramer w następujący sposób definiuje to podejście:
Postcyfrowość odnosi się zatem do stanu, w którym rewolucja cywilizacyjna oparta na technologiach komputacyjnych już się dokonała. Znaczy to tyle, jak zauważył już Cascone, że same technologie nie są już dłużej postrzegane jako coś nowego i rewolucyjnego. Postcyfrowość stoi zatem w opozycji wobec pojęcia “nowych mediów”. (Cramer 2014)
Pojęcie to może być stosowane w celu oddania współczesnego dążenia do odczarowania infrastruktury cyfrowej i gadżetów, lub też by opisywać okres, w którym nasza fascynacja nimi stała się faktem historycznym […] Po ujawnieniu skali działań NSA przez Edwarda Snowdena to rozczarowanie z pozycji “hipsterskiej” niszy przeniknęło do głównego prądu, który może wywrzeć poważny wpływ na wszystkie kulturowe i biznesowe praktyki oparte na urządzeniach elektronicznych i usługach internetowych. (Cramer 2014)
Wkraczamy w postcyfrowy świat, w którym to, co cyfrowe zostało nierozerwalnie związane z naszą codziennością. (Berry, 2014, 2)
Postcyfrowość, opierając się na stanowiskach Cramera, Berry’ego, czy uczestników panelu Post Digital berlińskiego Transmediale 2014 , byłaby perspektywą zainteresowaną tymi zjawiskami, które określaliśmy dotąd jako nowe media. Jednak nie koncentrowałaby się ona już nie na powierzchownym i bezkrytycznym zainteresowaniu kolejnymi usługami, rozwiązaniami i urządzeniami czy też “udoskonaleniem” kultury i społeczeństwa za sprawą technologii, lecz oceniałaby digitalizację jako zespół zjawisk już dokonanych lub dziejących się na naszych oczach, których wpływ należy krytycznie ocenić.
Nurtem szczególnie interesującym w tym kontekście są studia nad oprogramowaniem (ang. software studies), które możemy zaliczyć także w poczet kolejnej fali humanistyki cyfrowej. Badacze tego nurtu stawiają sobie za cel m. in. “odczarowanie magicznego pudełka”, jak często metaforycznie określa się technologie komputacyjne. Owe “odczarowanie” miałoby się dokonać poprzez badania mające na celu zrozumienie i umieszczenie w kontekście społecznym procesów komputacyjnych (algorytmów, standardów, protokołów, ekosystemów sprzętowo-programowych) i mechaniki ich działania. Technologia w tym wypadku byłaby postrzegana nie tylko jako narzędzie wspomagające pracę badawczą, lecz jako główny przedmiot zainteresowania badaczy dyscyplin humanistycznych i społecznych.
Podwaliny pod software studies położyli m. in. Marshall McLuhan, Friedrich Kittler (Kittler, 1995) i Lev Manovich (Manovich, 2002), jednakże kamieniem zwrotnym w konstytuowaniu się tego nurtu było wydanie w 2008 r. książki zredagowanej przez Matthew Fullera – “Software Studies: a Lexicon”, w której znalazło się kilkanaście esejów analizujących m. in. elementy graficznego interfejsu użytkownika, systemu komputerowego, czy też języki programowania. W kilku z nich explicite pojawia się dążenie otwarcia dla nauk o kulturze, filozofii, czy socjologii “magicznego pudełka technologii” (Pold, 33; Goriunova & Schulgin, 113; Murtaugh, 146; Cramer, 171); czy “zerwania z immaterialnością i przezroczystością oprogramowania” (Fuller, 4), tak by umożliwić krytyczną analizę współczesnych zjawisk społecznych i kulturowych. W tomie nie zabrakło także artykułu na temat zjawiska usterki / błędu komputacyjnego – glitch, co potwierdza założenie, że ten fenomen od początku wykrystalizowania się nurtu software studies, leżał w orbicie jego zainteresowań.
Glitch – błąd komputacyjny w mediach wizualnych
Stałe zwiększenie potencjału komputacyjnego układów elektronicznych doprowadziło do przełomu w technologiach obrazowania cyfrowego. Dzięki oprogramowaniu kreatywnemu (Adobe Creative Cloud, Gimp etc.), nowym typom urządzeń, możemy tworzyć hybrydy wizualne, wykonywać wszelkie typu edycji i przekształceń na mediach cyfrowych. Same media stały się bytami zarządzanymi przez konkretne algorytmy i funkcjonującymi w określonych ekosystemach sprzętowo-programowych. Cyfrowe media można dziś określić jako programowalne zbiory danych, do których dostęp zapewniają nam rozbudowane interfejsy graficzne. Możemy podsumować, że podstawowym medium pośredniczącym w dostęp do cyfrowego uniwersum danych są właśnie digitalne media wizualne różnego typu.
Na przestrzeni ostatniej dekady doświadczyliśmy ewolucji w kierunku wyświetlania treści wizualnych w coraz większych rozdzielczościach przy użyciu technologii zapewniających kontrast i odwzorowanie szczegółów przekraczające możliwości percepcyjne nieuzbrojonego oka. Piksel – kulturowy symbol i zarazem techniczny warunek istnienia obrazu cyfrowego – stał się niewidoczny. Można nawet założyć, że z perspektywy końcowego użytkownika piksel jako taki przestał istnieć. Metaforyczne “zniknięcie” piksela najlepiej oddaje to, że wraz z postępującą penetracją kolejnych obszarów rzeczywistości przez technologię, ona sama staje się coraz bardziej transparentna i coraz trudniej poddać ją krytycznej refleksji. Tkwimy obecnie w paradygmacie, który Berry nazywa esencjalizmem ekranu – jest to podejście, które skupia się na analizie estetycznych właściwości obrazu (np. interfejsu graficznego) traktowanego jako bezpośrednią reprezentacja mechaniki działania systemów komputacyjnych. Nie uwzględnia ono zarówno procesów technologicznych, jak i szerszego kontekstu społeczno-kulturowego, związanego z korzystaniem z konkretnych usług, czy rozwiązań dostarczanych przez korporacje sektora IT. (Berry, 2011, 179). Analiza błędów komputacyjnych prowadzona z postcyfrowej perspektywy software studies byłaby przeciwieństwem opisywanej wyżej postawy. Koncentrując się na aberracjach, usterkach w działaniu oprogramowania lub sprzętu komputacyjnego, wydobywałaby ona cyfrową materialność współczesnej kultury, zwracając uwagę na ograniczenia technologii komputacyjnych.
Goriunova i Schulgin w rozdziale “Glitch” książki “Software Studies: a Lexicon” argumentują, że trudno o jednoznaczną definicję glitchu, badacze proponują następujące rozumienie tego terminu:
W układach elektrycznych, zakłócenie / usterka (glitch) jest krótkim błędem w systemie. Jawi się on jako defekt (zmiana napięcia, nieprawidłowa częstotliwość przesyłu sygnału, błędy wejścia / wyjścia) w obwodzie elektrycznym. Glitch jest zatem krótkotrwałym odstępstwem od prawidłowych ram funkcjonowania układu. Pozwala on także opisywać usterki sprzętowe. Rezultat samego glitchu jest trudny do przewidzenia i zwykle nie jest wynikiem celowego działania użytkownika. (Goriunova & Schulgin, 2008, 110, 114)
W systemach komputacyjnych istnieje szereg tzw. wąskich gardeł – prędkość procesora, rozdzielczość ekranu, głębia koloru, szybkość łącza sieciowego. W przypadku błędu obliczeniowego na samym tylko poziomie wizualnym, doprowadzają one do występowania takich zjawisk jak: pikselizacja obrazu, artefakty i błędy w wyświetlaniu klatek, czy elementów obrazu. Andres Wanner, Olga Goriunova i Alexiey Schulgin podkreślają wartość glitchu wizualnego dla analizy współczesnej kultury w proponowanym przez postcyfrową, opisaną już wyżej, perspektywę mającą na celu “odczarowanie magicznego pudełka technologii”:
Zakłócenie / usterka otwiera możliwość spojrzenia na wewnętrzną strukturę oprogramowania – niezależnie czy jest to algorytm kompresji danych czy kod HTML. Pomimo tego, że glitch nie ujawnia pełnej funkcjonalności komputera, ilustruje wątłą konwencjonalność, na której opiera się struktura tego, co cyfrowe. (Goriunova & Schulgin, 2008, 114-115)
Glitch można ocenić jako niespodziewany i niezamierzony skutek działania określonego protokołu. Może być on wykorzystany do krytycznej refleksji nad danym medium, wydobywając na pierwszy plan technologię, obserwując jej ograniczenia i zaburzenia jej towarzyszące. (Wanner, 2014, 4)
Rosa Menkman, autorka głośnego “Glitch Studies Manifesto”, już w 2009 r. argumentowała, że w obliczu rosnącego skomplikowania systemów komputacyjnych, przy jednoczesnym obniżeniu bariery kompetencyjnej dla użytkownika końcowego – dzięki intuicyjnym interfejsom i prostym systemom operacyjnym – glitch stanowi jedną z niewielu okazji do przeciwstawienia się immediacyjnemu, czy deterministycznemu podejściu to technologii. Rozwój kluczowych technologii podąża w kierunku, który opiera się na stopniowym ukrywaniu konkretnych działań komputacyjnych przed użytkownikiem. Najlepszym przykładem tego trendu jest popularność różnego typu usług przechowywania i przetwarzania danych w chmurze. W tym modelu urządzenie stanowi jedynie terminal dostępu do danych użytkownika, które przechowywane i przetwarzane są przez serwery kontrolowane przez prywatne podmioty. Użytkownik nie może mieć pewności co dzieje się z jego danymi. Innym przykładem są obecne trendy w projektowaniu sprzętu i oprogramowania widoczne zwłaszcza w segmencie popularnych dziś urządzeń mobilnych. Często projektowane one są w sposób, który uniemożliwia ingerencję użytkownika w konfigurację sprzętową, czy nawet wymianę baterii, zaś ich systemy operacyjne są wysoce uproszczone. Niejako w tle, poniżej poziomu ekranu, zachodzi równocześnie szereg procesów komputacyjnych, których istnienia nie jest on świadomy. W przypadku systemu operacyjnego komputera typu desktop może to być kilkaset procesów podzielonych na tysiące wątków. Poziom graficznego interfejsu użytkownika pozwala za wizualną reprezentację jedynie części z nich.
Dążenie do kompletnej transparentności zmieniło komputer w wysoce skomplikowany artefakt, który trudno jest spenetrować, czasami zaś jest on całkowicie zamknięty. […] Taki system składa się z wielu warstw protokołów [rozumianych tutaj jako wzorce interakcji], których pochodzenia można upatrywać w relacjach na poziomie ideologicznym, ekonomicznym, politycznym projektowanych przez rozmaitych aktorów. Glitche, z którymi eksperymentuję, ilustrują, że technologie są swego rodzaju realnie istniejącymi “zagmatwanymi pudełkami” nie zaś przezroczystymi i neutralnymi bytami. (Menkman, 2009, 3; 9)
Szczególnie interesującym z naszej perspektyw jest, przywoływany już we wstępnie, trend do oferowania użytkownikowi treści wizualnych o niespotykanej dotąd rozdzielczości (HD, 4k, 8k). Zdjęcia, filmy, rendery 3D, nawet zwyczajne interfejsy użytkownika wyświetlane są obecnie przy zachowaniu ogromnego poziomu szczegółów i milionów kolorów. Hiperrealizm wizualny jest obecnie dominującym paradygmatem estetycznym. Prowadzi to do pogłębienia wrażenia immediacyjności systemów komputacyjnych, odsuwając na dalszy plan ich cyfrową materialność.
Odpowiedzią na dominujący hiperrealizm wizualny może być jeden z bardziej interesujących postcyfrowych nurtów badawczych, który koncentruje się na materialności technologii poprzez opisywanie przejawów przenikania się światów: realnie istniejącego i cyfrowego, wzorców wizualnych pochodzenia digitalnego oraz aberracji w przetwarzaniu danych – Nowa Estetyka. Ruch został zainicjowany przez Jamesa Bridle’a w 2011 r. serią wpisów blogowych i wystąpień i szybko zyskując popularność (m. in hashtag na portalu społecznościowym Twitter, panel dyskusyjny na konferencji SXSW 2012). Analizy Nowej Estetyki podjęli się m. in. Sterling (2012), Berry (2012, 2013), czy Mirocha (2015). Przedmiotem zainteresowania nurtu Nowej Estetyki stał się także glitch pojawiający się w popularnych usługach sieciowych np. Google Earth, grach komputerowych (Minecraft, Tomb Rider, Grand Theft Auto 4) czy błędów kompresji w cyfrowych treściach wizualnych – fotografiach i filmach .
Glitch – znaczenie zjawiska dla krytycznych badań nad wpływem technologii nad współczesnym społeczeństwem i kulturą
Zjawisko glitchu przeżywa obecnie renesans zainteresowania dzięki pojawieniu się nowego paradygmatu badawczego – postcyfrowości. Można wyróżnić szereg czynników stojących za takim stanem rzeczy. Złożoność samej technologii i jej przenikanie do kolejnych sfer naszej rzeczywistości – także kultury – jest dziś faktem. Jednocześnie coraz częściej słyszymy o metaforycznych “glitchach” dotykających współczesne społeczeństwo informacyjne, lub jak określa je Lev Manovich “społeczeństwo oprogramowania” (Manovich 2013: 33). Informacje ujawnione przez Edwarda Snowdena – nowe praktyki śledzenia oraz inwigilacji obywateli; pojawienie się cyfrowych monopoli, będących w posiadaniu ogromnych ilości wrażliwych danych na temat miliardów klientów i zdających się poruszać poza kontrolą państw – Google, Facebook. Amazon, Netflix; ataki na chmury obliczeniowe, w wyniku których zagrożone zostały wrażliwe dane milionów obywateli. Przykłady te to jedynie najbardziej głośne zdarzenia, które miały miejsce na przestrzeni ostatnich lat.
Przywołane wyżej zjawiska, możemy rozpatrywać jako niezamierzone aberracje, wynaturzenia, czy właśnie glitche – będące konsekwencjami rozwoju technologii, które stoją w sprzeczności wobec hiperoptymizmu technologicznego, towarzyszącego naszej cywilizacji pod koniec XX w.
Na poziomie wizualnym intuicyjne, atrakcyjne estetycznie interfejsy, treści wizualne dostępne w wysokich rozdzielczościach, sprawiają, że technologia w świadomości użytkownika staje się coraz bardziej transparentna i neutralna. Słynne hasło reklamowe Apple “To po prostu działa” najlepiej oddaje współczesny kierunek jej rozwoju. Dlatego właśnie glitch rozpatrywany nie jako konsekwencja praktyki artystycznej, lecz jako zjawisko społeczno-techniczne wydaje się być tak atrakcyjny dla badaczy nauk społecznych i humanistycznych krytycznie oceniających wpływ technologii na współczesność. Wystąpienie błędu komputacyjnego na wizualnym poziomie obcowania z technologią (system operacyjny, aplikacja, usługa sieciowa etc.) pozwala, zdaniem Menkman, zwrócić uwagę badaczy i samych użytkowników technologii nie tyle na zawodność samej technologii, co jej złożoność i podatność na modyfikacje. Urządzenia komputacyjne są bowiem programowalne, zaś konkretny sposób ich działania lub zastosowania często podyktowany jest czynnikami politycznymi i ekonomicznymi, nie zaś czysto technicznymi. Przykładem takiej działalności mogą być. tzw. dark patterns w graficznych interfejsach użytkownika, które wymuszają na nim konkretne zachowania lub sugerują sposób interakcji (nawigacji) z oprogramowaniem, czy usługą – np sklepem internetowym .
Wydaje się, że komputer opiera się na rozbudowanym zbiorze konwencji [funkcjonowania], jednak w rzeczywistości jest on narzędziem, które można modyfikować i używać go na wiele sposobów. Dzięki pojawieniu się zaburzeń [glitch’y] w ramach ustanowionych konwencji kulturowych i ekonomicznych, społeczność użytkowników może zyskać świadomość istnienia zaprogramowanych wzorów [poruszania się w cyfrowych uniwersum]. Może to dostarczyć użytkownikom impulsu do odrzucenia tradycyjnych dyskursów zbudowanych wokół samej technologii i doprowadzić do jej dekonstrukcji. (Menkman, 2009, 3; 4)
Kolejnym krokiem byłaby dyskusja na temat kontekstu społeczno-politycznego, grup interesów oraz aktorów stojących za takim, a nie innym zaprojektowaniem działania danej technologii. Perspektywa postcyfrowa, studia nad oprogramowaniem, czy krytyczna humanistyka cyfrowa, a także niezależność środowisko naukowego i artystycznego od strategii gigantów branży IT, tworzą przestrzeń dla podjęcia tego typu refleksji.
Nota autorska: Praca naukowa finansowana ze środków budżetowych na naukę w latach 2012-2016 jako projekt badawczy w ramach programu pod nazwą “Diamentowy Grant”.
Biogram:
mgr Łukasz Mirocha – doktorant (nauki o kulturze) oraz kierownik interdyscyplinarnego projektu badawczego (kulturoznawstwo, filozofia, informatyka) na Wydziale “Artes Liberales” Uniwersytetu Warszawskiego. Zajmuje się społecznymi oraz kulturowymi konsekwencjami innowacji technologicznych, trendami rozwoju technologii oraz studiami nad mediami cyfrowymi. Więcej na: lukaszmirocha.com
Bibliografia:
Berry, David; 2011, The Philosophy of Software Code and Mediation in the Digital Age, London: Palgrave Macmillan.
Berry, David; 2012, Abduction Aesthetic: Computationality and the New Aesthetic, [on-line:] http://stunlaw.blogspot.com/2012/04/abduction-aesthetic-computationality.html , [30.01.2013].
Berry, David; 2013, Computationalityand the New Aesthetic, [on-line:] http://www.imperica.com/viewpoint/david-m-berry-computationality-and-the-new-aesthetic , [24.01.2013].
Berry, David; 2014, Critical Theory and the Digital, London: Bloomsbury.
Cascone, Kim; 2002, The Aesthetics of Failure Failure: ‘Post-Digital’ Tendencies in Contemporary Computer Music, [on-line] http://subsol.c3.hu/subsol_2/contributors3/casconetext.html [16.03.2015].
Cramer, Florian; 2014, What is ‘Post-digital’?; w: A Peer-Reviewd Joutanl About Post-Digital Research, nr 1 (3) [on-line] http://www.aprja.net/?p=1318 [16.03.2015].
Fuller, Matthew; 2008, Software Studies: a lexicon, London: MIT Press.
Goriunova, Olga; Schulgin, Alexei; 2008, Glitch; w: Matthew Fuller (red.), Software Studies: a lexicon, London: MIT Press, ss. 110-119.
Kittler, Friedrich; 1995, There is no software. CTheory.net. [on-line] http://www.ctheory.net/articles.aspx?id=74 [14.03.2015].
Manovich, Lev; 2002, The Language of New Media, London: MIT Press.
Manovich, Lev; 2005, The Poetics of Augmented Space, [on-line:] http://manovich.net/DOCS/ Augmented_2005.doc [05.12.2012].
Manovich, Lev; 2013, Software Takes Command, London: Bloomsbury.
Menkman, Rosa; 2009, Glitch Studies Manifesto, Amsterdam/Cologne: [on-line] http://rosa-menkman.blogspot.com/2010/02/glitch-studies-manifesto.html ,[12.03.2015].
Mirocha, Lukasz; 2015, Communication Models, Aesthetics and Ontology of the Computational Age Revealed; w: David Berry, Michael Dieter (red.), Postdigital Aesthetics: Art, Computation And Design, Basingstoke: Palgrave Macmillan.
Sterling, Bruce; 2012, An Essay on the New Aesthetic, w: Wired, [on-line:] http://www.wired.com/beyond_the_beyond/2012/04/an-essay-on-the-new-
aesthetic/, [24.01.2013].
Wanner, Andreas; 2014, Mechanical Drawing Machines and the Glitch – Visualizing Technology Through its Failures; w: Miguel Carvalhais; Mario Verdicchio (red.), xCoAx 2014: Proceedings of the Second Conference on Computation, Communication, Aesthetics and X, Porto: Universidade do Porto, ss. 31-40