Sommaire
- 1 Digital Materialism et Book Studies
- 2 Software Studies : les conditions de production des logiciels informatiques
- 3 Critical Code Studies : une herméneutique du code
- 4 Plateform Studies : le sens du détail matériel
- 5 Media Archaeology : une histoire matérielle des médias
- 6 Conclusion : par-delà imprimé et numérique, l’entrelacement des formes
- 7 Bibliographie
La deuxième de l’article de Matthew Kirschenbaum et Sarah Werner (voir 1/2), consacré aux relations possibles entre les études sur le livre et les études numériques, revient précisément sur ces dernières. Après avoir montré que la bibliographie matérielle (la discipline qui étudie les conditions de fabrication, de circulation et d’appropriation des livres) a fourni ses fondements épistémologiques aux Digital Studies, les deux auteurs résument les travaux qu’ils estiment les plus importants sur la culture numérique. Ils sont essentiellement anglo-saxons. On ne peut pas dire qu’ils nous totalement soient inconnus en France : de récents articles synthétiques en présentent les fondements1Par exemple : Stéphan-Éloïse Gras, “Éthique computationnelle et matérialisme numérique : l’apport des Software Studies”, Critique, 919–820, Août-septembre 2015. et les auteurs étudiés ont parfois fait l’objet de traduction2Par exemple : Alexandre Galloway, “Rets et réseaux dans la tragédie antique” dans Bernard Stiegler (dir.), Ingénierie et politique des réseaux sociaux, FYP Éditions, 2012.. Cela dit, on manque d’un panorama un peu plus large et d’une articulation avec les Book Studies et d’autres disciplines. Je suivrai pour l’instant les analyses de Matthew Kirschenbaum et Sarah Werner, en les croisant à mes propres lectures (puisqu’ils ne font parfois qu’évoquer rapidement certains titres) ; je les enrichirai ensuite3Cette suite a finalement été publiée dans une revue : https://rfsic.revues.org/1968, dans un autre billet, d’une présentation sommaire des études françaises en la matière, évidemment ignorées, qui conduira sans doute à une discussion.
Digital Materialism et Book Studies
Fondements
Les positions du « tournant matériel » en régime numérique va à l’encontre des thèses habituelles (journalistiques) sur la sacro-sainte « dématérialisation ». Les interfaces, les plateformes, les ordinateurs et tout ce qui transite en eux (les procédures computationnelles, mathématiques ; l’électronique), sont au contraire considérés comme éminemment matériels. C’est pourquoi ils peuvent faire l’objet d’une investigation auprès des spécialistes du livre et de la bibliographie matérielle (voir 1/2). Ce matérialisme est sensible à l’étude des logiciels, du code informatique et des plateformes parce qu’ils participent au circuit d’élaboration de la culture numérique, de son émergence aux moyens de sa préservation collective et plurielle :
the materialist turn assumes that computers and computational processes are material in nature, and thus subject to documentary and historical forms of understanding; it is technically rigorous and acknowledges the material particulars of media and computation as worthy of critical investigation; it understands the particular constraints of software, code, and platform as generative for studying the processes and products of digital culture; it cultivates and actively seeks to refine an archival record for digital culture; and it understands the activity of archiving itself in new and capacious ways, that include such techniques as crowdsourcing, hacktivism, restoration and retrocomputing, and citizen archivists. (p. 426)
Fondateurs lointains et précurseurs possibles
Un tel terrain intellectuel a évidemment été préparé par les Media Studies, qui ont bénéficié des apports des penseurs de la communication, de la technique et de la matérialité des supports comme Benjamin, McLuhan (Understanding Media), Innis (The Bias of Communication), Kittler (Gramophone, Film, Typewriter) et Flusser (Into the Universe of Technical Images). Les deux auteurs de l’article estiment qu’ils fournissent aux spécialistes du livre de premières ressources pour penser leur discipline en regard de la culture numérique.
On trouve un exemple possible de cet effort interdisciplinaire dans une anthologie publiée en 2003 par le MIT (New Media Reader de Noah Wardrip-Fruin and Nick Montfort) où les contributions de Borges, Burroughs et d’autres écrivains côtoient celles de Turing, Wiener, Nelson, Bush et Berners-Lee’s. Le dialogue entre des artistes, des écrivains ou des spécialistes de l’informatique (et bien que ces trois statuts se superposent parfois) doit éclairer l’origine et les fonctions de l’écriture dite “hypertextuelle” parce qu’elle interroge, plus fondamentalement, les métaphores (l’écran, la page, la fenêtre, le cadre) qui nous aident à penser notre paysage médiatique.
Matthew Kirschenbaum et Sarah Werner font également de Johanna Drucker et de Katherine Hayles des précurseurs possibles des relations entre les études livresques/universitaires et numériques. La première, collègue de McGann (un médiéviste et acteur important des Digital Humanities), s’est intéressée dans les années 90 à l’histoire de l’alphabet et des représentations visuelles, en l’articulant à la question du support de lecture4Voir Figuring the Word: Essays on Books, Writing, and Visual Poetics, Granary Books, 1998.. Dans sa perspective, riche, le livre apparaît comme un espace architectural où se montent, se démontent et s’expriment des visions du monde. Johanna Drucker a récemment intensifié sa participation aux Digital Studies en proposant un modèle spéculatif (Patacrital Demon) qui permet de suivre et de rendre manifestes, grâce à des outils numériques, les processus interprétatifs à l’oeuvre dans tout acte de lecture.
Katherine Hayles, elle, a toujours étudié conjointement des oeuvres imprimées (House of Leaves de Mark Danielewski) et numériques (Lexia to Perplexia de Talan Memmott) pour comprendre ces dernières comme des artefacts avec leurs propres spécificités. Dans sa perspective, elles cessent d’être considérées comme des interfaces transparentes, qui ne produiraient pas d’effets sur la lecture et l’interprétation des textes (Writing Machines, MIT Press, 2002.)
Software Studies : les conditions de production des logiciels informatiques
Lev Manovich aurait évidemment pu faire partie de ces précurseurs, en plus d’être un des fondateurs des études numériques avec The Language of New Media (2001). Matthew Kirschenbaum et Sarah Werner remarquent tout l’intérêt qu’il y aurait à articuler les principes fondamentaux des Software Studies, dont Manovich est l’un des promoteurs, aux traitements de texte comme Microsoft Word, WordStar ou Aldus PageMaker, qui sont des outils couramment utilisés ; l’histoire du livre et des pratiques textuelles ne peut pas continuer à ignorer cette rencontre.
Les Software Studies ne désarçonneront pas les spécialistes de la bibliologie matérielle (voir 1/2) puisque ce champ théorique émergent s’intéresse à la manière dont sont fabriqués les logiciels, à leurs effets pragmatiques et à leurs usages dans des communautés déterminées. Dans cette perspective, proposée par Manovich et Fuller (Software Studies: a Lexicon, 2008), le logiciel devient le centre névralgique d’opérations de manipulation, d’interprétation et d’appropriation des savoirs auquel les chercheurs doivent prêter attention parce qu’il conditionne les modes de production et d’accès à notre culture :
Why should humanists, social scientists, media scholars, and cultural critics care about software ? Because outside of certain cultural areas such as crafts and fine art, software has replaced a diverse array of physical, mechanical, and electronic technologies used before the twenty-first century to create, store, distribute and access cultural artifacts. When you write a letter in Word (or its open source alternative), you are using software. (Lev Manovich, Software Takes Command, 2013)
Comment étudier et qu’étudier du logiciel ?
Son étude pose cependant des problèmes : le logiciel est-il l’interface que nous avons l’habitude de manipuler, dans notre expérience quotidienne bureautique, ou ses lignes de code source ? Où commence-t-il et où s’arrête-t-il (à l’application ? À l’ensemble des ressources — humaines, matérielles, etc. — qui lui permettent d’exister ?) Faut-il prendre en compte sa documentation technique ? Comment assurer son archivage ? Comment les chercheurs pourront plus tard accéder à ces artefacts pour faire l’histoire de nos pratiques5Avec HistoricalSoftware Collection et BitSavers, InternetArchive répond en partie à ces questions.La deuxième de l’article de Matthew Kirschenbaum et Sarah Werner (voir 1/2), consacré aux relations possibles entre les études sur le livre et les études numériques, revient précisément sur ces dernières. Après avoir montré que la bibliographie matérielle (la discipline qui étudie les conditions de fabrication, de circulation et d’appropriation des livres) a fourni ses fondements épistémologiques aux Digital Studies, les deux auteurs résument les travaux qu’ils estiment les plus importants sur la culture numérique.? Ces questions sont fondamentales : elles déterminent les approches et les instruments théoriques nécessaires à l’étude du logiciel. Si l’on considère qu’il commence et s’arrête à l’application, on se contentera d’analyses sémiotiques strictes ; une approche anthropologique (ou anthropo-sémiotique), elle, nécessitera des enquêtes ethnographiques auprès des concepteurs de ces logiciels, pour comprendre le champ conceptuel qui les sous-tend, comme le montre Belinda Barnet dans Memory Machines : The Evolution of Hypertext.
Des méthodologies possibles
Ethnographie de l’informatique
Le livre dirigé par Fuller (Software Studies) offre des approches variées, même s’il peut laisser penser que le logiciel se réduirait à une addition de termes (interface, boutons, algorithme, pixels, code source, visualisation, etc.) qui l’épuiseraient. L’article “Ethnocomputing” de Matti Tdedre et Ron Eglash articule la sociologie des sciences et des techniques, l’interactionnisme et le constructionnisme pour travailler conjointement le social et l’informatique. Les deux auteurs ont l’ambition de faire une histoire socioculturelle de l’informatique. On ne peut pas comprendre comment certains logiciels ont été mis au point sans notamment prendre en compte les controverses qui les ont animés. Le projet OLPC (“One Laptop per Child”), développé par des chercheurs du MIT, a par exemple suscité la méfiance de certains responsables africains, qui dénoncèrent une mainmise américaine.
En outre, la conception logicielle nécessite des études ethnographiques, capables de guider les informaticiens et les graphistes dans leur travail. Matti Tdedre et Ron Eglash citent le cas de deux chercheurs qui ont connu un échec en tentant de remplacer la métaphore du bureau (corbeille, dossier, etc.) par des métaphores spatiales (chambres, maisons, villages, etc.). En intensifiant leurs recherches ethnographiques sur les populations afro-américaines, ils ont fini par comprendre que la contestation de la métaphore bureautique offrait moins d’intérêt que la compréhension fine des procédures de recherche, précisément négligées par cette représentation visuelle mondialement adoptée.
Archéologie de l’informatique
La démarche de Lev Manovich est d’abord archéologique dans Software Takes Command (MIT, 2013) : elle consiste à relire les travaux des informaticiens des années 60–70 (Licklider, Ivan Sutherland, Ted Nelson, Douglas Engelbart, Alan Kay, Negroponte), eux-mêmes héritiers des théories artistiques (futurisme, poésie concrète, etc.), qui ont en grande partie pensé et façonné nos pratiques documentaires contemporaines, comme le remix ou le partage. Alan Ray, par exemple, envisageait l’ordinateur comme un moyen capable de stimuler des arts et des pratiques (photographiques, picturales) et d’en créer ou d’en favoriser aussi de nouvelles, comme le collage. De la même façon, Ivan Suthenland a posé en 1963 avec Sketchpad ou SuperPaint les fondements de nos logiciels de création (Photoshop, After Effects, etc.).
Sa démarche est également matérielle puisque Manovich se contente d’observer des transformations graphiques ou esthétiques (boutons, menus, etc.), d’identifier des cristallisations iconiques, sans conjecturer une influence improbable sur nos synapses et notre manière de penser.
Sa démarche est enfin sociotechnique et anthropologique : Manovich considère, à juste titre, que les logiciels sont le produit d’un ensemble d’acteurs qui les transforment, les affinent, les ajustent par rapport à la concurrence et selon des facteurs certes graphiques ou informatiques mais également interactionnistes, commerciales, organisationnelles. Des mondes sociaux (celui des artistes numériques, comme Aaron Koblin ou Jeremy Blake) en côtoient d’autres (ceux des graphistes, des informaticiens, etc.) dans des espaces professionnels où ils apprennent à négocier leurs visions du monde et leurs pratiques.
Critical Code Studies : une herméneutique du code
Si les Software Studies s’intéressent en partie au code informatique, les Critical Code Studies en ont fait leur objet d’étude. Cette discipline s’appuie sur l’idée, héritée de Donald Knuth6Donald Knuth, “Literate Programming”, Stanford, Center for the Study of Language and Information, 1992., que le code informatique est un “essai littéraire” adressé à des humains pour être interprété et compris, comme le remarquent très bien les deux auteurs de l’article. Dans cette perspective, la programmation apparaît comme une “activité lettrée”7Milad Doueihi, Pour un humanisme numérique, Seuil, 2011.qui a cependant sa propre structure, différente de la tradition scolastique. C’est pourquoi elle nécessite des outils analytiques adaptés.Avant de présenter les trois livres cités par Matthew Kirschenbaum et Sarah Werner, qui sont des exemples appliqués des Critical Code Studies, je mettrai au jour ces outils et la constitution progressive de cette discipline, en m’appuyant sur des lectures personnelles et des terrains en cours d’exploration.
Fondements
En 2006, Marc C. Marin pose les fondements des Critical Code Studies8Marc C. Marin, “Critical Code Studies”, 4 avril 2006, consulté le 20/08/2014. Selon lui, le code informatique doit être considéré comme un texte, soit un système de signes avec sa propre rhétorique9Voir aussi Robert E. Cummings, “Coding with power : Toward a rhetoric of computer coding and composition”, Computers and Composition, 23, 2006, p. 430–443.. Les Critical Code Studies se présentent comme une herméneutique, sensible à l’interprétation du code informatique et à son contexte socio-historique de production (“code is social, semiotic system employing grammar and rhetoric” écrit Marin). En tant qu’ ”acte performatif” (“performative act”10Geoff Cox et Alex McLean, Speaking Code: Coding as Aesthetic and Political Expression (Software Studies), The MIT Press, 2012 ; Inke Arns, “Code as performative speech act”, Artnotes.) , il n’est pas neutre : il porte des valeurs. Le code est une pratique culturelle11John Cayley, “Coding as practice”, 2008, consulté le 20/08/2014. à partir de laquelle s’organisent des communautés de savoirs qui définissent les normes de sa production et de son utilisation12Voir Stéphane Couture, “L’écriture collective du code source informatique”, Revue d’anthropologie des connaissances, 25 avril 2012, vol. 61, no 1, p. 21‑42.
Le commentaire informatique comme pratique philologique
Dans les années 80–90 jusqu’à aujourd’hui13Denis Krukovsky, “How to Write Comments”, 19 juillet 2005 ; James Edwards, “Comment-Driven Development”, 10 octobre 2007 ; David Njoku, “How to make comments the most important ‘code’ you write”, 23 novembre 2011., les codeurs ont été incités à documenter leur code pour le rendre le plus compréhensible possible par des humains. C’est pourquoi Donald Knuth envisageait l’écriture informatique comme un “essai littéraire”. Comme tout professionnel de l’écriture, le programmeur, muni de son thésaurus, choisi en effet des variables et les documente.
La gestion, l’intégration et la disposition des commentaires dépendent bien évidemment de chaque langage de programmation15Liste détaillée ici.. Mais dans l’ensemble, un code se présente sous la forme de lignes de programmation qui se suivent. Et l’introduction de commentaires conduit à différentes stratégies de distinctions graphiques16Voir ici et ici..
Or, l’écriture de ces commentaires emprunte à la culture lettrée et à la tradition philologique son vocabulaire et ses techniques. David Njoku, un programmeur, conseille de produire une “préface” (“prefacing”) à l’intention des lecteurs de son code :
This is the practice of starting each programming unit with a block comment that briefly describes it. Ideally, the preface should not be overly long, and it should summarize the purpose of its programming unit. The advantages of prefacing are twofold: it is a useful tool for any maintainers who may need to understand the code in the future; but it can also be beneficial for the developer writing the code, helping to concretize his purposes in his mind. 17David Njoku,“How to make comments the most important ‘code’ you write”, 23 novembre 2011, http://allthingsoracle.com/how-to-make-comments-the-most-important-code-you-write/.
La “préface” a essentiellement trois fonctions : elle fournit un résumé des objectifs du code, elle assure la pérennité de sa signification, en le rendant compréhensible pour des lecteurs futurs, qui n’ont pas nécessairement connaissance des conditions de production du code. Enfin, la “préface” est un procédé réflexif qui permet au codeur de conscientiser ses actions.
Parmi la typologie proposée par ce codeur figure également la forme “revision history” :
It can be useful to maintain a history of revisions that a programming unit has gone through. Typically, this revision history will be part of the comment preface block, and will note the name of the developer who has made a change, the date and a short description of the change, including the factors that necessitated it. […] Anyone maintaining your code in the future will thank you for including a revision history. The identity of the developer who has made a particular change is not so important, however, it may one day be vital to know when a change was made and why.
Ce passage est plein d’enseignement. C’est la preuve que la programmation est une activité lettrée et savante, du moins si on la compare à la pratique des bibliothèques d’Alexandrie :
A la transmission du texte s’ajoutait une tradition spécifique, où se conservait la mémoire de ces différentes interventions critiques, l’histoire de ces lectures savantes. Le commentaire, dès les Alexandrins, était l’un des lieux du travail éditorial, explicitant les corrections suggérées par les signes marginaux. (Christian Jacob, 2001, “La carte des mondes lettrés”, dans Luce Giard et Christian Jacob (dir.), Des Alexandries, t. 1, Du livre au texte, Paris, Éditions de la BnF, p. 11–40.)
Les commentaires sont pour le codeur le moyen de déterminer la responsabilité des états du texte en affectant à chacun d’entre eux un auteur identifié. Le code s’inscrit dans une temporalité et une vie longue qui permettent à une chaîne de lecteurs d’en retrouver les étapes, d’en comprendre les particularités, d’en saisir les styles d’écriture et les objectifs.
Qu’analyser du programme informatique ?
Dès lors, que doit-on analyser d’un programme informatique? “Tout”, pour reprendre M. C. Marin (“everything”), c’est‑à-dire la documentation, les lignes de code, les commentaires, les structures, les éléments paratextuels (auteur, description, histoire, voire même les sources de financement publiques mentionnées).
Insistons, en effet : le code informatique s’adresse peut‑être à la machine, mais également à des programmeurs, qui doivent pouvoir le réutiliser, et à des non- programmeurs (chefs de projets, par exemple). Plus précisément, le programmeur construirait dans son code une autre “audience”18Robert E. Cummings (“Coding with power : Toward a rhetoric of computer coding and composition”, Computers and Composition, 23, 2006, p. 430–443.) s’appuie sur les travaux de référence de Ong (“The Writer’s Audience is Always a Fiction”, Modern Language Association, 90 (1), 1975, p. 9–21), notamment sur la notion de “readership” (conception abstraite que se fait un écrivain de son public), pour proposer une distinction entre l’audience “invoquée” dans l’écriture du code (“audience invoked”, p. 437) et une audience à qui s’adresse le programmeur (“audience addressed”, Ibid.)., une audience postulée, imaginée, qui détermine l’horizon d’attente du programme informatique
Code source, code binaire
Il faut cependant s’entendre sur la notion de “code informatique”. Sans entrer dans les détails techniques d’une “grammatologie du disque dur”19Matthew Kirschenbaum, “Extreme inscription: The grammatology of the hard drive”, Text Technology, 13 (2), 2004, p. 91–125., on peut distinguer différents codes : le code source, d’abord, ensemble d’instructions structurées écrites dans un langage de programmation et le code binaire, ensuite, exécuté par la machine à partir d’une traduction du code source en une suite de 0 et de 1. Dans le premier cas, le code source s’“adresse” à la machine, dans un langage compréhensible et manipulable par des humains (le langage source, ou “delegated code”) ; dans le second cas, le code binaire est une transformation, appelée “compilation”, du code source pour permettre son exécution par la machine (le langage cible).
Les Critical Code Studies s’intéressent au “code source”, tandis que les Software Studies sont attentives aux logiciels, c’est‑à-dire au code source compilé et traduit visuellement par la machine dans ce que nous appelons des “interfaces graphiques” (Berry parle aussi de “prescriptive code”20David M. Berry, “A Contribution Towards a Grammar of Code”, The Fibreculture Journal, 13, 2008 et David M. Berry, The Philosophy of Software. Code and Mediation in the Digital Age, Basingstoke, Palgrave Macmillan, 2011.). Mais le code ou les logiciels ne pas seulement régis par des langages spécifiques ; ce sont des formes culturelles qui impliquent des pratiques, des savoir-faire, des imaginaires et des représentations21Manovich parle de “cultural software” dans Software Takes Command, The MIT Press, 2013..
Critical Code Studies appliqués
Les deux premières études citées par Matthew Kirschenbaum et Sarah Werner répondent à un programme assez classique des Critical Code Studies, soit l’étude du code informatique à l’exclusion de ses conditions sociales de production :
Critical code scholars are given to close readings of individual lines of computer code, looking for the expressive dimension of such elements as the names given to variables or the choice of conditional structures used to govern the actions of the program; however they also locate agency at the level of the process the code enacts, the specific computational behaviors set in motion by the source code. (p. 432)
Expressive Processing
Dans son livre Expressive Processing: Digital Fictions, Computer Games, and Software Studies (MIT Press, 2009), Noah Wardrip-Fruin, professeur associé au département d’informatique de l’Université de Californie, fait de l’analyse du code une nécessité civique, comme il détermine toutes nos procédures quotidiennes, de la recherche à travers l’algorithme de Google aux systèmes qui guident les avions et modifient par conséquent notre rapport à l’espace22Rob Kitchin, Martin Dodge, Code/Space: Software and Everyday Life, The MIT Press, 2014.. L’appellation “expressive process” désigne à la fois l’étude des forces qui régissent nos interactions médiatisées et la mise au jour de choix esthétiques, plus ou moins perceptibles dans les interfaces informatiques. L’auteur fait l’étude de la performativité du code (il a des effets) et de son expressivité, à travers ce qui le phénoménalise, le rend visible. Wardrip-Fruin s’intéresse aussi bien à des programmes informatiques historiques (Eliza, années 60) qu’à des jeux vidéos (Warcraft, Second Life, etc.), pour mettre au jour trois effets :
- l’effet “Eliza” : dans les années 60, Weizenbaum mit au point un psychothérapeute virtuel (nommé Eliza) qui pouvait s’engager dans une “interaction” avec un humain, à partir d’un jeu de questions/réponses qui s’appuyaient sur des structures linguistiques simples. Très vite pourtant l’usager se rendait compte de la supercherie. Ce que Wardrip-Fruin appelle “l’effet Eliza” est la capacité d’un dispositif informatique à suggérer à un auditoire sa complexité illusoire.
- l’effet “Tale-Spin” : inversement, l’effet “Tale-Spin” désigne un programme informatique qui échoue à faire valoir sa richesse auprès de son auditoire. Les premiers jeux, comme Tale-Spin, mettaient en scène des personnages relativement complexes, capables d’entretenir des interactions ou de se fixer des objectifs. Mais peu de gens pouvaient s’en rendre compte.
- l’effet SimCity : enfin, l’effet“SimCity” (jeu auquel j’ai beaucoup joué, adolescent) désigne la capacité de programme informatique à répliquer leur complexité structurelle dans les outils mis à disposition d’un utilisateur. Le joueur de SimCity pouvait mobiliser une palette très importante de moyens pour construire une ville simulée, qui devait articuler entre eux des paramètres sociaux, techniques, juridiques, économiques, écologiques.
Une critique génétique du code informatique
Dans une autre étude, Dennis Jerz23Dennis Jerz, “Somewhere Nearby is Colossal Cave: Examining Will Crowther’s Origi- nal ‘Adventure’ in Code and in Kentucky”, Digital Humanities Quarterly 1.2, 2007., professeur associé en anglais (Seton Hill University), se livre à une analyse approfondie du code Fortran avec lequel a été écrit un jeu comme Colossal Cave Adventure dans les années 70. C’est à partir des multiples versions du code de William Crowther, le créateur du jeu, que Dennis Jerz repère des orientations, des ajouts et des corrections. Le chercheur pratique une forme de “critique génétique”, en débusquant des variantes pour dresser la carte de tous les possibles d’un programme.
Une seule ligne de code et c’est le monde
Enfin, le dernier livre cité par Matthew Kirschenbaum et Sarah Werner fait l’étude de son propre titre (10 PRINT CHR$(205.5+RND(1)); : GOTO 10), soit une ligne de code en BASIC qui tournait sur des ordinateurs Commodore 64, capable de produire unlabyrinthe aléatoire :
Le livre traite plus généralement de la pensée algorithmique sous différents angles, du labyrinthe chez les grecs à la programmation informatique, en convoquant un ensemble de concepts (régularité, aléatoire, etc.) et d’objets (le langage BASIC, les ports, etc.) pour éclairer les enjeux du hasard calculé (voir “Peut-on reconnaître la littérature numérique ? (I) Matière, écart, langage”). Ce sont des relations riches qui se jouent entre le labyrinthe, le programmeur et l’utilisateur car si le programmeur est l’architecte du labyrinthe, le programme, lui est son constructeur. Ces deux acteurs ne peuvent en outre pas ignorer un utilisateur dont la culture n’a cessé de progresser depuis les années 80, alors que les labyrinthes se sont multipliés dans les jeux vidéos. C’est pourquoi le calcul du hasard s’est aussi complexifié. Ainsi, le travail de la métaphore labyrinthique met au jour des procédures intellectuelles, matérielles, sociales, des années 80 à aujourd’hui. Dans cette perspective, la ligne 10 PRINT CHR$(205.5+RND(1)); : GOTO 10 a une valeur métonymique : elle porte en elle le monde. C’est en ce sens que la démarche de 10 Print diffère des deux autres : le code informatique est certes envisagé comme un texte, mais dans le sens que lui auraient donné les sémioticiens ou un anthropologue comme Geertz, soit une densité sociale, culturelle, historique à déchiffrer.
Plateform Studies : le sens du détail matériel
C’est pourquoi je relativiserais le constat dressé par Nick Montfort et Ian Bogost, que relaient Matthew Kirschenbaum et Sarah Werner, au sujet des Critical Code Studies :
[plateform] is the abstraction level beneath code, a level which has not yet been systematically studied. If code studies are new media’s analogue to software engineering and computer programming, platform studies are the humanistic parallel of computing systems and computer architecture, connecting the fundamentals of new media work to the cultures in which they were produced and the cultures in which coding, forms, interfaces, and eventual use are layered upon them.
Nick Montfort et Ian Bogost laissent penser que la dimension anthropologique manquerait au Critical Code Studies, contrairement aux Plateform Studies qui relieraient le substrat matériel de l’informatique aux logiques culturelles qui les sous-tendent. Cela dit, si les Critical Code Studies font des incursions dans ce domaine, les Plateforms Studies pensent théoriquement cette articulation.
La notion de “plateforme”
Elle est assumée dans l’ouvrage de Nick Montfort et Ian Bogost (Racing the Beam The Atari Video Computer System, The MIT Press, 2009), qui analysent conjointement le technique et le culturel, la console de jeu vidéo Atari des années 70/80 et ses implications24D’autres livres de la même collection du MIT s’intéressent au Commodore Amiga, aux laboratoires Bell, à la technologie Flash.. Là aussi, une hypothèse métonymique anime le projet puisque le terme“Atari” servait à la fin des années 80 à désigner toute console de jeu vidéo. Autrement dit : Atari est la porte d’entrée à une partie de la culture des années 70/90, voire au-delà, comme l’architecture de cette console a servi de fondements à de nombreux jeux vidéos, qui ont prolongé son geste inaugural. Les “plateformes”, comme celles de Flash également25Anastasia Salter et John Murray,Flash — Building the Interactive Web, Cambridge, Massachusetts, MIT Press, 2014., créent donc une culture.
Que recouvre ce terme : “plateform” ? Dans l’introduction à leur ouvrage, Nick Montfort et Ian Bogost donnent quelques pistes. Une “plateforme”, c’est une abstraction, c’est-à-dire une spécification (un algorithme, par exemple) qui n’a pas encore été traduite dans un langage de programmation. Mais pour être utilisée, une plateforme a besoin de prendre une tournure matérielle (câbles, périphériques, etc.) et phénoménale (système d’exploitation, interfaces). Or, cette tournure peut entraver des expressions computationnelles : elle détermine la manière dont des programmeurs travailleront, comme c’est par exemple le cas avec l’App’Store qui impose des règles spécifiques à partir desquelles les applications sont écrites.
C’est bien l’articulation entre ces différents niveaux qui intéressent Nick Montfort et Ian Bogost, qu’ils testent sur six jeux, conçus pour Atari (Combat, 1977 ; Adventure, 1979 ; Star Wars: The Empire Strikes Back, 1980 ; Pac-Man, 1982 ; Yar’s revenge, 1981 ; Pitfall!, 1982) et grâce auxquels de nombreux problèmes peuvent être travaillés. En tant qu’adaptation, Star Wars: The Empire Strikes Back exige par exemple de prendre en compte le passage d’une forme médiatique à une autre. De la même façon, Pitfall!, développé par Activision pour Atari, permet de comprendre comment des développeurs externes à la plateforme ont pensé l’implantation de leur travail. Des questions aussi bien sémiotiques qu’informatiques ou sociales se posent donc au chercheur.
Pour les études sur le livre, penser en terme de “plateforme” peut s’avérer fructueux. Un dispositif comme celui du Kindle invite par exemple à se pencher sur des questions techniques (fonctionnement de la machine), esthétiques (choix de tels signes dans une interface) qui sont autant de contraintes et de ressources pour l’usager.
Pour résumer : les Plateform Studies font des détails matériels, regroupés à partir de la notion de “plateforme”, l’indice d’un rapport intersubjectif, interactionnel, communicationnel, historique, corporel.
Le corps et la plateforme
Si ce dernier point (le corps) est moins traité par Nick Montfort et Ian Bogost, il fait l’objet d’une autre étude : Codename Revolution. The Nintendo Wii Platform de Steven E. Jones et George K. Thiruvathukal (collection “Plateform Studies” de The MIT Press, 2012). Les deux auteurs interrogent aussi bien les périphériques (Wii Remote, Wii balance, etc.) que les logiciels, qui s’entrelacent comme les corps des utilisateurs, insérés dans un espace social chorégraphié, où les uns s’ajustent aux gestes des autres, tandis qu’ils suivent leur représentation à l’écran. La culture numérique participe ainsi de l’élaboration et de la manifestation des corps dans l’espace.
Media Archaeology : une histoire matérielle des médias
Le dernier courant présenté Matthew Kirschenbaum et Sarah Werner n’est pas nord-américain comme les trois autres mais européen. Un livre fondateur (Media Archaeology — Approaches, Applications, and Implications de Parikka et Huhtamo, 2011) en présente les outils théoriques et méthodologiques. On a manifestement affaire à un nomadisme conceptuel puisque les Media Archaeology sont — en partie — une réélaboration de L’archéologie du savoir de Foucault. Dans son livre, Foucault cherchait à suivre la formation des énoncés, des objets, des concepts (l’idée d’une “langue universelle” au XVIIIème par exemple) pour analyser leur dispersion, leurs transformations et leurs liaisons éventuelles autour de stratégies dans lesquelles ils finissaient par s’harmoniser. Il plaidait ainsi pour la mise au jour des schèmes qui lient des réalités qu’on doit considérer comme multiples et différentes. Des termes comme “tradition”, “influence”, “évolution”, “mentalité”, s’ils ne sont pas définitivement condamnés par cette approche, font l’objet d’une étude minutieuse, pour identifier des points de ruptures et de continuités.
La dynamique médiatique
Les Media Archaeology ont une ambition similaire : nous aider à comprendre comment un “média”26“Un média est une représentation de la réalité, organisée par un dispositif d’énonciation, publiable sur différents supports.” Voir Broudoux Evelyne, Outils, pratiques autoritatives du texte, constitution du champ de la littérature numérique, Thèse de doctorat, Université Paris VIII Vincennes-Saint Denis, 2003, p. 41., un support médiatique, finissent par se stabiliser, que ce soit techniquement, discursivement ou socialement. Le livre, par exemple, n’a pas toujours été accompagné de discours flatteurs : pendant des siècles, on a pu se méfier de ses effets (perversion de la jeunesse, surcharge intellectuelle, etc.) et ce n’est que très récemment qu’il a acquis un prestige social27Voir Anne-Marie Chartier et Jean Hébrard, Discours sur la lecture, Fayard, 2000., si bien que tout le monde se presse à son chevet. 28Jahjah Marc, “Protée ou les mutations du livre”, Critique, 2015.
L’agent-archive
Les Media Archaeology se réclament cependant d’autres approches et d’autres traditions. Elles sont par exemple proches des thèses de Kittler (Gramophone, Film, Typewriter) et de Ernst (Digital Memory and the Archive) quand elles réfléchissent à la manière dont une archive29Chez Foucault une “archive” n’est pas l’ensemble des textes passés que nous avons conservés, ou conversons, et qui constitueraient notre mémoire fossilisée. L’archive est un système d’énoncés, c’est-à-dire un ensemble stratifié d’artefacts (phrases, tableaux, graphiques, etc.) qui s’entremêlent, se neutralisent, qualifient un événement et fixent provisoirement ses orientations perceptives. Ce système est évidemment capable de transformations, lorsqu’on l’envisage sur la longue durée. C’est pourquoi le livre a fini par devenir un objet de culte, alors qu’il était soupçonné de tous les maux, parce qu’il a fait tour à tour l’objet de discours négatifs puis positifs, dans un ensemble hétérogène de formes : fiction romanesque, affiches, lois, films, etc. se constitue, grâce à l’articulation d’acteurs hétérogènes (humains, techniques, etc.), ou lorsqu’elles font de l’archive sa propre force motrice, comme elle passe par une série de transformations machiniques sur lesquelles les humains ont finalement peu de prise.
Carte, post-it, fichiers, MP3…
En outre, l’ambition conservatrice des Media Archaeology les rapproche de la bibliographie matérielle ou de la science archivistique : elles sont en effet sensibles à la préservation des objets culturels (livre dans un cas, ordinateurs dans l’autre), parce qu’ils portent les traces de la manière dont les hommes ont pensé leur rapport à la mémoire jusqu’aux supports numériques30Wendy Hui Kyong Chun, Programmed Visions: Software and Memory, Reprint edition., Cambridge, Mass., The MIT Press, 2013.et au web31Lisa Gitelman, Always Already New — Media, History and the Data of Culture, Cambridge, Mass.; London, MIT Press, 2008.. C’est pourquoi les tenants des Media Archaeology, ou ceux qui leur sont rattachés, s’intéressent à tous les supports médiatiques, à tous les documents, à tous les énoncés, qu’il s’agisse de la carte, du post-it, du PDF32Lisa Giterlman, 2014, Paper Knowledge: Toward a Media History of Documents, Durham ; London, Duke University Press Books., des fichiers administratifs33Vismann Cornelia et Winthrop-Young Geoffrey, 2008, Files: Law and Media Technology, Stanford, Calif, Stanford University Press., de la machine à écrire34Darren Wershler-Henry, The Iron Whim: A Fragmented History of Typewriting, Cornell Ed., Ithaca, Cornell University Press., 2007., de la signature35Jean-François Blanchette, Burdens of Proof: Cryptographic Culture and Evidence Law in the Age of Electronic Documents, s.l., The MIT Press, 2012.ou du MP336Jonathan Sterne, MP3: The Meaning of a Format, s.l., Duke University Press Books, 2012.. Tout l’intérêt des Media Archeology est de révéler l’ensemble des médiations (discursives, matérielles, historiques, mémorielles) implicites, sourdes, qui travaillent nos pratiques d’écriture.
Ces études peuvent alors se doubler d’une visée politique, qui peut mener à une critique de la transparence supposée des logiciels et des moteurs de recherche. Dans son livre consacré à l’épaisseur sémiotique des interfaces d’écriture 37Je m’appuie en partie sur un compte rendu du Huffington Post., aussi bien dans la culture imprimée que numérique, Lori Emerson38Lori Emerson, Reading Writing Interfaces: From the Digital to the Bookbound, Minneapolis, University Of Minnesota Press, 2014., directeur du Media Archaeology Lab, invite d’abord à prendre en compte les discours associés aux artefacts informatiques, qui se présentent souvent comme conviviaux et “magiques” (Emerson cite le cas de l’iPad), pour mieux encourager à la consommation de contenus. L’universitaire va jusqu’à parler de “googlisation de la littérature” et d’enclosure ostensiblement transparente d’Apple, alors que les premières théorisations informatiques de Douglas Englebart (NLS, 1960), Seymour Papert (langage de programmation Logo 1967), Alan Kay (Dynabook, 1972) et Steve Wozniak (Apple II, 1977) étaient réputées ouvertes, flexibles et extensibles.
L’écriture travaillée par le support
Mais Emerson ne cède heureusement pas à une vision désenchantée, qui conduirait à manquer la complexité des instruments d’écriture, pour se cantonner à une dénonciation naïve de leurs concepteurs. Les comparaisons historiques lui permettent de se focaliser sur son sujet : mettre au jour la manière dont la matérialité des supports travaille les opérations intellectuelles, matérielles, corporelles des poètes et des écrivains. Emerson donne l’exemple d’Emily Dickinson qui superposait des bouts de poèmes pour construire une matrice littéraire délinéarisée.
Les oeuvres de littérature numérique présentées par Lori Ermerson portent plus loin les conséquences de cette interaction matérielle : elles la réfléchissent, se confrontent à elle, en exhibent les effets (voir “Peut-on reconnaître la littérature numérique (II) Oeuvres et performances”). Dans In Samplers: Nine Vicious Hypertexts (1997), Larsen Hijacks détourne le dispositif de Storyspace pour investir tous les espaces fonctionnels (carte, boîte de navigation, etc.) de la fiction, qui se module autour d’un centre (le texte central) et de ses périphéries énonciatives. Larsen Hijacks affirme ainsi l’interdépendance de la littérature et de ses moyens d’investigation 39 On pourra aussi consulter les oeuvres de Deena Larsen, de Talon Memmott et de Judd Morrissey. . Dans une autre oeuvre (Strange Rain), c’est la surface même avec laquelle nous prospectons des formes médiatiques qui est interrogée, à la manière des oeuvres de Jorg Piringer ou de Jason Edward Lewis.
De l’imprimé au numérique et retour
Enfin, les poètes de culture imprimée/numérique ont travaillé ces questions, de deux manières qui nous sont aujourd’hui classiques : ils ont cherché à exhiber le fonctionnement des outils de lecture informatiques, en amenant le lecteur à prendre conscience de son statut, de sa place et de ses gestes, en prise avec ces outils (First Screening de bpNichols ; Traveling to Utopia de Young-Hae Chang Heavy Industries) ; ils ont ensuite tenté de pirater les interfaces d’écriture et de lecture : la machine à écrire (Typestracts de Dom Sylvester Houédard), la photocopieuse (Sharp Facts de bpNichol) et le livre (Carnival de McCaffery). Une troisième voie se dessine aujourd’hui, qui signe définitivement l’entrelacement des cultures. Dans HEATH, Tan Lin associe dans un livre imprimé des éléments collectés sur le web (images, billets de blog, recherches Google, journaux, commentaires, etc.) pour révéler la coexistence de formes hétérogènes sur un même support de lecture (l’écran), dans lesquelles nous sommes quotidiennement pris et que leur rassemblement rend ici d’autant mieux visibles 40Voir aussi Jennifer Grose, Sad Desk Salad, William Morrow Paperbacks, 2012. :
Mais si les signes sont plastiques, s’ils mutent, passant d’un espace médiatique à un autre, ils n’ont plus la même valeur : une recherche sur Google, insérée dans un livre (voir ci-dessus), devient une image, une icône métonymique de la culture numérique, dont nous pouvons reconnaître les traits culturels, en dehors de son environnement. C’est bien la preuve d’un continuum des cultures et des passages qui impliquent chaque fois des mutations heuristiques. Dans Paper Pong, Richard Moore transforme un jeu vidéo en livre pour faire apparaître les gestes implicites à l’écran, convoqués mais impossibles à exécuter.
Conclusion : par-delà imprimé et numérique, l’entrelacement des formes
Qu’on les appelle Software Studies, Critical Code Studies, Plateform Studies ou Media Archaeology, les disciplines présentées dans ce billet ont un même intérêt pour les Book Studies : elles leur permettent de sortir le livre de distinctions radicales (imprimé/numérique) pour penser l’entre-deux, l’entrelacement silencieux des objets, des supports des gestes, des formes :
Today’s texts are also, inevitably, hybrid artifacts, migrating back and forth between digital and analog states. Importantly, the print does not always precede the digital; in fact the norm may be the other way around. (p. 452)
À penser ainsi, on sort rapidement des constats alarmistes et stériles pour s’ouvrir à la complexité du réel (nous recourons en permanence à des tas de supports d’écriture) et à la reconnaissance de pratiques méconnues (copier/coller, mixer, partager, etc.), que nous devons encore apprendre à reconnaître.
Book history has the potential to bring much-needed nuance to tired, reductive binaries around the paragone between print and the digital. (p. 440)
Les Books Studies n’ont évidemment pas attendu Matthew Kirschenbaum et Sarah Werner pour produire des études (anglo-saxonnes) sur ce continuum culturel. Elles ont ainsi porté leurs efforts sur la page41Bonnie Mak, How the Page Matters, Toronto, 2011., le document42David M. Levy, Scrolling Forward : Making Sense of Documents in the Digital Age, Arcade, 2001., le texte43Neil Fraistat et Julia Flanders (eds.), Cambridge Companion to Textual Scholarship, Cambridge, 2013. la lecture44 jeff Gomez, Print is Dead: Books in Our Digital Age, Palgrave, 2007 ; Alan Jacob, The Pleasures of Reading in an Age of Distraction, Oxford, 2011 ; Andrew Piper, Book Was There: Reading in Electronic Times, Chicago, 2012., l’édition et la culture numériques45Ted Striphas, The Late Age of Print: Everyday Book Culture from Consumerism to Control, Columbia, 2009 ; John B. Thompson, Merchants of Culture: The Publishing Business in the 21st Century, Plume, 2012.. Mais les outils théoriques (anglo-saxons) et une histoire des traitements de texte manquent encore pour penser des oeuvres comme Diff in Dune de Martin Howse (ou Harry Potter), qui fait du livre une “plateforme”, dépendante de périphériques et de supports multiples, où circulent des textes et qui lient un ensemble d’acteurs entre eux. L’hybridité généralisée des formes médiatiques impose donc de recourir aux méthodologies des Digital Studies, selon l’idée que les “plateformes” numériques ne sont que des prolongements du livre implicitement envisagé comme une “plateforme” par la bibliographie matérielle :
If book history is the study of how platforms shape and deliver texts, then today’s platforms of pixels and plastic are as much a part of those studies as paper and papyrus. (p. 452
Cela dit, si les Digital Humanities sont des héritiers des Books Studies, ces dernières ont à prendre en compte la spécificité de la matière analysée, qui convoque des objets, des économies, des gestes, des pratiques, des droits, des savoirs dont l’étude nécessite de la patience et du respect.
Bibliographie
Software Studies
BARNET Belinda, 2013, Memory Machines: The Evolution of Hypertext, s.l., Anthem Press.
FULLER Matthew, 2003, Behind the Blip: Essays on the culture of software, Autonomedia.
FULLER Matthew (dir.), 2008, Software Studies : a Lexicon, MIT Press.
TDEDRE Matti et EGLASH Ron, 2008, “Ethnocomputing” dans FULLER Matthew, 2008, Software Studies : a lexicon, The MIT Press, p. 92–100.
MANOVICH Lev, 2010 [2002], Le Langage des nouveaux médias, Dijon, Les Presses du réel.
— 2013, Software Takes Command : Extending the Language of New Media, Londres, Bloomsbury.
Critical Code Studies
ARNS Inke, 2014 “Code as performative speech act”, Artnotes, http://www.uoc.edu/artnodes/eng/art/arns0505.pdf, 2005, consulté le 20/9/2014.
BERRY David M., 2011, The Philosophy of Software. Code and Mediation in the Digital Age, Basingstoke, Palgrave Macmillan.
— 2008, “A Contribution Towards a Grammar of Code”, The Fibreculture Journal, 13.
CAYLEY John, “Coding as practice”, http://www.clc.wvu.edu/r/download/19652, 2008, consulté le 20/08/2014.
COX Geoff et MCLEAN Alex, Speaking Code: Coding as Aesthetic and Political Expression (Software Studies), The MIT Press, 2012 ;
COUTURE Stéphane, 2012, “L’écriture collective du code source informatique”, Revue d’anthropologie des connaissances, vol. 61, no 1, p. 21‑42.
CUMMINGS Robert E., 2006, “Coding with power : Toward a rhetoric of computer coding and composition”, Computers and Composition, 23, p. 430–443.).
JERZ Dennis, 2007, “Somewhere Nearby is Colossal Cave: Examining Will Crowther’s Origi- nal ‘Adventure’ in Code and in Kentucky”, Digital Humanities Quarterly 1.2, http:// www.digitalhumanities.org/dhq/vol/001/2/000009/000009.html.
KIRSCHENBAUM Matthew, 2004, “Extreme inscription: The grammatology of the hard drive”, Text Technology, 13 (2), p. 91–125.
KITCHIN Rob, DODGE Dodge, 2014, Code/Space: Software and Everyday Life, The MIT Press.
KNUTH Donald, 1992, Literate Programming, Stanford, Center for the Study of Language and Information.
MARIN Marc C., 2006, “Critical Code Studies”, en ligne http://www.electronicbookreview.com/thread/electropoetics/codology, consulté le 20/08/2014.
MONTFORT Nick et al., 2014, 10 PRINT CHR$(205.5+RND(1)); : GOTO 10, s.l., The MIT Press.
WARDRIP-FRUIN Noah, 2009, Expressive Processing: Digital Fictions, Computer Games, and Software Studies, The MIT Press.
Plateform Studies
ALTICE Nathan, 2015, I Am Error — The Nintendo Family Computer / Entertainment System Platform, Cambridge, Massachusetts, MIT Press.
JONES Steven E. et THIRUVATHUKAL George K., 2012, Codename Revolution. The Nintendo Wii Platform, coll. “Plateform Studies”, The MIT Press.
MAHER Jimmy, 2012, The Future Was Here, The MIT Press, coll. “Plateform Studies”, 2012.
PATTERSON Zabet, 2015, Peripheral Vision — Bell Labs, the S‑C 4020, and the Origins of Computer Art, 1re éd., Cambridge, Massachusetts, MIT Press.
SALTER Anastasia et MURRAY John, 2014, Flash — Building the Interactive Web, Cambridge, Massachusetts, MIT Press.
Media Archaeology
BLANCHETTE Jean-François, 2012, Burdens of Proof: Cryptographic Culture and Evidence Law in the Age of Electronic Documents, s.l., The MIT Press.
CHUN Wendy Hui Kyong, 2013, Programmed Visions: Software and Memory, Reprint edition., Cambridge, Mass., The MIT Press.
EMRSON Lori, 2014, Reading Writing Interfaces: From the Digital to the Bookbound, Minneapolis, Univ Of Minnesota Press.
ERNST Wolfgang, 2012, Digital Memory and the Archive, , University Of Minnesota Press.
GITELMAN Lisa, 2014, Paper Knowledge: Toward a Media History of Documents, Durham ; London, Duke University Press Books.
— 2008, Always Already New — Media, History and the Data of Culture, Cambridge, Mass.; London, MIT Press.
HUHTAMO Erkki et PARIKKA Jussi (eds.), 2011, Media Archæology: Approaches, Applications, and Implications, Berkeley, Calif, University of California Press.
HUHTAMO Erkki, 2013, [(Illusions in Motion: Media Archaeology of the Moving Panorama and Related Spectacles)], MIT Press.
PARIKKA Julien, 2012, What Is Media Archeology ?, Polity Press.
STERNE Jonathan, 2012, MP3: The Meaning of a Format, s.l., Duke University Press Books.
VISMANN Cornelia et WINTHROP-YOUNG Geoffrey, 2008, Files: Law and Media Technology, Stanford, Calif, Stanford University Press, 216 p.
ZIELINKSI Siegfried, 2008, Deep Time of the Media — Toward an Archaeology of Hearing and Seeing by Technical Means, MIT Press.
Notes
1. | ↑ | Par exemple : Stéphan-Éloïse Gras, “Éthique computationnelle et matérialisme numérique : l’apport des Software Studies”, Critique, 919–820, Août-septembre 2015. |
2. | ↑ | Par exemple : Alexandre Galloway, “Rets et réseaux dans la tragédie antique” dans Bernard Stiegler (dir.), Ingénierie et politique des réseaux sociaux, FYP Éditions, 2012. |
3. | ↑ | Cette suite a finalement été publiée dans une revue : https://rfsic.revues.org/1968 |
4. | ↑ | Voir Figuring the Word: Essays on Books, Writing, and Visual Poetics, Granary Books, 1998. |
5. | ↑ | Avec HistoricalSoftware Collection et BitSavers, InternetArchive répond en partie à ces questions.La deuxième de l’article de Matthew Kirschenbaum et Sarah Werner (voir 1/2), consacré aux relations possibles entre les études sur le livre et les études numériques, revient précisément sur ces dernières. Après avoir montré que la bibliographie matérielle (la discipline qui étudie les conditions de fabrication, de circulation et d’appropriation des livres) a fourni ses fondements épistémologiques aux Digital Studies, les deux auteurs résument les travaux qu’ils estiment les plus importants sur la culture numérique. |
6. | ↑ | Donald Knuth, “Literate Programming”, Stanford, Center for the Study of Language and Information, 1992. |
7. | ↑ | Milad Doueihi, Pour un humanisme numérique, Seuil, 2011. |
8. | ↑ | Marc C. Marin, “Critical Code Studies”, 4 avril 2006, consulté le 20/08/2014 |
9. | ↑ | Voir aussi Robert E. Cummings, “Coding with power : Toward a rhetoric of computer coding and composition”, Computers and Composition, 23, 2006, p. 430–443. |
10. | ↑ | Geoff Cox et Alex McLean, Speaking Code: Coding as Aesthetic and Political Expression (Software Studies), The MIT Press, 2012 ; Inke Arns, “Code as performative speech act”, Artnotes. |
11. | ↑ | John Cayley, “Coding as practice”, 2008, consulté le 20/08/2014. |
12. | ↑ | Voir Stéphane Couture, “L’écriture collective du code source informatique”, Revue d’anthropologie des connaissances, 25 avril 2012, vol. 61, no 1, p. 21‑42. |
13. | ↑ | Denis Krukovsky, “How to Write Comments”, 19 juillet 2005 ; James Edwards, “Comment-Driven Development”, 10 octobre 2007 ; David Njoku, “How to make comments the most important ‘code’ you write”, 23 novembre 2011. |
14. | ↑ | Source : http://javadude.com/articles/comments.html. |
15. | ↑ | Liste détaillée ici. |
16. | ↑ | Voir ici et ici. |
17. | ↑ | David Njoku,“How to make comments the most important ‘code’ you write”, 23 novembre 2011, http://allthingsoracle.com/how-to-make-comments-the-most-important-code-you-write/. |
18. | ↑ | Robert E. Cummings (“Coding with power : Toward a rhetoric of computer coding and composition”, Computers and Composition, 23, 2006, p. 430–443.) s’appuie sur les travaux de référence de Ong (“The Writer’s Audience is Always a Fiction”, Modern Language Association, 90 (1), 1975, p. 9–21), notamment sur la notion de “readership” (conception abstraite que se fait un écrivain de son public), pour proposer une distinction entre l’audience “invoquée” dans l’écriture du code (“audience invoked”, p. 437) et une audience à qui s’adresse le programmeur (“audience addressed”, Ibid.). |
19. | ↑ | Matthew Kirschenbaum, “Extreme inscription: The grammatology of the hard drive”, Text Technology, 13 (2), 2004, p. 91–125. |
20. | ↑ | David M. Berry, “A Contribution Towards a Grammar of Code”, The Fibreculture Journal, 13, 2008 et David M. Berry, The Philosophy of Software. Code and Mediation in the Digital Age, Basingstoke, Palgrave Macmillan, 2011. |
21. | ↑ | Manovich parle de “cultural software” dans Software Takes Command, The MIT Press, 2013. |
22. | ↑ | Rob Kitchin, Martin Dodge, Code/Space: Software and Everyday Life, The MIT Press, 2014. |
23. | ↑ | Dennis Jerz, “Somewhere Nearby is Colossal Cave: Examining Will Crowther’s Origi- nal ‘Adventure’ in Code and in Kentucky”, Digital Humanities Quarterly 1.2, 2007. |
24. | ↑ | D’autres livres de la même collection du MIT s’intéressent au Commodore Amiga, aux laboratoires Bell, à la technologie Flash. |
25. | ↑ | Anastasia Salter et John Murray,Flash — Building the Interactive Web, Cambridge, Massachusetts, MIT Press, 2014. |
26. | ↑ | “Un média est une représentation de la réalité, organisée par un dispositif d’énonciation, publiable sur différents supports.” Voir Broudoux Evelyne, Outils, pratiques autoritatives du texte, constitution du champ de la littérature numérique, Thèse de doctorat, Université Paris VIII Vincennes-Saint Denis, 2003, p. 41. |
27. | ↑ | Voir Anne-Marie Chartier et Jean Hébrard, Discours sur la lecture, Fayard, 2000. |
28. | ↑ | Jahjah Marc, “Protée ou les mutations du livre”, Critique, 2015. |
29. | ↑ | Chez Foucault une “archive” n’est pas l’ensemble des textes passés que nous avons conservés, ou conversons, et qui constitueraient notre mémoire fossilisée. L’archive est un système d’énoncés, c’est-à-dire un ensemble stratifié d’artefacts (phrases, tableaux, graphiques, etc.) qui s’entremêlent, se neutralisent, qualifient un événement et fixent provisoirement ses orientations perceptives. Ce système est évidemment capable de transformations, lorsqu’on l’envisage sur la longue durée. C’est pourquoi le livre a fini par devenir un objet de culte, alors qu’il était soupçonné de tous les maux, parce qu’il a fait tour à tour l’objet de discours négatifs puis positifs, dans un ensemble hétérogène de formes : fiction romanesque, affiches, lois, films, etc. |
30. | ↑ | Wendy Hui Kyong Chun, Programmed Visions: Software and Memory, Reprint edition., Cambridge, Mass., The MIT Press, 2013. |
31. | ↑ | Lisa Gitelman, Always Already New — Media, History and the Data of Culture, Cambridge, Mass.; London, MIT Press, 2008. |
32. | ↑ | Lisa Giterlman, 2014, Paper Knowledge: Toward a Media History of Documents, Durham ; London, Duke University Press Books. |
33. | ↑ | Vismann Cornelia et Winthrop-Young Geoffrey, 2008, Files: Law and Media Technology, Stanford, Calif, Stanford University Press. |
34. | ↑ | Darren Wershler-Henry, The Iron Whim: A Fragmented History of Typewriting, Cornell Ed., Ithaca, Cornell University Press., 2007. |
35. | ↑ | Jean-François Blanchette, Burdens of Proof: Cryptographic Culture and Evidence Law in the Age of Electronic Documents, s.l., The MIT Press, 2012. |
36. | ↑ | Jonathan Sterne, MP3: The Meaning of a Format, s.l., Duke University Press Books, 2012. |
37. | ↑ | Je m’appuie en partie sur un compte rendu du Huffington Post. |
38. | ↑ | Lori Emerson, Reading Writing Interfaces: From the Digital to the Bookbound, Minneapolis, University Of Minnesota Press, 2014. |
39. | ↑ | On pourra aussi consulter les oeuvres de Deena Larsen, de Talon Memmott et de Judd Morrissey. |
40. | ↑ | Voir aussi Jennifer Grose, Sad Desk Salad, William Morrow Paperbacks, 2012. |
41. | ↑ | Bonnie Mak, How the Page Matters, Toronto, 2011. |
42. | ↑ | David M. Levy, Scrolling Forward : Making Sense of Documents in the Digital Age, Arcade, 2001. |
43. | ↑ | Neil Fraistat et Julia Flanders (eds.), Cambridge Companion to Textual Scholarship, Cambridge, 2013. |
44. | ↑ | jeff Gomez, Print is Dead: Books in Our Digital Age, Palgrave, 2007 ; Alan Jacob, The Pleasures of Reading in an Age of Distraction, Oxford, 2011 ; Andrew Piper, Book Was There: Reading in Electronic Times, Chicago, 2012. |
45. | ↑ | Ted Striphas, The Late Age of Print: Everyday Book Culture from Consumerism to Control, Columbia, 2009 ; John B. Thompson, Merchants of Culture: The Publishing Business in the 21st Century, Plume, 2012. |