Sommaire
- 1 Des “programmes de vérité”
- 2 Les “faiseurs de monde”
- 3 Conclusion : des communautés de vérité
- 3.1 Cinq problèmes avant de conclure
- 3.1.1 Réalistes et nominalistes : l’éternel débat…
- 3.1.2 Les cadres de l’action collective
- 3.1.3 De la vérité au doute : dynamiques de l’expérience des programmes
- 3.1.4 Matérialité, membres et formes de vie de la culture numérique
- 3.1.5 Politique de l’accord, du commun et de la fragilité
- 3.2 Pour finir : qu’est-ce qu’une communauté de vérité ?
- 3.1 Cinq problèmes avant de conclure
- 4 Lexique
- 5 Bibliographie
“Loin d’être un maître solennel et sévère, la vérité est un serviteur docile et obéissant” (Nelson Goodman)
Nous avons souvent tendance à qualifier d’ ”idéologiques” des idées qui ne sont pas les nôtres1Ce billet est une réécriture et une très large extension d’un article à paraître dans Pascal Robert, L’Impensé numérique, t.2, Editions des Archives, courant 2018.. Dans un petit livre aussi bref que dense, l’historien de l’antiquité gréco-romaine Paul Veyne (1983) propose de remplacer les notions d’ ”idéologie”, de “mythe”, d’ ”imaginaire” ou même de “croyance”, qui servent généralement à sanctionner des valeurs étrangères, par celle de “programme de vérité”.
Des “programmes de vérité”
Vérité, confiance et mauvaise foi
Selon Veyne, il n’y aurait pas d’un côté des vérités et de l’autre des erreurs : il n’existerait que des “programmes de vérité”*2Chaque terme avec une astérisque est défini dans le lexique. que se fixent à un moment donné des “personnes”3La notion de personnes vient ici remplacer celle d’ ”acteurs”, d’ ”agents” ou d’ ”usagers” : elle présuppose une capacité d’action chez chacun d’entre nous qui n’est pas nécessairement déterminée par une situation dans laquelle s’engagent les personnes. Corrélée à celle de capacité — voir note d’après -, la notion de personne réintroduit de l’incertitude, de l’imprévu dans l’étude de l’action humaine. Voir Luc Boltanski et Laurent Thévenot, De la justification, Gallimard, 1991. et auxquels elles adhèrent par conviction, mauvaise foi ou opportunisme, parce qu’elles ont un temps confiance en l’expertise de leur promoteur.
Car elles ne sont jamais tout à fait dupes : elles peuvent croire et ne pas croire, adhérer à ce qui se présente à une vérité en un lieu (dans un espace public) et y renoncer à un autre (chez soi), choisir de suspendre leur crédulité un moment (le Père Noël existe) et se montrer incrédule ensuite. Nous savons bien mais quand même (Lambert, 2014)... Bref, les personnes sont compétentes ou capables4La capacité est un principe de la sociologie pragmatique qui prête aux personnes des aptitudes à analyser leur propre situation : elles n’appliquent pas bêtement un script ou un programme mais l’actualise en fonction de leurs intérêts, de leurs croyances, de l’intensité de leur adhésion. Voir Cyril Lemieux, La Sociologie pragmatique, La Découverte, 2018: si nous adhérons parfois sans résistance à des programmes (publicitaires, politiques, etc.), rien ne permet de dire que nous faisons toujours corps avec eux, avec la même intensité et sans distanciation. Bien au contraire, nous sommes capables de réviser nos jugements, voire de changer d’opinion, en fonction de notre environnement et de ses fluctuations. Les “programmes de vérité” relèvent ainsi d’une analyse pragmatique et dynamique des jugements, des valeurs et des actions humaines.
Les Grecs croient et ne croient pas à leurs mythes : ils y croient mais ils s’en servent et ils cessent d’y croire là où ils n’y ont plus d’intérêt. (…) tous les peuples donnent un coup de pouce à leurs oracles ou à leurs indices statistiques pour se faire confirmer ce qu’ils désirent croire.” (Paul Veyne, Les Grecs ont-ils cru en leurs mythes, Seuil, 1983, p. 94)
Le recours à ce concept a un intérêt discret mais majeur : d’une part, il permet de ne pas présumer a priori des tentatives de manipulation ou de falsification d’un réel donné chez les promoteurs d’un programme (une “start-up” peut sincèrement croire qu’elle va changer le monde, en dépit de ses logiques marchandes et stratégiques) ; d’autre part, il pointe la part de participation des personnes à qui s’adressent ses programmes, en montrant comment elles y adhèrent et selon quelles modalités. En parlant de “programmes de vérité” (ou de “weltanschauung”5Les philosophes allemands, comme Kant ou Dilthey, ont particulièrement travaillé la question des “conceptions du monde” à partir de la notion de “weltanschauung”. Très complexe, elle semble impliquer la manière dont des hommes agencent leur mode de vie. Voir Christian Berner, Qu’est-ce qu’une conception du monde ?, Vrin, 2006. On verra cependant que les programmes de vérité diffèrent en partie de cette notion : ils admettent une partie résistante de réel, là où la théorie des conceptions du monde semble, dans certains cas, excessivement mentaliste.), nous évitons de réfléchir uniquement en termes de manipulation ou d’influence pour comprendre comment et pourquoi les programmes s’ajustent aux personnes ou à des collectifs de personnes, sans nier pour autant la part de coercition ou les rapports de force qui peuvent s’instaurer dans ces programmes et entre des programmes.
Un exemple : le programme de vérité du web (dit) 2.0
Un exemple (que je travaille de manière plus approfondie ensuite) : le programme du web (dit) 2.0. Le 10 décembre 2006, Tim O’Reilly, entrepreneur et promoteur de cette expression, finit par proposer la définition suivante :
Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them. (This is what I’ve elsewhere called “harnessing collective intelligence.”)
Or, un an sépare cette définition ultime d’un premier texte daté du 30 septembre 2005 (“What is Web 2.0 ?”) où O’Reilly cherchait à catégoriser une série de transformations observées sur Internet. De septembre 2005 à décembre 2006, son texte a bénéficié des suggestions de personnes qui, dans leurs commentaires, ont amendé, corrigé ou validé des éléments de sa première définition. Dans le texte de 2006, O’Reilly lui-même rappelle sa dette en matérialisant explicitement les débats suscités par sa définition, qui n’en était manifestement pas encore une :
Progressivement, ce texte est devenu un point de ralliement entre des pratiques, des personnes, des mondes hétérogènes (Rébillard, 2011) qui s’en réclament parfois de manière opportuniste ou parce qu’il a simplement été naturalisé, “impensé” comme dirait Pascal Robert (2016), c’est-à-dire soustrait au débat public au point d’être aujourd’hui convoqué médiatiquement avec la force d’un réflexe pavlovien (“génération 2.0”, “émission 2.0”, etc.). Mais cette soustraction s’est faite après d’importants débats où O’Reilly s’est ajusté aux personnes. Autrement dit : les uns et les autres se sont mutuellement reconnus et élus dans la définition conjointe de leur programme de vérité qui atteste d’une polyphonie énonciative.
Dans cette perspective, on définira l’ajustement* comme l’opération par laquelle “les sujets élaborent dans la durée les normes, croyances, confiances et postures.” (Jeanneret, 2014, p. 87)
Programmes et “Maître de vérité”
Un tel processus ressemble à bien à des égards au portrait que Marcel Detienne fait des Maîtres de vérité dans la Grèce archaïque (2006) : à cette époque, la parole du roi, du devin et du prêtre n’est jamais questionnée : elle est de type assertorique ; elle est “un discours de vérité” qui énonce “ce qui a été, ce qui est, ce qui sera.”
S’ils ne recherchent pas l’assentiment de leur communauté, le roi, le devin et le prêtre sont cependant soumis respectivement à trois ordres transcendants : le Droit, la Mantique, la Muse. Pour que leur parole reste socialement insoumise, ils doivent paradoxalement respecter les ordres reconnus par leur groupe social.
la vérité se définit à deux niveaux : conformité à des principes logiques d’une part, conformité au réel d’autre part, et par là elle est inséparable des idées de démonstration, de vérification, d’expérimentation. (Detienne, 2006, p. 51)
Maîtres et groupe sont donc indissociables : ils s’ajustent l’un à l’autre, définissent conjointement, reconnaissent les normes, les valeurs, les confiances et les postures dont ils ont mutuellement besoin pour s’organiser socialement. C’est pourquoi la tromperie ou la manipulation des Maîtres est bien relative, même si Détienne reconnaît son existence : plus que des virtuoses de la triche, de la ruse et du mensonge, ce sont les figures visibles d’un programme de vérité.
Bilan partiel : la vérité comme énoncé convenable naturalisé
À suivre ma lecture de Veyne et Détienne, on pourrait croire que je souscris au paradigme constructiviste de première génération, excessivement mentaliste et relativiste, encore parfois présent en sciences humaines et sociales. En fait, leur propre positionnement est plus nuancé. Chez Veyne comme chez Détienne, les programmes s’ajustent, même s’ils finissent par s’imposer de manière transcendante : qu’ils soient négociés par les personnes ou qu’ils soient en adéquation avec des cadres institutionnels (le roi respecte la justice), ils sont toujours auto-contraints, soumis à des “contraintes d’acceptabilité” (Ogien et Quéré, 2005a), sont entrelacés dans un tissu social, historique, institutionnel, normatif, langagier.
Les programmes de vérité ne sont pas des conventions qui émergeraient ex nihilo des sables sociaux ; ils ne sont pas non plus relatifs : ils se construisent à partir d’objets plus moins stabilisés, plus ou moins déjà présents, quoique toujours rejoués, réactualisés, transformés : les productions humaines ne procèdent pas de rien6Je reprends à mon compte la thèse de Ricoeur défendu dans un dialogue avec Castoriadis. Voir Cornelius Castoriadis et Paul Ricoeur, Dialogue sur l’histoire et l’imaginaire social, Éditions de l’EHESS, 2016.. Bref, ils sont réels, ils ne dépendent pas de l’avis de telle ou telle personne qui pourrait proférer sa propre vérité. Cette dernière, pour être acceptée, est en adéquation avec ce qu’un groupe social est plus ou moins disposé à accepter.
Mais elle fait aussi l’objet de stratégies de configurations des publics, de cadrages expérientiels et de luttes de reconnaissance : le processus qui mène à un programme de vérité, à la soustraction d’une idée de tout débat public, est long, semé d’embuches. Avant d’être impensé, un programme de vérité est surpensé : il est débattu, négocié, progressivement ajusté, à mesure que les publics sont eux-mêmes configurés ; il subit un processus progressif de naturalisation. À la suite des philosophes du langage ordinaire (Wittgenstein, Cavell), je considère ainsi qu’une convention “n’est pas ce qui est arbitraire ou objet d’un choix mais bien plutôt ce qui est devenu nécessaire” (Laugier, 2018, p. 208). Nous ne sommes pas les auteurs de nos accords et de nos conventions : nous ne faisons que retrouver en eux les forces qui contribuent à leur genèse et qui, en retour, s’en trouvent modestement infléchies.
Mettre au jour ces forces et leurs infléchissements implique une entreprise archéologique (Foucault, 1969) : nous chercherons ainsi à comprendre ce qui a rendu possible un certain type d’énoncés (“Candide 2.0”, par exemple), à partir de quelles formations discursives elles s’établissent et comment ces dernières se sont progressivement constituées par le truchement des médiations, des transformations, des stabilisations progressives et des querelles sourdes entre les programmes de vérité. Les programmes de vérité relèvent en partie, moyennant quelques ajustements et articulations avec d’autres concepts, des “régimes de vérité” qui invitent à se demander quels :
types de discours [une société] accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais et faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. (Foucault, 1976)
Ce projet est très proche de la conception Nietzchienne de la vérité :
Qu’est-ce donc que la vérité ? Une multitude mouvante de métaphores, de métonymies, d’anthropomorphismes bref, une somme de relations humaines qui ont été rehaussées, transposées , et ornées par la poésie et par la rhétorique, et qui après un long usage paraissent établies, canoniques et contraignantes aux yeux d’un peuple : les vérités sont des illusions dont on a oublié qu’elles le sont, des métaphores usées qui ont perdu leur force sensible, des pièces de monnaie qui ont perdu leur effigie et qu’on ne considère plus désormais comme telles, mais seulement comme du métal. (Nietzsche, Vérité et mensonge au sens extra-moral, 1873)
Nietzsche déplace le problème de la recherche de la vérité, qui fait l’objet d’une vénération en philosophie, vers l’interprétation : pour lui, une vérité n’est rien d’autre qu’une interprétation possible qui a réussi socialement à se faire oublier comme telle. Pour autant — j’insisterai souvent sur ce point — tout ne se vaut pas ; la philosophie de Nietzsche n’est pas relativiste : toutes les interprétations ne sont pas équivalentes ; elles exigent de la rigueur. S’il existe une pluralité de points de vue, cette pluralité “suppose un cadre dialogique qui suppose de donner des raisons d’adhérer à telle thèse et des arguments pour répondre aux objectifs qu’on lui oppose.” (Morizot, 2015, p. 545)
Pour résumer, nous ne cherchons plus à comprendre si un énoncé est juste ou pas (perspective idéologique ou cohérentiste de la connaissance), avant d’en sanctionner la teneur, mais comment il est devenu socialement possible, c’est-à-dire pourquoi il est convenable (Austin, 1962 ; voir Laugier, 2008) : le travail d’ajustement est l’indice d’une recherche rigoureuse (Brague et al., 2004) de convenabilité entre les personnes qui n’enlève rien aux luttes violentes et querelles sourdes de cette recherche.
C’est ici un léger point de divergence avec les Mythologies de Barthes (1957), livre de sémiologie critique pour lequel j’ai cependant une grande admiration : son auteur cherche à montrer comment la bourgeoisie naturalise sa propre culture par le truchement de signes qui envahissent l’espace public à tel point que ses valeurs, éminemment situées et relatives, finissent par innerver toute une société avec la force de l’évidence et sans possibilité de contestation. Or Barthes fait l’impasse sur le processus d’ajustement entre les personnes. Son projet est en effet différent : dans une perspective marxiste, il s’agit plutôt de montrer comment une culture (bourgeoise) s’impose sourdement à toutes les autres. Je n’ignore évidemment pas ces rapports de force, qui peuvent être violents et transcendants (Marcel Détienne fait d’ailleurs remarquer que les Maîtres de vérité sont aussi des manipulateurs) mais il me semble que la réussite d’un programme de vérité relève d’une stratification ou d’un tressage un peu plus complexe.
Explorons maintenant cette question, à la jonction du programme mythologique, de l’archéologie des savoirs, de la socio-philosophie américaine et de l’approche communicationnelle.
Les “faiseurs de monde”
Les “communautés de discours”
Comment une convention naturalisée (ou un programme de vérité) devient-elle nécessaire et convenable, c’est-à-dire évidente, impensée, naturelle ? Jusque-là, nous avons vu que les programmes de vérité résultaient d’un processus conjoint d’ajustement entre des Maîtres de vérité et des personnes ou collectifs de personnes, qui se rencontrent dans le langage et dans des dispositifs transcendants (normes, institutions, règles, etc.). Autrement dit : l’ajustement est contraint par des cadres qui préexistent à l’accord des uns et des autres ; c’est pourquoi le rôle des Maîtres et des collectifs, s’il est réel, n’est pas suffisant pour expliquer la formation des programmes de vérité. Avant d’explorer cette question, je chercherai à qualifier ces “collectifs de personnes” et à examiner leur rôle dans la constitution des Maîtres et des programmes. Nous aurons ensuite à élargir la formation des programmes à d’autres critères et d’autres processus.
Pour travailler la question des “collectifs de personnes”, nous avons besoin d’un concept qui permette à la fois de penser l’ajustement des personnes, les contraintes qui pèsent sur elles et les cadres dans lesquels elles s’épanouissent. La notion de “communauté de discours” (Krippendorff, 2011) me semble utile et compatible avec ma problématique et les travaux précédemment cités : elle désigne un “dialogue systématiquement contraint” qui s’auto-organise. Cinq modalités régissent l’émergence et la maintenance des discours (ou, si l’on préfère, des programmes de vérité) :
- La matière textuelle, soit l’ensemble des traces (œuvres, littératures, images, enregistrements, artefacts technologiques, etc.) produites par une communauté de discours dont les membres partagent des compétences d’écriture et de lecture ;
- Le dynamisme des personnes, capables de s’approprier les discours, de les retravailler et de faire circuler leur matière d’une communauté à une autre, pour réélaborer leur sens en s’appuyant sur des critères co-définis et valables au sein d’un espace donné ;
- L’institutionnalisation : les personnes d’une communauté de discours mettent progressivement en place des normes, des traditions, des pratiques qui se maintiennent grâce aux contraintes que chacun d’entre eux fait peser sur l’autre, au point qu’elles deviennent naturelles, alors même qu’elles se sont auto-construites ;
- Les frontières : toute communauté discursive définit des règles d’appartenance qui permettent d’inclure ou de discréditer un membre. Certes, une communauté a besoin de membres d’autres communautés pour croître, en s’appuyant sur leurs ressources intellectuelles et matérielles. Mais cette ouverture relative n’est possible qu’à condition que soient reconnues les compétences de chacune d’entre elles ;
- La justification : c’est parce qu’un discours est justifié qu’il reçoit un crédit extérieur. Il exhibe ses qualités ou celles de ses artefacts et des compétences de ses membres.
Cette proposition est d’abord utile pour penser les productions des “collectifs de personnes” ou des “communautés de discours” : ils conçoivent des artefacts (textes, images, logiciels, etc.) pour incarner leur programme. Elle permet également de montrer comment s’organise la naturalisation discursive : les discours sont d’abord débattus, ils s’organisent, avant d’être présentés comme évidents ou “affordants” dans la terminologie de Krippendorff inspiré par Gibson. Ils sont également dynamiques, c’est-à-dire opportuns : ils s’ajustent et s’adaptent sans arrêt. Enfin, même ils s’auto-organisent, ils s’inscrivent dans des cadres, des institutions, des règles et des normes qui les informent sans les contraindre tout à fait.
On pourrait même aller plus loin et considérer, avec Wittgenstein et les ethnométhodologues (Garfinkel, 1967), que les personnes ne font que retrouver, dans leurs interactions, non seulement les accords qui pré-existent à leurs négociations mais, bien plus, le seuil même des instruments (langage, institutions, etc.) à partir duquel ils se mettent d’accord7“La démarche ethnométhodologique reconnaît et prend toute la mesure d’un fait : la généralité de l’ordre dans le monde social ; et en déduit un principe d’analyse : rien de la vie que nous menons n’échappe jamais ni le moindre instant à une forme d’organisation sociale d’une activité pratique. C’est donc ce fait et ce principe qui fondent la pertinence du constat sur lequel ses analyses se développent : les individus agissent en mobilisant, dans la réflexivité de l’action, ce “savoir de sens commun des structures sociales“ qui ne cesse de les habiter.” Voir Ogien et Quéré, 2005c. Si nous ne pouvons pas dire n’importe quoi, si les Maîtres sont toujours audibles, c’est parce qu’ils ne parlent qu’à l’intérieur du langage humain dans lequel ils tentent d’être compris. Comme l’écrit le philosophe analytique Nelson Goodman (1992[1978]) :
Quoiqu’on ait à décrire, on est limité par les manières de décrire.
Ma position est ainsi proche de l’émergentisme raisonné (voir Chauviré et Ogien, 2001), ou d’un nominalisme rigoureux (Goodman) : les phénomènes sociaux peuvent émerger, s’organiser d’eux-mêmes mais à l’intérieur de cadres qui les autorisent, les rendent lisibles et signifiants socialement, non parce qu’ils existeraient indépendamment d’eux (position du réalisme sémantique ; Tiercelin, 2013), mais parce que ces mêmes cadres, rejoués au cours des interactions des personnes, sont eux-mêmes construits à partir d’anciens cadres ou d’anciennes configurations, à leur tour actualisés et reconfigurés. Nous aurons largement l’occasion de travailler cette question.
Questions et exemples au travail
Pour mettre à l’épreuve ces concepts, je travaillerai tout au long de ce billet sur le web (dit) 2.0 à partir de multiples terrains. Il est particulièrement utile pour conceptualiser et théoriser la notion de “programme de vérité”, de “communauté de discours” et de “Maître de vérité” dans la mesure où, nous l’avons vu, il s’est auto-ajusté, bénéficie encore aujourd’hui d’une figure tutélaire (Tim O’Reilly) et a circulé dans d’autres mondes sociaux (comme le projet Candide 2.0 développé par la New York Public Library). En effet, O’reilly ne s’est pas contenté de “faire monter en généralité”, comme disent les sociologues (Quéré, 1994), un ensemble de discours concordants en proposant de les rassembler (ou de les typifier) sous l’épithète “2.0”. Il a, bien plus, contribué à sa circulation sociale en lançant notamment Tools of Change for Publishing (2007–2013), une conférence internationale sur l’édition numérique, chargée d’accompagner la transformation du monde du livre.
Retenons maintenant quelques questions pour mettre à l’épreuve les concepts précédemment cités et le cadre général. Je le rappelle : il ne s’agit plus de mettre au jour des stratégies de falsification du réel, comme s’il existait d’un côté des gourous et de l’autre des captifs ; il s’agit plutôt d’identifier un tressage fin de personnes, de Maîtres, de matières textuelles, de valeurs, de normes, d’actions à partir desquels émergent des programmes de vérité. D’où les questions suivantes, retravaillées et problématisées pour aborder mon propre corpus (Tim O’Reilly lui-même, la conférence Tools of Change et le projet Candide 2.0) :
- Quels sont les programmes de vérité de Tim O’Reilly et de sa conférence internationale, Tools of Change for Publishing (2007–2013) ? De quelles matières textuelles (images, commentaires, textes, logiciels, etc.) sont-ils constitués ? Comment a‑t-il été naturalisé et pourquoi est-il convenable ?
- Comment a été mis en signe Tim O’Reilly, son expertise et la confiance qu’il inspire ? Qu’est-ce qui a socialement et historiquement permis l’émergence de ce Maître ? De quels discours est-il lui-même héritier ?
- Comment s’est pérennisé et a circulé le programme de vérité de la communauté de discours de Tim O’Reilly ? Qu’est-ce que le projet Candide 2.0 reprend du programme de vérité de Tools of Change for Publishing ? Qui l’a fait circuler dans un nouvel espace social ? Selon quelles modalités ? Quelles compétences font valoir la nouvelle communauté de discours de ce programme de vérité ? Comment qualifier l’institutionnalisation de ce programme de vérité ?
N’ayant affaire qu’à des traces et n’ayant pas mené d’entretiens avec les personnes concernées, je travaillerai principalement à partir de signes, d’indices et de marqueurs : mon but est de repérer, dans une matrice textuelle et éditoriale donnée et reliée pertinemment, un ensemble d’éléments qui permettent de mettre d’abord au jour des “communautés de discours” et des “Maîtres de vérité”, dans une démarche dynamique. Ce parti pris relève de la théorie de l’énonciation éditoriale (Souchier, 2007), c’est-à-dire d’une tentative pour identifier, repérer et faire parler un ensemble d’éléments textuels dont on présuppose le potentiel indiciel, métonymique et symptomatique.
Tim O’Reilly : un Maître de vérité
Que ce soit sur O’Reilly (site mère de l’entreprise d’Oreilly), sur O’Reilly Radar (site de veille sur les nouvelles technologies), ou sur le site de l’événement Tools of Change for Publishing, Tim O’Reilly est toujours présenté en termes mélioratifs et parfois même comme un “oracle” (sic). Il est l’indice d’un travail pour l’instituer comme Maître de vérité.
Une figure mantique
Il assure d’ailleurs très bien le rôle qui lui a été ou qu’il s’est assigné : sur sa page personnelle, son expertabilité s’impose d’emblée. Elle s’apparente à une anthologie personnelle qui démontre visuellement son autorité et organise une matière disparate (entretiens, articles, vidéos, etc.) autour d’un seul énonciateur. Ces matières textuelles sont également structurées à partir d’un rubricage (“Tim’s Best”, “Some pieces on Web 2.0 and the enterprise”, “The Publishing Point Interviews”) qui donne à lire son parcours de manière “affordante”, pour reprendre Krippendorff. Dans cette perspective, il apparaît comme une figure quasi mantique qui avait tout anticipé.
On trouve en effet trace de ce statut dans les biographies dispersées sur l’ensemble des sites précédemment mentionnés. La formule suivante revient sans arrêt (voir Figure ci-dessus), en parlant du blog d’Oreilly : “[it] determines emerging technologie trends, and serves as a plateform for advocacy about issues of importance to the technical community”. Nous avons affaire à des indices d’un programme de vérité : Tim O’Reilly est présenté comme un devin capable de puiser dans la masse des signes disponibles des éléments d’orientation et d’action pour une communauté donnée. Comme sa biographie est identique sur tous les sites cités, nous pouvons à titre d’hypothèse considérer que nous sommes en présence d’une même communauté qui défend le même programme.
Le programme du Maître de vérité et de sa communauté
Ce programme est clairement exprimé dans le texte inaugural d’O’Reilly du 30 septembre 2005 (“What is web 2.0″ ?) qui a été retouché plusieurs fois avant de proposer la définition consensuelle suivante le 10 décembre 2006 :
Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them. (This is what I’ve elsewhere called “harnessing collective intelligence.”)
À cette époque, O’Reilly, comme beaucoup d’autres, cherchait à comprendre pourquoi certaines sociétés (Google) avaient émergé, étaient en pleine croissance, alors que d’autres (Netscape) s’étaient effondrées. Dans son article, il expliquait que les premiers avaient su développer des “services” autour de leur “produit” tandis que les seconds s’étaient excessivement focalisés sur ce dernier. Plus précisément, Google aurait su gérer l’ ”intelligence collective” en développant un algorithme capable d’indexer des productions éditoriales (les pages web) pour les mettre différemment en avant.
Dès 2005, il pose tout l’arrière-plan ou la texture doxique, technologique, axiologique, social bref, le programme de vérité du “web 2.0” : celui-ci devra s’appuyer sur la “sagesse des foules” pour faire des personnes des “co-développeurs” dont les comportements seraient suscités et analysés en temps réel grâce à des langages dynamiques (PHP, Perl, Python, Ruby) et des architectures comme AJAX.
Ce programme se trouvait alors résumé dans une métaphore. Pour O’Reilly, l’ensemble des liens hypertextes du web seraient comparables aux synapses d’un “cerveau global” (l’intelligence collective) qui entretiendrait un “dialogue mental” (“mental chatter”) entre toutes ses parties. Je reviendrai sur cette métaphore, qui permet d’identifier des racines cybernétiques et cognitivistes dans le programme d’O’reilly, soit un programme archaïque de vérité*8Les mots en astérisque font l’objet d’une définition synthétique dans le lexique, plus bas. Ils sont parfois rassemblés dans une macro-catégorie : dans “programme de vérité” pour “programme archaïque de vérité”, par exemple.
Pour résumer, les “règles du succès” reposeraient sur l’intelligence collective, les données récoltées, l’étude des publics et un ensemble de technologies émergentes. C’est en grande partie le programme anoncé de Tools of Change for Publishing le 6 décembre 2006, qui est une déclinaison du programme du Web 2.0 dans l’édition numérique :
O’Reilly se présente comme le représentant naturellement désigné (“I’ve been asked”) d’un programme qui s’appuie déjà sur celui du 10 décembre 2016 (“Web 2.0” Compact Definition : Trying Again”). S’il s’y réfère dans un autre programme (Tools of Change), c’est donc qu’il était suffisamment stabilisé. C’est la raison pour laquelle il peut multiplier des marqueurs de consensualité et de convenabilité, comme les énoncés gnomiques (“Technology is fundamentally transforming publishing”) et doxiques (“publishers larges and small are realizing that the ground is moving under their feet”) : ils traduisent un travail de naturalisation passée dont le programme de Tools of Change est l’indice.
Présence et corps du Maître
Comment le Maître, institué par une communauté de discours (“I’ve been asked” dit-il), apparaît-il matériellement sur l’ensemble de ses sites ? Biographies et photographies d’O’Reilly ont une fonction sémiotique et pragmatique, comme l’a montré Louis Marin (1981) à propos du portrait de Louis XIV : elles présentifient un Maître dont le corps est absent ; elles créent du territoire ; ce sont des matières textuelles territorialisantes*. Mais cette présentification est re-présentation : elle est présence vivante, réelle, assurée par plusieurs éléments qui dynamisent les signes visuels d’O’Reilly, les rendent vivants, comme s’il était effectivement présent. Ainsi des commentaires en bas de chacun de ses billets, qui créent la fiction d’une conversation, l’énonciation verbale (O’Reilly parle toujours directement en son nom) ou le tableau très réaliste du monde de l’entreprise et de notre société, qui s’apparente à une hypotypose, à une description en temps réel, vigoureuse.
Deuxième caractéristique de la présence du Maître ou du roi : la transformation de sa force en puissance (Marin, 1981). Tim O’Reilly est un Maître de vérité tutélaire : dans un premier temps, son portrait a surtout servi à asseoir l’autorité de la conférence, des intervenants et du public, comme en témoigne un bandeau (ci-dessous) tiré du site de l’édition 2007 dans lequel il apparaît à leurs côtés. Le Maître est ici un espace virtuel : il tire son autorité de son retrait, c’est-à-dire de la force qu’il pourrait déployer et de sa capacité à la faire exercer par ses représentants ou relayeurs de vérité*.
Le devenir décitationnel du Maître de vérité
Consécration de cette présence : sa dissolution. En 2008, le programme de vérité d’O’Reilly se transforme énonciativement. Dans le texte inaugural de Tools of Change, on trouvait la formule suivante en tête du deuxième paragraphe : “Technology is fundamentally transforming publishing.” Or, les à propos des Tools of Change suivants reprennent exactement la formule sans citer son auteur :
L’énoncé est “décitationné” pour reprendre une formule du philosophe analytique Quine (1970, 1993) : les guillemets ont été effacés de manière à le décoréler de son auteur. Cette omission est loin d’être anodine pour notre propos : en effet, aux “guillemets, on attribue l’endoxal, ce dont le sujet se désiste” (Compagnon, 1979, p. 41), ce qu’il choisit de mettre à distance. En décitationnant l’énoncé d’O’Reilly, ce petit texte témoigne à l’inverse d’une adhésion : il traduit l’assimilation du programme d’O’Reilly qui prend maintenant la forme d’un énoncé gnomique (ou “énoncé éternel” selon Quine), ces petites sentences formulées au présent de vérité générale qui circulent sans auteur, sans origine, sans emprunt ; elles instituent le réel (Certeau, 1990). Le programme n’est manifestement plus porté par un Maître de vérité mais par une communauté de discours qui le reconnaît et s’y reconnaît.
La citation est l’arme absolue du faire croire. (Certeau, 1990, p. 274)
Bilan partiel : règles et apprentissage des programmes
La dispersion anonymisée du programme d’O’Reilly est non seulement l’indice d’une assimilation de son programme mais, bien plus, de la porosité des frontières entre les communautés de discours : du web 2.0 à Tools of Change for publishing, nous avons manifestement affaire à la même communauté qui semble plus ou moins défendre le même programme, adapté à l’édition.
Il reste à le vérifier. Dans son programme, O’Reilly énonce en effet un certain nombre de “règles” sur le mode impératif :
Pour autant, il n’est pas sûr que ces règles aient été intégrées ou comprises. En effet, toute règle implique un apprentissage, pour ne pas dire un “dressage” dans la terminologie de Wittgenstein (1954) : maîtriser une règle, c’est savoir l’appliquer à partir d’un apprentissage. Ainsi la directionnalité de la flèche n’est en rien évident ou absolu : nous avons appris à regarder la direction vers laquelle pointe la flèche. Cet apprentissage est complexe et conduit, plus largement, à saisir la texture ou l’épaisseur de la règle : elle témoigne d’une maîtrise sociale, normative, anthropologique.
Lorsque nous suivons une règle (suivre une flèche, suivre le programme de Tim O’Reilly), nous témoignons d’une maîtrise d’activités sociales beaucoup plus importantes que ce que la règle décrit (par exemple, traverser la rue une fois que le bonhomme est vert, c’est implicitement comprendre un ordre et une conception du monde : les modes de circulation alternée dans la ville). Un signe et une règle sont toujours des contextes d’action dont nous démontrons la maîtrise convenable au cours de leur application, qui a fait l’objet d’apprentissages répétés.
Ainsi, nous pouvons faire l’hypothèse que l’acquisition d’un programme de vérité s’accompagne nécessairement d’un apprentissage et probablement d’ ”exercices pratiques”. Vérifions-le maintenant avec le programme de Tools of Change for Publishing (2007–2014).
Tools of Change : programme d’une communauté
Quel est le programme de vérité de Tools of Change for Publishing, l’événement de Tim O’Reilly qui décline le programme du “Web 2.0” dans l’édition numérique ? S’accompagne-t-il d’ ”exercices pratiques” ? Je le répète : je n’ai pas fait d’éthnographie de cet événement ; je ne peux me fonder que sur les textes de présentation, les “matières textuelles” — pour reprendre Krippendorff — d’une communauté de discours.
Mon but est seulement de repérer la formation et la circulation d’énoncés qui se sont matériellement incarnés et pérennisés dans des artefacts (Candide 2.0). Je m’intéresse plus aux moyens qui ont été déployés pour faire du “Web 2.0” une formation discursive, un énoncé convenable et admis, en sachant qu’il reste à faire l’ethnographie sociale de son implantation et de ses résistances éventuelles.
Un programme opportuniste et convenable
On peut néanmoins tenter de dégager quelques leçons en se fondant sur les petits textes de présentation qui précédaient chaque conférence (Tools of Change était une foire internationale). Je propose un balayage rapide des thèmes (du programme de vérité) de l’événement, en revenant plus précisément sur quelques points :
- En 2007, la présence de Tim O’Reilly, qui est intervenu quatre fois (“Publishing in a Web 2.0 World”, par exemple), explique sans doute une stricte application de son programme. On trouve ainsi des conférences sur la question des données, sur le “logiciel social”, les besoins des personnes ou les nouvelles stratégies éditoriales.
- En 2008, les intervenants déploient encore les notions d’“intelligence collective”, de “longue traîne”, de gestion des “données” et de “personnalisation” : ce sont des relais discursifs d’O’Reilly, chargés de fédérer le monde éditorial à ce programme.
- En 2009, les adresses directes aux éditeurs disparaissent au profit d’un pronom collectif (“we”), qui témoigne sans doute d’un processus communautaire stabilisé. Le programme initial d’O’Reilly n’est plus explicité mais mis en application : aux éditeurs sont proposés des outils techniques pour les aider à faire leur transition.
- En 2010, de nouveaux thèmes apparaissent : dans le programme annoncé d’une conférence du co-fondateur de l’entreprise O’Reilly, le lecteur est ainsi assimilé au nœud d’un réseau dont les traces peuvent faire l’objet d’analyses statistiques.
- En 2011, l’analyse statistique et l’ “interactivité” deviennent des thèmes consensuels, impensés, justifiés sans questionnement (par exemple : “customers expect to interact”) ; les auteurs sont appelés à se saisir de la notion d’O’Reilly (“From Gutenberg to Zuckerberg”) ; la matérialité de la page imprimée est questionnée à partir du programme du Maître (passer du PDF à XML, passer de la fixité au mouvant).
- En 2012, ce programme se radicalise par endroits : la page devient la figure métonymique de la culture imprimée, qu’il s’agit désormais de dépasser (“The Death of the Page, the Dawn of Digital”) ; de manière générale, les intervenants appellent à adapter les technologies de navigation de cette culture à la culture numérique.
- En 2013, la formule “2.0” disparaît au profit de “social”. Cette transformation s’accompagne d’une multiplication des conférences destinées aux auteurs (comment augmenter ses ventes, structurer un lectorat) et de plaidoyers pour une reconnaissance de la nouvelle matérialité du livre (“Books as API”, entre autres).
De cette lecture des textes de présentation des Tools of Change on peut tirer quelques enseignements : d’abord, le programme d’O’Reilly est en grande partie respecté (XML, API, intelligence collective) ; ensuite, il bénéficie d’effets d’opportunisme : il s’adapte à ce qui est reconnu, à un moment donné, comme efficace (la notion de “social web” s’impose autour de 2010). Il bénéficie d’effets d’ajustements qui le rendent lisible socialement, pour ne pas dire évident, consensuel, convenable.
Un “jeu de langage”
La convenabilité de ce programme s’accompagne, comme j’en faisais l’hypothèse plus haut, d’exercices pratiques. Je rappelle que pour faire la démonstration de la maîtrise d’une règle (dans le cas d’O’Reilly : faire des logiciels des services, ouvrir les APIs, etc.), nous devons montrer que nous savons l’appliquer. “Maîtriser une règle” et “savoir l’appliquer” signifie : mobiliser convenablement un énoncé prescriptif dans une situation sociale donnée. Par exemple, il ne suffit pas de savoir qu’une flèche indique une direction, c’est-à-dire où aller : il faut savoir et avoir appris qu’on peut aller à un endroit donné (les toilettes d’une gare, par exemple) à certains moments (de telle heure à telle heure), en respectant des convenances (s’isoler, faire comme si les autres n’y étaient pas, etc.). Un signe indique implicitement la totalité de son contexte d’application (Deniau, 2008, 2015). Appliquer la règle énoncée par un signe revient donc à faire la démonstration que nous savons maîtriser un ordre du monde.
Quels sont les “exercices pratiques” de Tools of Change ? Quel est l’ordre du monde que les personnes sont censées maîtriser ? Quel est le contexte d’application des règles énoncées dans le programme de vérité de Tim O’Reilly ? Prenons un exemple au hasard, daté de 2013 : l’atelier “Designing And Creating A Social Book App Using Open-source Technologies” (PDF de 44 pages ici). Les objectifs proposés (envisager le livre socialement, comme une micro-communauté grouillant dans ses pages ; concevoir des gestes “affordants” ; intégrer des outils Open Source pour rendre le livre interopérable) correspondent grosso modo aux règles de Tim O’Reilly (voir le” bilan partiel” plus haut), à savoir : penser à son logiciel comme un service communautaire et participatif, ouvrir ses données et utiliser des outils ouverts sans négliger pour autant la part marchande de ses activités, envisager des relations entre les différents espaces médiatiques.
Qu’est-on censé maîtriser en suivant la règle du “livre social” et en sachant l’appliquer correctement ? Pour le comprendre, nous devons d’abord élucider ce qu’est un “jeu de langage”. Nous l’avons vu : une flèche ne signifie rien en elle-même. Nous avons appris à suivre la règle énoncée par la flèche. Mais cette règle s’inscrit elle-même dans un “jeu de langage”. Chez Wittgenstein, un “jeu de langage” (1954) désigne l’insertion du langage dans les activités qui permettent à la fois d’en éclairer la teneur et de le doter d’une signification naturalisée. Le mot “schtroumpf” est un bon exemple : pour le lecteur, il ne devient progressivement compréhensible qu’en expérimentant et recoupant ses multiples occurrences (“schtroumpf” dans telle situation, “schtroumpf” dans telle autre) qui permettent d’identifier des interactions mais également des normes, des valeurs, des fonctions, des usages. Ainsi, la signification d’un mot est le carrefour de ses occurrences situées. Pour autant, les “jeux de langage” ne sont pas sans règles : ils sont corrélés à une grammaire qui en explicite les conditions d’application et de compréhension, compte tenu de la “forme de vie” dans laquelle s’insèrent ces mêmes “jeux de langage” et ces mêmes “règles d’usage” (Ambroise et Laugier, 2011, p. 17). Ainsi, nous ne pouvons comprendre le mot “schtroumpf” qu’en saisissant les règles régissant son utilisation (dans telle situation, à tel moment) et le cadre social, cognitif, voire biologique de ses usagers (les schtroumpfs).
Dans le cadre de l’atelier cité (“Designing And Creating A Social Book App Using Open-source Technologies”), que signifie donc “livre social” ? Autrement dit : dans quelles activités est prise cette expression ? La page de présentation et le PDF offrent respectivement quelques éléments de compréhension : le “livre social” (“social book”) est présenté comme la possibilité donnée aux lecteurs de participer à la reconstruction dynamique d’un objet appelé “livre”, conçu grâce à des technologies adéquates. Le “livre social” nécessite également de créer des signes “affordants”, qui fassent sens pour des personnes n’ayant pas nécessairement connaissance de ce type d’objet : ils doivent rentrer dans leur projet (lire) alors que leur système de pertinence (normes, habitudes, valeurs), pour citer le phénoménologue Schütz, est différent. Ainsi, le “livre social” doit intégrer d’anciennes configurations qui permettent à un lecteur d’en reconnaître l’utilisabilité.
Résumons en reprenant les notions de règle, d’apprentissage et de jeux de langage : en suivant cet atelier, c’est-à-dire la règle d’O’Reilly (penser tout objet informatique comme un service communautaire et participatif), les personnes apprenaient à matérialiser convenablement ce qui est appelé “livre social”. En effet, toute règle implique un apprentissage convenable : nous nous voyons gratifier ou sanctionner en fonction de notre comportement dans notre tentative pour appliquer une règle. Ici, l’auteur de l’atelier apprend littéralement aux personnes à adapter l’objet nouveau qu’ils fabriquent (“livre social”) à des habitudes anciennes par le truchement des “affordances”. Ainsi, l’objet sera jugé convenable s’il satisfait le système de pertinence des lecteurs et s’il est intégré à une nouvelle matérialité (le livre numérique). Enonçons-le clairement : les affordances servent un objectif politique qui consiste à doter les apprenants de vérité* de moyens pour “dresser” à leur tour les personnes utilisant leur futur dispositif. Non seulement les programmes de vérité créent des jeux de langage et des règles d’usage mais, bien plus, ils contribuent à réaffirmer ou à réifier les “formes de vie” des personnes y recourant. Par conséquent, en appliquant la règle d’O’Reilly, nous sommes censés faire la démonstration que nous savons adapter son programme, décliné ici pour le monde de l’édition, à des situations sociales et des systèmes de pertinence résistants (il reste bien évidemment à le vérifier pour les autres ateliers).
Le rôle des cadres d’écriture
Si le programme des Tools of Change est si respectueux du programme initial d’O’Reilly c’est parce qu’il a fait l’objet de cadrages. En effet, la première version de la page d’accueil de l’édition 2007 de Tools of Change comportait un appel à participation dont les exigences étaient très claires. Les propositions devaient porter sur les nouveaux modèles économiques, marketing, entrepreneuriaux, techniques, juridiques dans l’édition numérique. Un formulaire suivait ce premier cadrage : il demandait aux futurs conférenciers de renseigner un certain nombre de champs (type d’intervention, résumé, etc.).
C’est manifestement un “cadre d’écriture” (Béguin-Verbrugge, 2006) qui contraint les énonciateurs à produire un énoncé en conformité avec la communauté de discours à qui il est adressé. Cet outil transforme donc les paroles en langue : il institutionnalise des actes individuels en les conformant aux matières textuelles de cette communauté par le truchement d’un dispositif technique qui définit implicitement des règles d’appartenance. Sans grande surprise, les conférences proposées répondent au programme de Tim O’Reilly de 2007 à 2013 : le programme renvoie aux conférences parce que les conférences renvoient au programme. C’est bien de cette circularité tautologique que le programme tire sa vérité.
Les relayeurs de vérité
Il bénéficie également d’effets d’autorité et de visibilité : la structuration du site Internet est presque restée inchangée d’un point de vue technique, verbal et iconique. Or, elle donne une place centrale à ce programme, aux conférenciers et aux sponsors. Le menu, par exemple, comporte un onglet “programme” (“program”) à partir duquel le lecteur peut accéder à la liste des conférences, à la biographie des conférenciers et à leur présentation. La communauté choisit ainsi d’incarner le programme d’O’Reilly en donnant corps aux relayeurs de vérité* :
Toutes les biographies présentes sur l’ensemble des éditions ont à peu près la même forme : elles sont écrites à la troisième personne, comme si l’énonciateur avait cherché à effacer les marques de subjectivité pour objectiver l’énoncé. Il comporte essentiellement des indications sur l’apparence (Goffman, 1973), c’est-à-dire le statut social du conférencier (“Founder”, “CEO”). Le passage d’un poste à l’autre, toujours précisé, a une fonction de légitimation : tel conférencier a le droit de parler parce qu’il a démontré qu’il était capable de s’adapter aux transformations du monde, comme l’incarne le programme d’O’Reilly. Les votes du public (quatre étoiles sur 5 pour la conférence citée ci-dessus) viennent ratifier la participation de la conférencière, c’est-à-dire son degré de conformité avec le programme fixé par O’Reilly. Encore une fois, la boucle est bouclée : la conférence répond au programme parce que le programme a imposé un format à la conférence qui elle-même est validée par une instance textuelle du public…
Maîtres archaïques, passeurs et généalogistes de vérité
Enfin, ce programme porte la marque de plusieurs Maîtres de Vérité, dont certains ont même été oubliés. D’autres Maîtres sont représentés mais absents : c’est par exemple le cas de Bob Stein, directeur de l’Institut pour le Futur du Livre, qui a développé avec une équipe la notion de “networked book”, à partir de la théorie hypertextuelle de Ted Nelson, et un logiciel d’annotation des textes, CommentPress. Pour l’édition 2008, l’un de ses collaborateurs (Ben Vershbow) était chargé de relayer son programme dans les Tools of Change (“Books as conversation”). Dans sa perspective, les marges sont comparées à des espaces publics dans lesquels les lecteurs entretiennent un dialogue. Si ce programme a pu investir un lieu tel que Tools of Change, c’est parce qu’il est compatible avec celui d’O’Reilly (qui se réfère en permanence à l’“intelligence collective”) : on parlera à leur sujet de programmes de vérité compatibles* à partir desquels sont articulées de nouvelles communautés de discours.
Kevin Kelly et Henry Jenkins sont des Maîtres occasionnels* : ils apparaissent respectivement dans l’édition 2011 et 2013 des Tools of Change. Ils ont aidé à structurer les industries du web : fondateur de Wired, le premier est connu pour avoir largement contribué à la diffusion en entreprise des thèses de la contre-culture américaine (Turner, 2012) favorable à un renversement sociétal reposant sur l’informatique. Dans sa conférence datée du 16 février 2011, Kelly fait des livres “2.0” des “conversations” : ils seraient en adéquation avec la structure même du web, constitué de liens reliés entre eux.
Henry Jenkins est un universitaire américain : professeur au MIT, il a contribué à la légitimation de la formule “2.0” et a offert un programme durable aux industries du web à travers la notion d’“emporwerment” (Bouquillion et Matthews, 2010). Dans un entretien daté du 13 février 2014, Jenkins défend ses thèses sur le “transmedia” assimilé à une “conversation” (sic) entre supports médiatiques. La culture imprimée est également associée à un modèle vertical, par opposition à la culture horizontale du web collaboratif. C’est précisément le programme d’O’Reilly et notamment des Tools of Change : la page et le support imprimé sont des figures métonymiques d’un ancien monde. On perçoit un axe programmatique de vérité* qui finit par s’organiser autour de cet artefact.
Comment expliquer une telle convergence ? Tous se réfèrent à la “conversation” ou au “dialogue”. Le texte de Tim O’Reilly (“What is Web 2.0”) contient lui-même des références à ces notions résumées dans une métaphore : le “cerveau global” (“global brain”). Dans sa perspective, le web est un “dialogue mental” (“mental chatter”) et une “voix intérieure”. Ces thèses sont d’inspiration cybernétique et cognitiviste : elles doivent à plusieurs Maîtres de vérité archaïques* dont certains se sont suffisamment lus pour construire des axes programmatiques*. À partir de la cybernétique de Wiener et des travaux de Bateson sur la conscience, McLuhan a par exemple construit sa théorie communicationnelle du support : il considérait ainsi que les hommes étaient reliés par un même système nerveux grâce aux télévisions, aux transistors et aux machines informatiques. Or, cette théorie est au cœur du programme de vérité de Bob Stein, l’un des Maîtres absents de Tools of Change, qui s’est souvent référé à McLuhan pour fabriquer ses artefacts. On le trouve également chez O’Reilly.
Des passeurs de vérité* ont travaillé à l’articulation de ces programmes de vérité ; Steward Brand est l’un d’eux. Méconnu, il aurait pourtant eu un rôle fondamental dans le croisement de la contre-culture américaine, de la cybernétique et de l’informatique (Turner, 2012). Liberté d’entreprendre, renversement des pouvoirs et convergence médiatique : le programme d’O’Reilly est une actualisation de cette synthèse qu’on trouve défendue dès les années 90 dans Wired, fondé par un intime de Steward Brand, Kevin Kelly, qui intervint également aux Tools of Change.
Mais Tim O’Reilly a des liens beaucoup plus explicites avec Steward Brand. Le 5 septembre 2012, il participa ainsi à un séminaire organisé par ce dernier, qui se chargea de résumer son intervention (“Birth of the Global Mind”). Steward Brand fait mine de résumer telle quelle la pensée d’O’Reilly, en multipliant les marqueurs du discours rapporté (“he says”, citations), mais il ne choisit que quelques éléments d’une intervention d’une heure et trente minutes : ceux qui lui permettent de créer une filiation naturelle entre la contre-culture américaine et le Web 2.0. Plus qu’un passeur de vérité, Brand est un généalogiste de vérité*, comme en témoigne l’évocation d’une lecture antique d’O’Reilly sur la Grèce du IVème siècle av. J.-C qui aurait influencé sa conception du “cerveau global”.
Bilan partiel : “faire, c’est refaire”
Au terme de ce parcours, on voit combien le programme de vérité de Tim O’Reilly s’appuie sur des programmes antérieurs qui, eux-mêmes, portent la trace de programmes archaïques* ; nous pourrions sans douter remonter ainsi jusqu’à l’antiquité. Ce n’est évidemment ni mon propos ni mon objectif : à la suite de Castoriadis et Ricoeur (2015) ou du philosophe analytique Nelson Goodman (1992[1978), je souhaitais seulement montrer que nous ne faisons que produire des “synthèses nouvelles” : le rassemblement hétéroclite et cohérent d’éléments passés est la condition même de la nouveauté. Ainsi :
Faire, c’est faire. (Goodman)
Pour autant, cette synthèse ne s’appuie pas sur des éléments qu’il suffirait de combiner ou d’associer, comme dans une recette de cuisine, pour en concevoir une nouvelle. Les éléments combinés sont en fait dynamiques : ils font l’objet d’une analyse, d’un diagnostic, qui modifient leur signification, avant d’être associés à d’autres éléments, eux-mêmes soumis à examen et en mouvement.
Ainsi, en construisant son programme, O’Reilly choisit un type d’éléments comme déterminants et en minimise d’autres ; il produit une définition, s’interroge, bénéficie de l’apport de sa communauté de discours : bref, des éléments plus ou moins stabilisés (l’idée du “cerveau global”, par exemple) subissent un processus de transformations continues.
Par conséquent, “nous ne pouvons penser la notion d’interruption que sur le fond de l’idée de continuation” (Ricoeur, 2015, p. 49 ; je souligne) : nous ne pouvons penser le “Web 2.0” que dans la dynamique des éléments mouvants qui en composent le programme. C’est précisément ce mouvement qui est la condition de la durabilité de certains phénomènes sociaux ; ils suivent, pour reprendre la sociologie d’Andrew Abbott, un “processus graduel de métamorphose” (Demazière et Jouvenet, 2016, p. 18).
“Candide 2.0” : la circulation d’un programme
Introduction
Comment cette configuration nouvelle s’est-elle matériellement incarnée dans des artefacts techniques ? Candide 2.0 hérite en partie des programmes institués par Tools of Change. En effet, l’un de ses maîtres d’œuvre est Ben Vershbow, conférencier à Tools of Change, pour qui les livres sont des “conversations”, comme le pensaient déjà O’Reilly et d’autres Maîtres de vérité. Or, Ben Vershbow est le directeur du NYPL Labs, le laboratoire d’expérimentations de la New York Public Library, qui lança en 2010 un nouveau projet éditorial : Candide 2.0.
Candide 2.0 se présente comme un dispositif d’annotation de texte, qui repose techniquement sur l’architecture de Digress.it, un plugin pour WordPress présenté comme une déclinaison de CommentPress, le logiciel développé par l’équipe de Bob Stein (identifié comme un Maître occasionnel* pour qui les livres sont des “conversations”, rappelons-le). Il permet de découper le texte de Voltaire en chapitre que les lecteurs sont appelés à commenter dans les marges. Avant d’analyser le dispositif, je m’attarderai sur le texte de présentation du projet (voir Figure ci-dessous), pour savoir si nous avons affaire à une autre communauté de discours.
Une altération du programme de Tim O’Reilly (1)
Ce petit texte témoigne d’une altération (Jeanneret, 2014) du programme de vérité d’O’Reilly : il ne s’agit en effet plus d’ouvrir le texte au tout venant mais d’en préparer la circulation sociale (“preparing the ground for a fertile public conversation”), en s’appuyant sur un fonctionnement vertical, contraire à l’horizontalité du “Web 2.0”. Ainsi, différents professionnels (universitaires, traducteurs, entre autres) ont été réquisitionnés pour faire ce travail préparatoire.
L’énonciateur fait appel à une métaphore, classique dans l’histoire de la lecture et des textes religieux, pour qualifier cette entreprise (voir Figure ci-dessous) : les lecteurs sont comparés à des jardiniers (“gardeners”) qui cultivent la terre du livre en plantant des graines (“seeds”). L’annotation remplit ici une fonction d’encadrement de l’interprétation : la lecture ne peut s’épanouir que dans la médiation. Nous sommes ici loin de la transparence promise par le “Web 2.0” et bien en présence d’une nouvelle communauté de discours qui définit d’autres normes et règles. Pour autant, le programme d’O’Reilly et des autres Maîtres est bien présent : ainsi dans l’à propos du site on retrouve bien l’idée que les marges sont des espaces publics qui favorisent la communication (“margins themselves as a way to communicate with other readers in this public forum.”). Indice d’un passage d’un programme dans un nouvel espace discursif.
Le programme de vérité de cette communauté s’appuie sur trois éléments (Jeanneret, 2014) pour asseoir son autorité :
- le piège, d’abord, qui consiste à capter la mémoire des formes pour s’approprier les valeurs attachées aux propriétés nobles du support matériel, comme cette illustration de Candide de 1922 (voir Figure ci-dessus).
- Déplacée de son contexte énonciatif initial, cette illustration devient un nouveau signe : c’est un avatar qui ne sert plus seulement à illustrer une sentence de Voltaire (“Lets us cultivate our garden”) mais à inscrire le projet dans une continuité herméneutique.
- De ces transformations naît enfin une chimère, un assemblage de signes ou, dans notre cas, un assemblage contradictoire de plusieurs programmes de vérité, soit une ligne programmatique divergente* qui se distingue de l’axe programmatique* (convergence consensuelle). La ligne programmatique divergente du projet est la suivante : marges comme conversations [Tools of Change]/encadrées par des autorités [Candide 2.0].
Une altération du programme de Tim O’Reilly (2)
Comment ces différents programmes s’articulent-ils dans le dispositif ? Comment est mise en signe la confiance ? Quelles compétences sont valorisées ? Pour répondre à ces questions, je propose de mener maintenant une analyse dite “sémiotechnique” du logiciel d’annotation :
Le premier chapitre de Voltaire est découpé en paragraphes qui forment chacun une unité à commenter dans un “cadre-document” (Souchier, 1999) au centre. À côté de chacun d’eux, un signe (phylactère) indique le nombre de commentaires produits par les personnes. Il sémiotise l’ambition dialogique du dispositif, typique du “web 2.0”. Le cadre-document à droite permet d’accéder aux commentaires, répartis par paragraphe. Il est continuellement présent à l’écran, malgré la longueur du texte. Ainsi, ce dernier ne peut pas être lu sans que le lecteur ne soit incité à activer les commentaires : ils forment une unité visuelle et technique indissociable. L’activation du signe “+” déplie l’ensemble des commentaires de chaque paragraphe (il est également possible de commenter le chapitre sans cibler un paragraphe en particulier) :
Chaque annotateur est identifié par un nom (l’anonymat est possible) et peut préciser sa fonction. Dans ce cas, le directeur de la Fondation Voltaire a par exemple écrit un commentaire sur le premier chapitre. Le logiciel met en forme son énoncé, d’un point de vue graphique et énonciatif : il ajoute en effet automatiquement le verbe “says” dans une stratégie de délégation énonciative. Chaque annotation s’inscrit une nouvelle fois dans un régime dialogique. En activant le lien, j’accède à l’ensemble des commentaires et des commentateurs du texte, à une liste de “jardiniers”, dont certains sont présentés sur une page à part. Décorrélés du texte, les commentaires peuvent être retrouvés en contexte en cliquant sur “go to thread” (en bas) :
Ces allers-retours permanents ne sont pas anodins : ils créent du sens (c’est pourquoi on préfèrera l’appellation “signe passeur” à “lien hypertexte”). C’est comme si l’entièreté du texte était contenu dans une seule annotation, dans la mesure où elle renvoie techniquement à lui et qu’elle donne accès à l’ensemble des commentaires.
Ce dispositif répond au programme énoncé en introduction : pour reprendre la métaphore végétale, l’annotation contient en germe le dispositif entier. Les technologies de navigation le confirment. Chaque fois qu’un commentaire était produit dans un chapitre, l’état chromatique de ce dernier se modifiait :
Les annotateurs avaient donc une fonction directe sur le dispositif. À partir de leurs “actèmes” (Bouchardon, 2011), soit le résultat d’un geste avec une interface, ils en modifiaient l’apparence. Gestuellement et énonciativement, ils ratifiaient le programme de vérité de Candide 2.0. Certes, on trouve bien des traces programmatiques* de Tools of Change, comme des marques énonciatives (“says”) et des simulacres de conversation (phylactère). Mais ce programme a été négocié pour satisfaire les exigences d’une nouvelle communauté de discours, plus universitaire, dont les critères de légitimation passent par une validation entre pairs. Pour le dire autrement : le programme initial d’O’Reilly été ajusté-corrigé*.
Bilan partiel : un “outil de vérité”
Candide 2.0 s’appuie ainsi sur des technologies dites “2.0” mais les articule à des attentes de verticalité : si le dispositif finit par s’ouvrir à un plus large public, c’est après avoir été investi par des professionnels du savoir, parmi lesquels des membres de la Fondation Voltaire. Ces gardiens de vérité* des communautés de discours contrôlent l’interprétation des matières textuelles. Cela dit, ils sont en prise avec un logiciel qui a sa propre logique et qui structure en partie leur programme et leur vérité. La phrase de Voltaire (“Il faut cultiver notre jardin”) se trouve ainsi écartelée entre plusieurs programmes de vérité, dont on peut entendre les bruissements au sein des artefacts techniques.
Bien évidemment, le dispositif ne porte aucune trace explicite de ces débats : il se présente dans l’évidence d’un “outil de vérité” (Robert, 2010), alors que nous avons bien vu qu’il configurait techniquement le statut des personnes, leurs gestes et leur parole. Cette évidence produit un curieux effet. En effet, Voltaire nous invite à nous tourner vers le quotidien, en nous défaisant des spéculations métaphysiques pour trouver la vérité en nous. Or, le dispositif renoue paradoxalement avec cette activité spéculative en encadrant toute prise de parole qui ne viendrait pas d’un gardien de vérité (un universitaire, un traducteur).
Conclusion partielle : l’art rigoureux de faire des mondes
L’entreprise de Tim O’Reilly et, plus globlement, de sa communauté de discours s’apparente à un monde fabriqué, dans le sens donné par le philosophe Nelson Goodman à ce terme (1992 [1978]). Un monde fabriqué est un ensemble de signes, de normes, de valeurs, de personnes, de catégories articulé de manière pertinente et correcte*.
Nous avons en effet bien vu que le Maître et sa communauté s’ajustaient en permanence : ils émergent d’un processus de co-constitution, qui s’appuie sur des configurations antérieures réactualisées. Ainsi, la fabrication n’a absolument rien de péjoratif : elle indique simplement la dimension processuelle de l’émergence des mondes. La pertinence et la correction* d’un monde fabriqué se juge à partir de critères endogènes : nous ne pouvons pas l’évaluer au moyen d’une théorie cohérentiste, pour laquelle une vérité existerait indépendamment des critères dont nous nous doterions pour l’appréhender. Les mondes se jugent à partir des mondes.
Qu’on veuille bien accepter d’innombrables versions concurrentes du monde, vraies ou correctes, ne veut pas dire que tout va bien, que les longs récits valent mieux que les courts, qu’on ne distingue plus les vérités des faussetés, mais seulement que la vérité doit être concçue autrement que comme correspondance avec un monde déjà fait.” (Goodman, 1992[1978], p. 135)
Est-ce dire, pour autant, que n’importe qui peut créer un monde et faire valoir sa vérité ? Tout se vaut-il ? La théorie de Goodman est-elle relativiste, post-moderne et déconstructiviste, comme le prétendent certaines lectures polémiques9C’est d’autant plus étonnant de la part de Jacques Bouveresse, qui est l’un de nos philosophes contemporains les plus intéressants. Dans un livre d’entretiens parus en 1998 (Bouveresse, 1998, p. 46), il reconnaît à la fois son admiration pour Goodman et déclare son hostilité pour sa notion de “monde”, dont il semble faire un parangon des théories phénoménologiques et relativistes. ? Certainement pas : comme nous l’avons déjà vu, les mondes sont auto-contraints et ajustés. Leurs créateurs cherchent à maximiser leur convenabilité et leur correction* en s’appuyant sur des programmes passés et en cherchant à se faire socialement, institutionnellement et ontologiquement admettre. Bref, tout le monde ne peut pas faire de mondes : ils exigent une grande rigueur d’exécution.
Plus précisément, Goodman identifie au moins cinq procédés nécessaires à la fabrication d’un monde :
- Composition et décomposition : les faiseurs de monde recourent à des catégories, des étiquettes, des parties et des sous-classes pour rassembler ou dissocier des entités, de manière à en faire des ensembles plus vastes, grâce à un travail de distinctions, de définitions, de connexions. Ainsi, écrit Goodman, “des événements temporellement distincts peuvent être réunis par un seul nom propre ou identifiés comme constituant un “objet” ou “une personne”” (p. 24).
- Pondération : la singularité ou l’originalité d’un monde tient moins à la présence de certaines entités (par exemple, deux syllabes similaires dans deux langues différentes) qu’à l’intensité qui leur est donnée (la manière d’accentuer chacune de ces syllabes). Au sein d’un monde, des hiérarchies sont organisées pour donner une place à certains éléments et pour en minimiser d’autres.
- Agencement : pour comprendre ce qu’est l’agencement, il suffit de mettre les épisodes d’une série dans le désordre (l’exemple n’est pas de Goodman) ou de changer la place d’un épisode au sein d’une saison. Le mode d’articulation d’une entité donnée (un épisode ici) à d’autres entités (d’autres épisodes) est déterminant dans son appréhension : nous ne prêtons pas les mêmes significations aux entités en fonction de leur agencement.
- Suppression et supplémentation : un monde ne naît jamais ex nihilo. Il est toujours articulé à d’autres mondes ou à d’anciennes configurations de monde. Goodman distingue deux opérations de correction : la suppression (coupe d’un autre monde ou d’une ancienne configuration) et la supplémentation (comblement d’un trou).
- Déformation : les faiseurs de monde se livrent à des déformations qui “peuvent être considérées soit comme des corrections, soit comme des distorsions”. Le premier cas relève de la suppression et de la supplémentation. Le second consiste à déformer une entité (une image, par exemple) pour lui faire prendre de nouvelles formes, comme dans le morphing.
Tim O’Reilly et sa communauté de discours ne procèdent pas autrement : en choisissant le terme “Web 2.0”, il a rassemblé, de son propre aveu, des réalités différentes sous une même classe. Il s’est ensuite livré à un travail de pondération en établissant des hiérarchies entre les entités de sa recomposition : ainsi, l’intelligence collective, les technologies (XML, AJAX) et le marketing y tiennent une place fondamentale. On les retrouve dans d’autres programmes (celui de Caterina Fake, par exemple, la fondatrice de Flickr) mais dans des proportions moindres. O’Reilly s’est également appuyé sur d’anciennes configurations et d’anciens mondes pour bâtir son programme, en mettant de côté tout ce qui aurait pu empêcher son implantation : certes, la contre-culture américaine a sans doute influencé l’élaboration de son monde mais la plupart des thèses de cette dernière serait inapplicable telle quelle. C’est pourquoi son programme se livre à des déformations, comme sait parfaitement le faire le capitalisme du web contemporain (Bouquillion et Matthews, 2010) : dans sa perspective, l’intelligence collective sert avant tout des objectifs marchands.
Encore, une fois, rien ne permet de conclure à des stratégies de falsification ou à une “idéologie” : nous avons affaire à une déformation d’un programme de vérité antérieur, qui peut être nourri par des ambitions sincères, même si elles sont parfaitement contestables. Nous-mêmes pouvons y adhérer un moment (pour poser une question sur Facebook) et être contestataires à un autre (dans un cours, dans une conférence). L’efficacité des programmes de vérité tient précisément à leur capacité à susciter la mauvaise foi.
Conclusion : des communautés de vérité
Au terme de ce (long, trop long) parcours, je ne peux pas encore tout à fait conclure : il nous reste à affronter des questions difficiles, avant de rassembler la matière théorique et empirique dans une proposition ou un concept à mettre au travail (les “communautés de vérité”), afin d’en éprouver l’efficacité sur d’autres corpus ou “terrain”.
Cinq problèmes avant de conclure
Réalistes et nominalistes : l’éternel débat…
Le premier problème, impossible à traiter exhaustivement ici, est celui de la vérité et de ses conditions d’exercice (voir Brague et al., 2004) : plus de 2000 ans de littérature opposent ici les “réalistes” (Benoist, 2017) et les “nominalistes” (Panaccio, 2012) avec des querelles importantes et passionnantes entre scolastiques médiévaux (Libera, 2014) ou contemporains (Armstrong, 2010) autour des “universaux”.
Pour le dire très grossièrement et schématiquement, les premiers estiment que le monde existe indépendamment de notre perception, de nos valeurs, de nos usages ou de nos catégories, tandis que les seconds pensent qu’il n’y a pas de monde en dehors de ces perceptions, de ces valeurs, de ces catégories et de ces usages ; ils n’ont aucune existence transcendante10Pour être plus précis, “les [nominalistes] n’acceptent dans le monde extérieur que des entités singulières, — cet homme, ce cheval, cette plage de rouge — et veulent expliquer par le fonctionnement du langage ou celui de l’esprit les phénomènes de catégorisation, d’abstraction ou de conceptualisation générale ; [les réalistes], au contraire, pensent qu’il y a dans la réalité, indépendamment de nous, des unités autres qu’individuelles, des genres et des espèces par exemple, des propriétés générales ou ds entités abstraites comme des nombres, des ensembles, des natures communes ou des valeurs.” (Panaccio, 2012, p. 10–11.. Le post-modernisme, la déconstruction et les thèses relativistes, dans leurs versions caricaturales ou caricaturées, sont des illustrations célèbres du “nominalisme”. Jacques Bouveresse (1998) résume très bien la première position :
Comme beaucoup de réalistes, j’ai tendance à penser que la réalité, la réalité physique en tout cas ne nous a pas attendus pour exister et que, même si nous n’existions pas, elle aurait encore exactement les propriétés qu’elle a. Je crois aussi que ce sont bien ces propriétés que la science réussit, au moins jusqu’à un certain point, à connaître.
Ces débats, très techniques, sont éminemment politiques : ainsi les journalistes rappellent souvent que les “faits sont têtus” à un personnel politique enclin à parler de “point de vue” ou de “manipulation” ; en dépit des interprétations, il existerait donc un monde stable qu’il suffirait d’interroger pour connaître la vérité (Les Décodeurs du Monde reposent sur cet impensé épistémologique). Le réalisme est nécessaire dans un monde soumis à l’instabilité. C’est pourquoi il est aujourd’hui retravaillé (Benoist, 2017) à tel point que certains parlent d’un “nouveau réalisme” (Ferraris, 2014).
…des gammes intermédiaires
Cette distinction, apparamment rigide, reconnaît cependant des gammes intermédiaires. Ainsi, le “réalisme” n’est pas un ensemble de thèses consensuelles, loin de là : non seulement il est critiqué depuis l’Antiquité mais il admet lui-même des postures nuancées, sinon contradictoires. En 1978, le philosophe analytique Putnam a imaginé une expérience de pensée (“le cerveau dans une cuve”), reprise dans les films eXistenZ ou Matrix, pour illustrer et finalement mettre à mal la version la plus radicale du “réalisme” métaphysique et transcendant, après y avoir pourtant souscrit. En adhérant finalement à un “réalisme interne” puis pragmatiste (Tiercelin, 2013), Putnam illustre merveilleusement le caractère circonstancié de ses positions, qui fluctuent temporellement et sans doute en fonction d’événements personnels et politiques.
De la même manière, Nelson Goodman, auquel j’ai eu recours tout au long de ce billet, n’est pas un affreux relativiste, comme ses caricatures le suggèrent parfois : c’est un “nominaliste” rigoureux, qui n’admet la “construction” ou la “fabrique” des mondes qu’au prix de critères redoutables (composition, pondération, etc.). Ainsi, tout le monde ne peut pas fabriquer “son” monde ou “sa” vérité (essayez, vous y renoncerez rapidement : dire n’importe quoi ne s’improvise pas). Elle nécessite tout un processus complexe d’ajustement et de correction* au cours duquel se co-constituent, dans ma perspective, les Maîtres de vérité, les programmes de vérité et les communautés de discours à partir d’anciens mondes, d’anciennes configurations, ou d’anciens programmes. On est loin d’une fabrique ex nihilo par l’esprit !
…des conceptions différentes de la vérité
Toutes ces positions relèvent grosso modo de trois conceptions classiques de la vérité (Pouivet, 2008) :
- la théorie de la vérité correspondance : une proposition est vraie si elle correspond aux faits, c’est-à-dire aux propriétés du monde (exemple typique : Les Décodeurs du Monde ou l’exemple canonique de la philosophie logique de Tarski : ““La neige est blanche” si et seulement si la neige est blanche”) ;
- la théorie de la vérité cohérence : une proposition est vraie si elle appartient à un système de croyances reliées de manière cohérente les unes aux autres composant une “structure néotique” (par exemple, “Google Analytics” n’est pas vrai en soi : les chiffres et les audiences mesurées ne sont vrais que dans le système — médiatique, journalistique, universitaire, etc. — qui les reconnaît comme tels) ;
- la théorie pragmatiste de la vérité : une proposition est vraie si elle permet à une personne de s’orienter utilement dans le monde, en dépit de sa cohérence ou de sa correspondance (ce n’est qu’en partie le cas des programmes de vérité).
On pourrait sans doute rajouter une quatrième position à partir du livre de Benoist (2017), de thèses bien connues de Wittgenstein (tantôt brandi par les réalistes, tantôt par les nominalistes), des sociologues de l’action dite “située” (Formel et Quéré, 1999) ou l’anthropologie interprétative (Geertz, 2012) :
- la théorie contextuelle ou située de la vérité : la vérité dépend du contexte dans lequel nous sommes insérés et à partir duquel nous pouvons alors statuer. Ainsi, l’énoncé célèbre ““la neige est blanche”” si et seulement si la neige est blanche” ne peut être pensé que de manière contextuelle ; sa blancheur n’a pas d’existence absolue, en dehors des conditions dans lesquelles nous pouvons la constater et de la personne qui fait le constat (le scientifique ne regarde pas la neige de la même manière que le promeneur). Pour autant, cette théorie ne sombre pas dans un relativisme radical des “points de vue” : au sein de chaque classe de points de vue existent des critères et des cadres relativement stables qui permettent de statuer sur un phénomène donné malgré son caractère situé et de limiter “la multiplication des descriptions” (Ogien et Quéré, 2005b)
De l’ensemble de ces distinctions, distinctions et oppositions je retiendrai plusieurs leçons : d’abord, la vérité est liée à un discours, qu’il soit porté sur un état du monde, sur un réseau interne de croyances ou sur les intérêts propres d’un individu. Elle implique toujours une énonciation et un positionnement : dire quelque chose qui coïncide avec les faits (première définition), ne pas se contredire (deuxième définition), être sincère (troisième définition), reconnaître potentiellement la validité d’un point de vue (quatrième définition). Pour autant, cette énonciation est contrainte : elle doit chaque fois satisfaire des critères auquel un individu doit se soumettre, quelle que soit sa conception de la vérité, pour voir son discours légitimé. Autrement dit : la vérité implique des procédures, qui peuvent être endogènes ou exogènes. Ces critères sont ceux dont se dotent une communauté à un moment donné, qu’elle pense être les meilleurs, pour statuer sur un ensemble de phénomènes.
Pourquoi tient-on à la vérité ? Parce qu’on tient à la justice. (…) Pour qu’il y ait un monde humain il faut qu’il y ait une confiance dans les faits, dans les procédures d’établissement mais surtout dans les hommes. (…) Si vous ne comptez que sur l’aspect du réel, comme le font aujourd’hui certains réalistes (…) ça ne suffira pas (…) entre les deux, il y a le discours humain et la confiance (…) (Worms, 2018)
La deuxième leçon à tirer — sans doute la plus importante — est la suivante : le réel, même souverain, ne suffit pas. Certes, il résiste (“les faits sont têtus” disent les journalistes) et malgré des tentatives pour le déformer, pour le conformer à un programme donné, il continue de se présenter dans sa vérité. Alors pourquoi des personnes le suivent, en dépit de sa non conformité aux propriétés du monde ? Parce que tout programme implique la confiance et la légitimité que nous avons en un Maître qui le porte (un individu, une institution, etc.). Autrement dit : nous devons d’abord garantir un certain type de relations entre les hommes avant de prétendre pouvoir fonder un discours sur la vérité. La confiance, la sincérité et la légitimité sont au coeur des programmes de vérité.
…des programmes de vérité
C’est pourquoi l’adhésion en un programme est si fluctuante : comme les philosophes, nous changeons de régime de vérité selon les moments, les lieux, les occasions en fonction du degré de confiance, de sincérité et de légitimité que nous attribuons aux autres et que nous avons envers nous-mêmes. Nous ne devons pas conclure, sur cette base, que tout se vaudrait et que la vérité serait hors de notre portée : ces allers-retours sont l’indice d’une recherche pour établir les critères de sa validité.
Mais pourquoi devrait-on garder la tête sur les épaules ? Pourquoi traîner ce cadavre qu’est votre mémoire, de crainte de contredire ce que vous avez affirmé publiquement en telle ou telle occasion ? Supposez que vous deviez vous contredire ; et alors ? (Emerson, Compter sur soi, Allia, 2018[1847], p. 23)
Changer de position, passer d’une solution à une autre, est l’indice que nous faisons l’expérience du monde : nous vivons. Je souscris à l’argument du philosophe américain Emerson (1847), selon lequel la contradiction n’est pas problématique : nous devons au contraire l’assumer et l’accepter comme un instrument de la confiance. En faisant la cartographie de nos positions dynamiques, nous prendrions davantage conscience que la vérité est une recherche : elle exige de l’effort de notre part. Dans cette perspective, nous devons voir les querelles qu’elle suscite comme l’indice de cet effort.
C’est pourquoi je ne suis pas toujours favorable aux déclinaisons contemporaines de la théorie de la vérité correspondance (voir plus haut) : si des outils comme Les Décodeurs du Monde sont évidemment nécessaires (voire indispensables dans certains cas : nous avons besoin de stabilité institutionnelle et cognitive ; nous avons besoin de croire que le monde existe), ils ont également tendance à réifier notre expérience de la vérité en la pensant de manière transcendante ; ils nous dénient la possibilité d’avoir une expérience de la vérité, même troublante. À l’inverse, penser de manière processuelle, dynamique, identifier des personnes, des mondes, permet de faire la cartographie et l’expérience du trouble généré par la recherche de la vérité (ce que Wittgenstein appellerait “avoir une vue synoptique”). Des outils concurrents peuvent sans doute coexister ; c’est l’hégémonie d’un modèle conceptuel de la vérité qui me pose problème.
“la vérité est un serviteur docile et obéissant”
Nelson Goodman, nous l’avons déjà vu, offre quelques pistes précieuses pour penser la recherche de la vérité à partir d’autres prismes méthodologiques et épistémologiques ; je crois en avoir fait la démonstration. Allons plus loin et posons avec lui l’argument suivant :
Loin d’être un maître solennel et sévère, la vérité est un serviteur docile et obéissant.11Un grand merci à Milad Doueihi qui a porté à ma connaissance cette phrase, lors d’une de nos nombreuses rencontres dans un petit café parisien.
L’intérêt de la notion de “monde” (concurrent) ou de “programme” (concurrent) est de nous permettre de penser la vérité de manière complexe, à partir d’un tressage fin de personnes, signes, institutions, formes qui s’ajustent, se corrigent, s’opposent aussi parfois pour définir les critères de validité de la vérité. En condamnant les thèses d’un programme, en le qualifiant par exemple de “complotiste”, nous perdons l’occasion de montrer comment, à une époque donnée, se sont mis en place des “énoncés éternels” (Quine, 1993) et comment la recherche et le brandissement d’une vérité naturalisée, présentée comme évidente, a pu servir des objectifs politiques, dans la tradition d’une sémiologie critique (Barthes, 1957) cependant revisitée.
Les cadres de l’action collective
Cette question (la concurrence entre des programmes de vérité divergents) a bien été travaillée par les philosophes-sociologues (Céfaï, 2001 ; Céfaï et Terzi, 2012) et les chercheu.r.seuse.s en communication (Badouard et Mabi, 2015), qui offrent des outils souvent pertinents pour en saisir la complexité. La métaphore de l’ ”arène”, qu’on peut cependant contester (voir plus bas), sert généralement de cadrage théorique à la compréhension de l’action collective, notamment dans ses dimensions polémiques : la sociologie des “problèmes publics” nous invite à étudier l’agrégation progressive de personnes en “collectif” (Kauffman et Trom, 2010) à partir de la notion d’ ”enquête” (Karsenti et Quéré, 2005). Chez les philosophes pragmatistes, comme Peirce ou Dewey, elle désigne le processus par lequel un ensemble de personnes établissent progressivement un diagnostic sur une situation problématique qu’ils rencontrent : en rassemblant des “indices de problématicité” (par exemple : “je me sens mal au travail”, “tu te sens mal au travail”, etc.), ils constituent très lentement un simple trouble (“nous nous sentons mal au travail”) en problème public (“les conditions de travail dans cette entreprise ne répondent pas au cadrage juridique”).
La définition de situations problématiques conduit les personnes et collectifs de personnes à s’organiser pour recruter des adhérents, neutraliser des opposants, configurer les perceptions du public, susceptibles de rallier leur cause. Ainsi, des collectifs opposés s’organisent généralement autour de paires catégorielles asymétriques (“eux” d’un côté, “nous” de l’autre) et dans des arènes publiques où ils mobilisent toute une gamme de techniques dramaturgiques, rhétoriques, identitaires, narratives pour faire valoir leur programme de vérité, servir leurs intérêts, s’imposer aux yeux de leurs concurrents. Par exemple, dans une arène que j’ai pu étudier (Jahjah, 2016), des collectifs de lecteurs et d’auteurs se sont opposés pendant des années sur un réseau “social” du livre (Goodreads) : ils ont progressivement mis en place et produit des matières textuelles (sites, statuts Facebook, tweets, blogs, etc.) pour configurer la perception des médias (l’affaire a été relayée par le Huffington Post) afin de valider leurs thèses respectives, après avoir constaté de premiers troubles (“en tant qu’auteur, je ne suis pas à l’aise que des lecteurs donnent leur avis sur mes livres”, “en tant que lecteur”, etc.) qu’ils ont transformés en problème audible au-delà de leurs propres frontières.
On ne comprend cependant rien à ces actions publiques (ou à la formation des programmes de vérité) en les jugeant à l’aune de nos propres critères de vérité : les étudier suppose de se mettre à leur hauteur, en tentant, souvent avec beaucoup de difficultés, de démêler les positions et les arguments. Car nous ne sommes jamais en dehors d’un problème public ou d’un programme de vérité ; nous ne pouvons pas le surplomber : la manière dont nous en prenons conscience est déjà l’indice d’un trouble qui a été transformé pour être porté à la connaissance du public (Jahjah, 2016). Par conséquent, nous ne sommes jamais “face” à des programmes de vérité que nous pourrions étudier : nous sommes toujours pris dans le flux de ces programmes, dont nous ne pouvons situer modestement qu’un aspect ou un moment pour comprendre comment les personnes les vivent et vivent leurs mondes.
L’autre intérêt de la socio-philosophie de l’action collective est de penser l’émergence des phénomènes sociaux de manière raisonnée ou contenue : le recours aux “cadres de l’expérience” de Goffman (1974) sert souvent à tempérer “cet excès de plasticité du monde social en repérant des procédés de cadrage qui limitent les performances des acteurs” (Céfaï et Trom, 2001, p. 16). Nous n’avons rien dit d’autre jusque-là, en recourant à d’autres sources épistémologiques (Goffman était cependant lecteur de Wittgenstein) : si du “déjà là” existe — anciens programmes de vérité, anciennes configurations, etc. — il est toujours rejoué, actualisé, dans et par les interactions des personnes qui retrouvent les cadres à partir desquels elles se mettent d’accord de manière convenable pour être mutuellement audibles.
Cette socio-philosophie invite ainsi à comprendre (Céfaï, 2001) — je reformule à partir de mes préoccupations — comment des personnes adhèrent à des programmes de vérité, redéfinissent et revitalisent leur identité autour d’eux, s’ajustent et s’alignent en recourant à des cadres interprétatifs plus ou moins stabilisés (d’anciens programmes, d’anciennes configurations) lorsqu’elles ne parviennent plus à doter une situation nouvelle d’une signification collective, campent un décor, disposent des équipements, distribuent des rôles, produisent des récits chargés d’ordonner des programmes épars (Abbott, 2001), les font résonner avec d’autres programmes pour élargir leur base, s’entendent au moins un temps, de manière parfois opportuniste, à partir d’une série de troubles qu’elles actualisent en problème à résoudre sur une scène en formulant des diagnostics, en pointant du doigt des victimes et des coupables, en proposant des solutions d’intervention, en jouant sur la tessiture émotionnelle des publics dont elles analysent les réactions pour reconstruire leur éthos, dans et à partir d’une arène langagière, institutionnelle, normative, technique, communicationnelle (Badouart et Mabi, 2015) qui limite leurs propres actions singulières.
De la vérité au doute : dynamiques de l’expérience des programmes
L’expérience d’une arène, de ses cadres et d’un programme de vérité est mouvante : nous pouvons y adhérer un moment et nous en extraire à un autre ; nous-mêmes faisons des diagnostics contradictoires sur la situation que les membres d’une arène ou d’un programme ont cherché à porter sur la place publique. Par exemple, au moment de relayer la querelle citée, un journaliste du Huffington Post, orienté par une communauté de discours et son Maître, a contribué à ériger au rang de victimes cette communauté, alors même qu’elle était très probablement dans une position inverse. Le journaliste s’est excusé, après avoir fait le récit des multiples cadrages de ses jugements.
Pas question de statuer ici sur la vérité de ce programme à partir de standards rationnels, normatifs ou logiques qui seraient extérieurs à cette communauté : l’important est de comprendre qu’un programme, qu’un Maître, qu’une communauté et leurs relais se configurent et configurent le champ perceptif des publics de manière dynamique. S’ils se structurent en établissant des diagnostics (Tim O’Reilly essaie de comprendre ce qui a dysfonctionné chez Netscape), leurs adhérents ne le sont que partiellement et provisoirement : ils sont eux-mêmes en situation d’ ”enquête”.
L’étude des conditions de naturalisation des énoncés, explorée jusque-là, se double ainsi de l’étude des dynamiques de la perception et du jugement (Chauviré, Ogien et Quéré, 2009) qui participe du programme d’une “éthique perceptive”, c’est-à-dire d’une élucidation des moyens par lesquels un outil ou une époque médiatisent notre accès aux phénomènes (Ivan Illich).
L’analyse des querelles ou des programmes de vérité concurrents manque trop souvent cette part mouvante des adhésions et des rejets, plus ou moins radicaux, plus ou moins relatifs : en tant que personnes, nous sommes pourtant capables (voir note 2 et 3) de réviser nos jugements qui fluctuent en fonction de la dynamique des cadres de l’expérience (Goffman, 1991) et à l’intérieur d’une arène sociale.
Matérialité, membres et formes de vie de la culture numérique
La notion d’ ”arène” a légitimement été critiquée par les Sciences de l’Information et de la Communication (Le Marec et Babou, 2015) dans l’étude des “controverses”, des “querelles” ou (dans mon cas) des programmes de vérité :
[la notion d’arène donne] l’illusion qu’il existerait une sorte d’espace médiatique ouvert (…) où les acteurs s’exprimeraient en coprésence selon le modèle parlementaire de manière visible et observable par un public. Les médias ne sont pas seulement des espaces de déploiement de stratégies d’enrôlement ou de mise en visibilité d’arguments, de positions ou d’acteurs. Ce sont aussi des espaces fortement structurés par des enjeux professionnels, économiques, politiques et cognitifs autonomes (…) [ils construisent] une manière d’être public”
En effet, à lire les sociologues de l’action collective, on a parfois l’impression que les matières textuelles produites (affiches, bandeaux, statuts Facebook, etc.) viennent uniquement rendre visible un problème public. Or, elles ont une action propre ; elles ne sont pas que des traces ou des témoins des positionnements des uns et des autres ; elles structurent littéralement l’action publique ; ce sont des matières textuelles territorialisantes*. Dans une querelle que j’ai pu étudier (“L“affaire Goodreads” : une arène littéraire sur Internet”, Jahjah, 2016), le rôle de l’ ”énonciation éditoriale” (Souchier, 2007) est considérable : à travers leurs articles et la présentation de cette querelle (ou de programmes concurrents), la création de liens et de biographies, les médias ont largement contribué à la structurer, à lui donner une portée inédite et à la rendre perceptible selon un régime spécifique du visible.
C’est dire qu’un ensemble d’entités participe à l’élaboration des programmes de vérité, qui peuvent prendre des formes très variées : humains, évidemment, mais aussi inscriptions, textes, médias, tags, liens. Ces matières sont actives, même si nous les avons métaphysiquement figées (Appadurai, 2009) : loin d’être inertes, elles sont littéralement “possédées” par l’action, acquièrent des valeurs, se transforment. Elles participent à la structuration des programmes de vérité, à leur affirmation ; elles ne sont pas que des traces, dans lesquelles on pourrait lire l’activité des membres d’une communauté de discours. Comme l’écrit Tim Ingold :
Pour l’alchimiste (…) le matériau est connu non pas par ce qu’il est mais par ce qu’il fait, en particulier lorsqu’il est mélangé avec d’autres matériaux et utilisé d’une manière particulière ou placé dans une situation particulière. (2017, p. 74–75)
Dans les études numériques, l’un des chercheurs qui a le mieux pris au sérieux cette dimension est Milad Doueihi. Sa définition de la culture numérique est édifiante :
ensemble de technologies conjuguées, ayant produit et continuant de produire des pratiques sociales qui, du moins pour l’instant, menacent ou contestent la viabilité, ou même la légitimité, de certaines normes socioculturelles établies et des cadres juridiques qui leur sont liés. […] la culture numérique est faite de mode de communications et d’échange d’informations qui déplacent, redéfinissent, et remodèlent le savoir dans des formes et formats nouveaux, et de méthodes pour l’acquérir et le transmettre. (2011, p. 37)
En effet, la notion d’ ”agentivité” est implicitement au centre de cette définition : elle permet de doter les “technologies conjugées” d’une forme d’action autonome et singulière ; elle leur reconnaît un pouvoir de transformation, qu’on pourrait définir à la suite des sémioticiens comme un “vacillement du sens” (Colas-Blaise et Beyaert-Geslin, 2009) d’autant plus puissant qu’il est discret et touche toutes les dimensions des savoirs (économie, droit, etc.). C’est pourquoi Milad Doueihi insiste souvent sur le “processus civilisateur” de la culture numérique qui passe littéralement par une “domestication” lente (2013) voire un “dressage” (au sens de Wittgenstein) de l’humain par le truchement de l’apprentissage de ses jeux de langage (code informatique, geste interfacé, règles et normes, etc.) :
le code, dans son déploiement actuel au sein des environnements numériques, réinvente l’habitus.
La conception de ces machines pensantes procède par une transformation radicale du monde : le monde est bel est bien un jeu, mais il est surtout une interface soumise aux exigences des machines
Une culture qui produit un tout nouveau contexte : entre le principe de la vie biologique (survie, reproduction, évolution) et l’intelligence du contexte historique. S’adapter, adapter et faire adapter, tels sont les mots d’ordre du nouveau contexte. Dans cette évolution, c’est le monde qui se transforme lentement mais sûrement en interface généralisée au numérique. (2013)
Les thèses de Milad Doueihi rejoignent un mouvement plus global, présent aujourd’hui dans une partie des sciences humaines et sociales et dans les études numériques (Software Studies, Critical Studies, etc.), qui reconnaît à des “objets techniques” (Simondon) le statut d’être, parce qu’ils participent à la transformation d’une civilisation ; ainsi du code informatique : en tant qu’ ”acte performatif” (Cox et McLean, 2012 ; Marin, 2006), il crée un espace d’une nouvelle nature (Kitchin et Dodge, 2011), à la fois produit et producteur de mondes.
Pour le dire autrement et dans ma perspective : les membres12La terminologie universitaire fluctue pour qualifier les êtres différents avec lesquels nous interagissons. Certains, comme Denis Vidal (2014), parlent de “personnes” au sujet des robots. Sur ces débats dans les études numériques et au-delà, voir Paveau (2017). Après avoir recouru à la notion d’actant (Jahjah, 2017), je me rapproche désormais de la notion de “membre” parce qu’elle est plus proche de mon programme actuel. Pour les ethnométhodologues, un membre est une personne “dotée d’un ensemble de procédures, de méthodes, d’activités, de savoir-faire, qui la rendent capable d’inventer des dispositifs d’adaptation pour donner sens au monde qui l’entoure. […] [le membre] exhibe “naturellement” la compétence sociale qui l’agrège à ce groupe et qui lui permet de se faire reconnaître et accepter.” (Coulon, 2014) Cette définition est très proche de la conception de Milad Doueihi des machines et du code informatiques qui sont pensés comme des êtres capables de s’adapter et d’adapter d’autres membres à leurs prérogatives, par tout un jeu d’ajustement et de naturalisation. Elle est également proche de la notion de “communauté” telle que la pense Nancy (1983), Blanchot (1983) et Bataille : est membre d’une communauté toute personne consciente de sa mortalité et de la nécessité de se mettre en rapport avec les autres. d’une communauté de discours, comme les machines, le code informatique, les textes ou les humains, ajustent-corrigent* leur forme de vie réciproque, dans leurs dimensions culturelles (institution, normes, valeurs, langages, etc.) mais également cognitives et biologiques (survie, reproduction, adaptation) ; ils et elles co-définissent un programme de vérité commun, capable de plus ou moins satisfaire tous les membres, sans qu’ils n’aient individuellement de prises sur sa définition, afin d’étendre la validité endogène de ces mêmes programmes. Comme l’avait bien vu Haraway dans son “Manifeste Cyborg” (1991), la culture numérique est “hybride” : elle associe des membres hétérogènes qui nous invitent à penser l’identité de manière complexe, au-delà du post-dualisme (Paveau, 2017). Est membre d’une communauté toute personne consciente de sa mortalité et de la nécessité pour elle de se mettre en rapport avec les autres (Nancy, 1983 ; Blanchot, 1983).
Je me rallie ainsi à une conception structurale du holisme, même si j’admets l’intérêt d’autres positionnements (comme l’ ”ontologie distribuée” de Ricoeur ou “les intentions collectives” de Searle ; voir Vultur, 2017) : le tout (humains, machines, code, texte, etc.) est “un système de parties qui dépendent les unes des autres en vertu des relations qui les définissent” (Descombes, 1996, p. 121). On est très proche des notions de “coordination” ou d’ ”expression” chez Spinoza, Leibniz et Wittgenstein (Plaud, 2018) ou des théories méréologiques contemporaines (systémisme, énaction) : la modification d’un membre entraîne celle de tous ceux qui lui sont liés, actualisant et déplaçant du même coup le cadre de leur expression. C’est bien ce mouvement discret mais continu de membres qui contribue au re-membre-ment de notre civilisation par un “processus graduel de métamorphose” (Andrew Abbott).
Dans cette perspective, l“environnement” (Doueihi, 2017 ; Ingold, 2013), le “milieu” (Leroi-Gourhan, 1945) ou le “monde” (Goodman, 1992) ne désigne pas un espace figé, déjà là, mais la définition continue d’un rythme, mouvement d’oscillation entre répétition et renouveau où se rencontrent et s’indéterminent sans se dissoudre des membres, des gestes, des formes, des textes, des catégories et des matériaux dans une communauté de vérité pour définir des programmes à partir des éléments d’anciens programmes diagnostiqués (des déjà-à-venir*).
la communauté n’a pas à s’extasier, ni à dissoudre les éléments qui la composent en une unité surélevée qui se supprimerait elle-même, en même temps qu’elle s’annulerait comme communauté. La communauté n’est pas pour autant la simple mise en commun, dans les limites qu’elle se tracerait, d’une volonté partagée d’être à plusieurs. (Blanchot, 1983, p. 19)
C’est pourquoi la conférence internationale Tools of Change for Publishing, déclinaison du “Web 2.0” dans l’édition numérique, préconisait d’adapter les interfaces de lecture nouvelles aux systèmes de pertinence (normes, valeurs, habitudes) des lecteurs potentiels. À sa façon, elle participait à la transformation continue des formes de vie de ces derniers, c’est-à-dire à l’adaptation de leur seuil social, anthropologique, institutionnel, perceptif, biologique, par le truchement de l’apprentissage des règles du programme d’O’Reilly, relayés et actualisés dans une matière textuelle (le logiciel).
Politique de l’accord, du commun et de la fragilité
Le dernier problème que j’aimerais évoquer découle naturellement de tous les autres. Nous l’avons vu : les membres d’un programme de vérité, qui peuvent être très variés (humains, textes, code informatique, etc.), s’auto-contraignent, définissent lentement des “contraintes d’acceptabilité” pour se mettre d’accord dans le langage et dans leur forme de vie. Le remembrement de nos savoirs procède d’un processus graduel de transformations auquel participent tous les membres d’un programme de vérité à tel point qu’il n’est plus possible de déterminer à qui revient telle transformation (ce que j’ai choisi d’appeler, avec ma collègue et amie Clémence Jacquot, l’ ”autorité distribuée”). Les Maîtres de vérité, comme Tim O’Reilly, ne sont que la figure visible de ce processus.
Passer du temps ensemble : l’art de la conversation
La communauté est à la fois ce qui me donne une voix politique, et qui peut aussi bien me la retirer, ou me décevoir, me trahir au point que je ne veuille plus parler pour elle, ou la laisser parler pour moi, en mon nom. (Laugier, 2014, p. 197)
Pour autant (j’ai souvent insisté sur ce point, à la suite de la philosophie américaine ; voir Laugier, 2014, 2008) : rien n’est socialement joué d’avance. Les accords et les programmes de vérité sont extrêmement précaires : à tout moment, ils menacent de rompre, quand bien même ils seraient consensuels et orientés structurellement par d’anciens programmes repris et retravaillés, quand bien même ils donneraient l’impression d’être immuables, naturels et convenables, même si notre participation n’est jamais un acte décisionnel (nous sommes pris par l’action, possédés par elle).
Or, nous avons parfaitement la possibilité, même si parfaitement difficile, de sortir d’un accord en contestant la prétention d’un Maître, d’un membre ou d’un programme à nous représenter.
Que signifie la conversation ? Cela veut dire le plaisir de passer du temps ensemble. (Laugier, 2011)
La rupture d’un accord (d’un programme de vérité) est précisément le moment où nous décrivons qui le constitue : des membres dont certains peuvent être fragiles, prêts à rompre à tout moment (Chrétien, 2017). Une communauté de vérité en accord avec ses membres, respectueuse de leurs formes de vie, se reconnaît à sa capacité à donner à chacun une “voix” (Laugier, 2011), c’est-à-dire — dans mon cas — la possibilité d’exprimer sa fragilité à partir d’une conversation continue13Cette idée est très proche de la philosophie politique de Ricoeur : “[une communauté] ne reste libre qu’à proportion de la discussion infinie qu’elle tolère ou exige sur chaque proposition.” Voir Tenzer, 2006 autour de l’adhésion à son programme de vérité. Les conversations deviennent des querelles ou des controverses lorsqu’elles oublient de donner à chacun le temps, l’attention, l’espace dont il a besoin pour découvrir l’ordinaire de sa voix.
La conversation, lorsqu’elle n’est pas dévoyée par le paradigme participatif et le capitalisme contemporain du web (dit) 2.0 (“exprimez-vous”, “donnez votre avis”), est un modèle puissant de redistribution des positions qui permit, dans certains espaces du XVIIIème siècle mondain, d’inventer un modèle social où la voix des hommes et des femmes étaient pareillement audibles (Craverri, 2005).
Le tisserand et le diplomate
Comment procédèrons-nous pour récupérer nos mots (“conversation”, “interactif”, etc.), dont nous avons été dépossédés par des programmes de vérité ? Comment accueillerons-nous chacun des membres d’une communauté de vérité dans sa spécificité et l’attention qu’il mérite afin de nous assurer que les termes de nos accords ne soient jamais que provisoires ?
Deux figures me semblent fructueuses pour penser ces questions : le tisserand et le diplomate. Dans le Politique, Platon célèbre un modèle gouvernemental qui repose sur l’assemblage d’une communauté d’opinions, de tempéraments, de statuts “pour fabriquer à partir d’eux un tissu lisse”. Si le philosophe découpe, tranche, distingue les parties du discours, à l’instar de la mort, il a également la possibilité, comme le tisserand, de démailler ce qui a été abusivement tissé, de reconstruire un vêtement adéquat qui permette à chacun de se réchauffer. Puisqu’un Maître de vérité, comme Tim O’Reilly, a composé son monde en agençant des phénomènes divers sous une même classe conceptuelle (“Web 2.0”), nous avons le droit d’y opposer notre texte et de revivifier des parties abandonnées sous une autre classe conceptuelle.
Ce travail relève d’une “éthique de l’ordinaire” (Laugier, 2014), c’est-à-dire d’une attention portée à ce que nous disons et aux manières de le dire en examinant nos mots, en se souciant de la manière dont ils sont tissés et dont ils participent au tissage de nos existences. Nous avons la responsabilité de ne pas les laisser tomber au sein de programme de vérité avec lesquels nous ne sommes pas en accord.
Au sein d’une communauté de vérité accordée, nous avons également la responsabilité d’accueillir la possibilité d’une rupture de l’accord : chacun de ses membres (humains, textes, code, etc.) a le droit d’exprimer sa fragilité en menaçant de rompre. Ce sont ces membres — les plus fragiles — qui permettent à un programme de vérité de rester visible, c’est-à-dire de ne pas se soustraire aux débats en invisibilisant progressivement les conditions de sa formation. Dans cette perspective, la figure du diplomate (Morizot, 2017) est fondamentale : si l’être fragile est à deux doigts de se casser en deux, son corollaire, le diplomate, se plie en deux pour faire co-exister des membres qui menacent de rompre. Non qu’il tente d’aplanir leurs désaccords, en trouvant une solution molle : au contraire, il assure que chacun des membres d’une communauté de vérité puisse exprimer sa forme de vie en délimitant les frontières de son expression.
Ethique de l’invu
Mais comment verrons-nous les membres qui participent à un programme de vérité ? Pour le dire autrement : pourquoi ai-je choisi de considérer que les textes (comme les articles produits lors de l’ ”affaire Goodreads”, décrite plus haut) sont, à leur manière, des êtres vivants, des membres d’une communauté de vérité ? Parce qu’ils ont leur logique et leur agentivité propres : par exemple, le texte produit par le journaliste du Huffington post (voir plus haut), qui a démultiplié les effets de la controverse entre auteurs et lecteurs, lui a totalement échappé, comme les “petites phrases” échappent souvent aux hommes politiques. C’est dire qu’au sein d’une société donnée, des phénomènes acquièrent des propriétés singulières, du fait de l’interaction extrêmement complexe entre un ensemble de membres (médias, institutions, journalistes, citoyens, etc.). Pour autant, nous minimisons toujours leur rôle : nous continuons à les penser comme des objets inanimés derrière lesquels se cacherait une marionnette humaine.
La philosophie de l’ordinaire (Wittgenstein, Cavell) procède autrement : elle ne cherche pas l’invisible derrière les phénomènes ; elle considère, au contraire, que tout est là, sous nos yeux, à notre portée, pour peu que nous nous en donnions la peine et les moyens. Elle prête de l’attention à ce qui a été invisibilisé du fait de sa naturalisation sociale : elle examinerait les termes d’un programme de vérité et chercherait, précisément, à en réinterroger les présupposés pour commencer à le démailler. Elle reconnaîtrait à chacun des membres d’un programme une voix qui compte, même si elle n’est pas audible ; d’autant plus précieuse qu’elle ne veut pas être entendue. Bref, elle nous apprend à voir l’invu14Ce mot m’a été proposé par mon psychothérapeute d’inspiration phénoménologiste et gestaltiste, à la suite d’une discussion sur le visible et l’invisible. Ce mot n’existait pas encore : il a émergé de notre interaction ; il est littéralement apparu et nous l’avons accueilli. : ce qui est potentiellement visible ou en train d’être visibilisé mais dont l’apparition reste fragile, risque à tout moment de céder si nous n’y prêtons pas garde.
Pour finir : qu’est-ce qu’une communauté de vérité ?
Je suis désormais en mesure de définir une communauté de vérité : mais je ne serai qu’un temps en accord avec moi-même, sans doute le temps de l’énoncer (“et alors ?” dirait Emerson).
***
Une communauté de vérité est une forme de regroupement ontologiquement varié (humains, textes, matières, code, machine, etc.) qui se dote d’un programme de vérité processuel, en redéfinition permanente, auxquels ses membres adhèrent un temps par conviction, mauvaise foi ou opportunisme, parce qu’ils ont plus ou moins confiance en la parole d’un Maître de vérité investi d’autorité et visible socialement.
Maître et communauté définissent conjointement et lentement un programme, qui mêle normes, valeurs, confiances, postures, en s’auto-contraignant et en établissant des diagnostics sur une situation problématique, débattue puis naturalisée, à mesure qu’elle acquiert un statut convenable.
Maître et membres s’indéterminent dans une communauté de vérité pour définir des programmes.
***
Les communautés de vérité sont l’indice d’une recherche d’un monde ajusté et rythmé, en accord avec les formes de vie de ses membres.
Elles contribuent modestement au re-membre-ment discret de leurs savoirs, de leurs institutions, de leurs catégories par un processus graduel de transformations.
***
Les programmes de vérité sont toujours élaborés à partir d’anciens programmes ou d’anciennes configurations ; ils ne naissent pas ex nihilo mais aboutissent cependant à de nouveaux mondes après un examen critique et rigoureux.
Plus précisément, ils font l’objet de compositions-décompositions (choix de classes et de sous-classes conceptuelles pour nommer et rassembler des éléments épars) de pondérations (intensité donné à un élément particulier), d’agencements (inscription des éléments dans un ordre), de corrections (suppression d’anciens éléments, comblements des blancs), de déformations (certains éléments prennent un sens qu’ils n’avaient originellement pas).
Tout le monde ne peut donc pas concevoir son programme, son monde ou sa vérité.
Exemple : en choisissant le terme “Web 2.0”, Tim O’Reilly a rassemblé, de son propre aveu, des réalités différentes sous une même classe (composition). Il s’est ensuite livré à un travail de pondération en établissant des hiérarchies entre les entités de sa recomposition : ainsi, l’intelligence collective, les technologies (XML, AJAX) et le marketing y tiennent une place fondamentale. On les retrouve dans d’autres programmes (celui de Caterina Fake, par exemple, la fondatrice de Flickr) mais dans des proportions moindres. O’Reilly s’est également appuyé sur d’anciennes configurations et d’anciens mondes pour bâtir son programme, en mettant de côté tout ce qui aurait pu empêcher son implantation (corrections) : certes, la contre-culture américaine a sans doute influencé l’élaboration de son monde mais la plupart des thèses de cette dernière serait inapplicable telle quelle. C’est pourquoi son programme se livre à des déformations, comme sait parfaitement le faire le capitalisme du web contemporain : dans sa perspective, l’intelligence collective sert avant tout des objectifs marchands.
***
Les programmes de vérité sont défendus par des communautés de vérité, par leurs différents Maîtres (principaux, occasionnels, archaïques), leurs relayeurs, passeurs, généalogistes et gardiens qui peuvent prendre des formes variées selon les membres y prenant part (humains, textes, code informatique, etc.).
***
Les programmes de vérité font l’objet de règles, d’exercices pratiques (comme les “ateliers” ou “workshops”) et d’un “dressage” (recadrements publics, etc.), c’est-à-dire d’un apprentissage orienté vers l’usage correct d’une règle.
Suivre les règles énoncées par un programme de vérité revient, pour un membre, à faire la démonstration qu’il est capable de l’appliquer convenablement en l’adaptant à une situation sociale et à une forme de vie.
Exemple : la conférence internationale Tools of Change for Publishing, déclinaison du “Web 2.0” dans l’édition numérique, préconisait d’adapter les interfaces de lecture nouvelles aux systèmes de pertinence (normes, valeurs, habitudes) des lecteurs potentiels. À sa façon, elle participait à la transformation continue des formes de vie de ces derniers, c’est-à-dire à l’adaptation de leur seuil social, anthropologique, institutionnel, perceptif, biologique, par le truchement de l’apprentissage des règles du programme d’O’Reilly, relayés et actualisés dans une matière textuelle (le logiciel).
***
Les communautés de vérité peuvent être en concurrence, voire en conflit : elles mobilisent alors toute une gamme de répertoires rhétoriques, dramaturgiques, rhétoriques, narratifs, identitaires qui s’incarnent dans des matières textuelles territorialisantes* (logiciels, sites, bandeaux, tweets, liens, captures d’écran, etc.) ayant pour but de rallier des partisans, d’écarter des opposants, de proposer des solutions, de créer des frontières entre les membres de communauté de vérité dont les programmes sont en désaccord. Ces querelles s’inscrivent au sein d’espaces médiatiques dont les propriétés contribuent à la configuration du champ d’expérience des publics.
Elles sont révélatrices d’une tentative pour étendre la validité d’un programme (son jeu de langage) au-delà du seul espace social capable d’en reconnaître la validité.
***
Fabriqués, les programmes peuvent également être défaits, même s’ils se présentent toujours sous l’apparence de l’immuable, de l’éternel, de l’impensé : nous ne sommes pas obligés d’en accepter la validité. Bien au contraire, nous devons prêter attention aux termes qui les composent et fabriquer à notre tour, si nous jugeons un programme insatisfaisant, d’autres tissus, d’autres textes, à la manière du tisserand.
***
Si elles recherchent l’accord de ses membres, les communautés de vérité ne sont pas pour autant accordées. Est accordée une communauté de vérité capable d’engager une conversation continue autour de l’adhésion de son programme.
L’accordement est le contraire de la naturalisation et du processus décitationnel*, qui consiste à soustraire un programme du débat public à partir d’énoncés éternels*.
L’accordement laisse la possibilité aux membres d’une communauté de vérité de changer de positions, de faire la cartographie de leurs revirements, pour les aider à découvrir l’ordinaire de leur voix et à trouver leur propre rythme à partir d’une vue synoptique de leurs expériences, même contradictoires, des mondes.
(ou “donner confiance”)
***
Une communauté accordée inscrit tous ses membres dans un processus de visibilisation ; ils sont invus : en train d’être vus, à la marge du visible et de l’invisible.
Les diplomates facilitent ce travail.
Lexique
Ajustement/correction : un Maître de vérité et sa communauté s’auto-contraignent pour élaborer “[des] normes, croyances, confiances et postures” (Jeanneret, 2014, p. 87) dans la durée, c’est-à-dire des programmes de vérité*. L’ajustement consiste ainsi à trouver un espace d’entente entre parties à partir de l’ordre de l’interaction (Goffman, 1967) ou de la convenabilité (Austin, 1962). Autrement dit : l’autorité des Maîtres est bien relative ; ils s’ajustent à ce qu’une communauté de discours est disposée à accepter. L’ajustement suppose des opérations de correction (Goodman, 1992[1978]) : la suppression et la supplémentation, soit pour couper des éléments d’un programme de vérité, soit pour en combler les vides.
Déjà-à-venir : un programme de vérité ou un monde n’est jamais fabriqué à partir de rien. Pour autant, ce sur quoi il s’appuie (d’anciens programmes, d’anciens mondes) n’est pas repris tel quel : il fait l’objet d’un examen critique qui métamorphose, au moment où ils sont mobilisés dans un nouveau programme, les éléments déjà-à-venir d’un programme antérieur.
Invu : membre d’une communauté de vérité en train d’être rendu visible par tout un processus de reconnaissance. Ce processus est fragile : à tout moment, un membre risque de ne pas apparaître ; à tout moment, un programme de vérité risque de ne pas être accordé.
Maître de vérité : dans la Grèce antique, les Maîtres de vérité sont des figures tutélaires (le roi, le devin, le poète) qui professent une vérité assertorique, jamais questionnée ou remise en question ; elle énonce “ce qui a été, ce qui est, ce qui sera” (Detienne, 2006). C’est que leur discours est auto-ajusté et cadré : il respecte respectivement la Justice, la Mantique, la Muse. Leur parole est donc convenable, elle respecte ce qu’une communauté de vérité est disposée à entendre. Tim O’Reilly est un Maître de vérité qui s’est ajusté à sa propre communauté : son discours (“Web 2.0”) a progressivement été impensé, soustrait au début public, à mesure qu’il se corrigeait. Les Maîtres de vérité d’une communauté donnée peuvent également être archaïques ou occasionnels : ce sont soit des figures tutélaires anciennes (comme Wiener ou McLuhan, par exemple) qui permettent aux programmes de faire la démonstration de leur assise intellectuelle, soit des figures tutélaires contemporaines, sur lesquels s’appuie un Maître de vérité.
- Devenir décitationnel : la “décitation” (Quine, 1993, 2011) est une opération de transformation. Elle consiste à retrancher les guillemets d’un énoncé, une fois qu’il a acquis le statut de proposition vraie. Le “devenir décitationnel” désigne le processus qui consiste à transformer les énoncés guillemetés d’un Maître de vérité en proposition vraie. Dans le cas de Tim O’Reilly, par exemple, un certain nombre de ses formulations ont été reprises sans citer son auteur : elles sont progressivement devenues des énoncés gnomiques (ou “énoncés éternels” chez Quine, 1993, p. 114), ces petites formules et sentences qui circulent au présent de vérité générale avec la force de l’évidence.
- Relayeur/Passeur/Généalogiste/Gardien de vérité : un programme et un Maître de vérité bénéficient d’appuis qui assurent leur ajustement et leur convenabilité. Les relayeurs de vérité font circuler un programme de manière synchronique : ce sont les “petites mains” des Maîtres de vérité ; ils matérialisent leur programme, les incarnent. Les passeurs de vérité élaborent des articulations entre des programmes de vérité divergents ou compatibles pour aboutir à des axes programmatiques (programme consensuel ou convenable). Les généalogistes de vérité font circuler les programmes de manière diachronique : ils trouvent des filiations entre des programmes historiques et les lient à des programmes contemporains. Ainsi, Steward Brand a tissé un lien entre le programme de la contre-culture américaine et le web 2.0. Enfin, les gardiens de vérité contrôlent l’interprétation des programmes de vérité : ils veillent à leur application correcte et convenable auprès des apprenants de vérité.
Matière textuelle territorialisante : les communautés de vérité créent un ensemble de “matière textuelle” (Krippendorff, 2012) pour assurer la matérialisation de leur programme de vérité. Ces matières créent du territoire en définissant des frontières entre les communautés de vérité au sein desquelles elles établissent leur Maître, leur programme bref, leur identité. Cette notion est proche de la “ritournelle” de Deleuze et Guattari (1980) : “tout ensemble de matière d’expression qui trace un territoire et qui s’y développe en motifs territoriaux, en paysages territoriaux” (p. 397) Ces matières construisent des frontières qui sont, pour reprendre la sociologie d’Andrew Abbott, “le lieu premier de la constitution des entités sociales (…) ils sont le produit d’un travail des frontières, c’est-à-dire d’un travail permanent d’ajustements et de différenciations entre des acteurs défendant des territoires d’activité.” (Demazière et Jouvenet, 2016, p. 20)
Programme de vérité : ensemble de postures, de croyances, de normes, de valeurs élaboré dans la durée par une communauté de vérité et un Maître de vérité, auquel ils adhèrent de manière alternée, opportuniste ou sincère, selon le degré de confiance qu’ils s’accordent mutuellement et les espaces sociaux où ils officient. Les programmes de vérité ne naissent pas ex nihilo des sables sociaux : ils sont généralement élaborés à partir d’anciens programmes qui ont fait l’objet de correction* (suppression de certaines parties ou comblement des espaces vides). Ces assemblements ajustés et corrigés constituent un axe programmatique de vérité, défendu dans les espaces médiatiques d’une même communauté de discours. Le passage d’un espace ou d’une forme programmatique à l’autre (de Tools of Change à Candide 2.0) peut conduire à de nouvelles corrections* d’un programme de vérité consensuel (ou axe programmatique) : des lignes programmatiques divergentes émergent parfois et font l’objet d’un ajustement* ou d’une co-existence conflictuelle. Les matières textuelles (logiciels, bandeaux, sites, discours, etc.) créées pour incarner matériellement les programmes de vérité portent la trace programmatique de cette élaboration continue. Enfin, les programmes ne sont vrais qu’à l’intérieur de l’espace social qui en reconnaît la validité. C’est pourquoi ils peuvent faire l’objet de luttes dans le but d’étendre cette validité à d’autres espaces et ainsi limiter leur charge relative. Ce processus mène à la naturalisation progressive des programmes de vérité : ils deviennent impensés, évidents pour tout le monde, notamment grâce aux “outils de vérité” (Robert, 2010), comme les logiciels de saisie, qui présentent un monde figé, matériellement réglé, auquel il est impossible de demander des comptes.
Règles et apprentissages d’un programme de vérité : un programme de vérité fait l’objet d’un certain nombre de règles qu’une communauté est appelée à suivre. Mais il ne suffit pas de formuler des énoncés prescriptifs pour qu’ils soient suivis ou suivis de la bonne manière. Ainsi, les règles de Tim O’Reilly (“don’t treat software as an artifact”, “open your data”, etc) ont trouvé leur matérialisation dans les “exercices pratiques” (ateliers, workshops, etc.) de la conférence internationale Tools of Change (2007–2013), déclinaison dans l’édition numérique du “Web 2.0”. On y apprenait à appliquer convenablement le programme d’O’Reilly, c’est-à-dire à l’adapter à son contexte social, institutionnel, cognitif. Ainsi, “suivre une règle” signifie : mobiliser convenablement un énoncé prescriptif dans une situation sociale donnée par le truchement d’un apprentissage dont le but est de corriger ou de gratifier les apprenants de vérité. Dans le cadre de Tools of Change, par exemple, ces derniers pouvaient apprendre à créer des signes “affordants” pour que les interfaces numériques “parlent” aux lecteurs en articulant leurs systèmes de pertinence (perception, normes, valeurs, etc.) à un nouvel objet (le “livre social”). C’est dire que les programmes de vérité, en instituant des règles et en s’assurant de leur applicabilité, participent de la réaffirmation des “formes de vie” (Wittgenstein) des membres d’une communauté de vérité.
Bibliographie
Ambroise Bruno et Laugier Sandra, Philosophie du langage, t. 2, Sens, usage et contexte, Vrin, 2011.
Appadurai, “Les marchandises et les politiques de la valeur”, introduction à The Social Life of Things, trad. J.-P. Warnier, Sociétés politiques comparées, 2019, 11, p. 4–5.
Armstrong David. M, Les Universaux : une introduction partisane, Les Éditions d’Ithaque, 2010.
Austin J. L., Quand dire c’est faire, Seuil, 1970 [1962].
Badouard Romain et Mabi Clément (dir.), Controverses et communication, Hermès, 75, 2015.
Barthes Roland, Mythologies, Seuil, 1957.
Béguin-Verbrugge Annette, Images en texte, images du texte. Dispositifs graphiques et communication écrite, Presses Universitaires du Septentrion, 2006.
Benoist Jocelyn, L’Adresse du réel, Vrin, 2017.
Berner Christian, Qu’est-ce qu’une conception du monde ?, Vrin, 2006.
Blanchot Maurice, La Communauté inavouable, Les Éditions de Minuit, 1983.
Bouquillion Philippe et Matthews T. Jacob, Le Web collaboratif. Mutations des industries de la culture et de la communication, Grenoble, PUG, 2010.
Bouchardon Serge, “Des figures de manipulation dans la création numérique”, Protée (39), p. 37–46, 2010.
Bouveresse Jacques, Le philosophe et le réel. Entretiens avec Jean-Jacques Rosat, Hachette, 1998.
Brague et al., “Vérité” dans Barbara Cassin (dir.), Vocabulaire européen des philosophes, Seuil/Le Robert, 2004.
Cefaï Daniel, “Les cadres de l’action collective. Définitions et problèmes” dans Daniel Cefaï et Danny Trom, Les Formes de l’action collective. Mobilisations dans des arènes publiques, Paris, Éditions de l’EHESS, 2001, p. 51–98.
Certeau Michel de, L’Invention du quotidien, t. 1, Arts de faire, 1990.
Chauviré Christiane et Ogien Albert (dir), La Régularité. Habitude, disposition et savoir-faire dans l’explication de l’action, Éditions de l’École des Hautes Études en Sciences Sociales. coll. “Raisons pratiques”, 2002.
Chauviré Christiane, Ogien Albert et Quéré Louis (dir.), Dynamiques de l’erreur, Éditions de l’École des Hautes Études en Sciences Sociales. coll. “Raisons pratiques”, 2009.
Chrétien Jean-Louis, La Fragilité, Éditions de Minuit, 2017.
Colas-Blaise Marion, Beyaert-Geslin Anne (dir.) Le Sens de la métamorphose, Pulim, 2009, p. 7–19.
Colomb Cléo, “Faire compter les machines”, Communication, 2017, 34(2).
Compagnon Antoine, La Seconde main ou le travail de la citation, Seuil, 1979.
Coulon Alain, Ethnométhodologie, PUF, coll. “Que sais-je ?”, 2014.
Cox Geoff et McLean Alex, Speaking Code: Coding as Aesthetic and Political Expression, Cambridge, MIT Press, 2012.
Craverri Benedetta, L’Âge de la conversation, Gallimard, 2005.
Deleuze Gilles et Félix Guattari, Mille plateaux, t. 2, Capitalisme et schizophrénies, Éditions de Minuit, 1980, p. 397.
Demazière Didier et Jouvenet Morgan, Abbott Andrew et l’héritage de l’école de Chicago, t. 1 et 2, 2016.
Deniau Guy, Qu’est-ce que comprendre ?, Vrin, 2008.
- Qu’est-ce qu’interpréter ?, Vrin, 2015.
Descombes Vincent, Les Institutions du sens, Les Éditions de Minuit, 1996.
Detienne Marcel, Les Maîtres de Vérité dans la Grèce archaïque, Paris, Le Livre de proche, 2006.
Doueihi Milad, Du matérialisme numérique, Hermann, 2017.
- Qu’est-ce que le numérique ?, PUF, 2013.
- Pour un humanisme numérique, Seuil, 2011.
- La grande conversion numérique, Seuil, 2008.
Emerson Ralph, Compter sur soi, Allia, 2018 [1847].
Ferraris Maurizio, Manifeste du nouveau réalisme, Hermann, 2014.
Formel Michel de et Quéré Louis (dir.), La Logique des situations. Nouveaux regards sur l’écologie des activités sociales, Éditions de l’EHESS. 1999.
Foucault Michel, “La fonction politique de l’intellectuel”, Politique-Hebdo, 20 novembre‑5 décembre 1976.
- L’Archéologie du savoir, Gallimard, 1969.
Garfinkel Harold, Recherches en ethnométhodologie, PUF, 2007 [1967].
Geertz Clifford C., Savoir local, savoir global. Les lieux du savoir, PUF, 2012 [1983].
Goffman Ervin, Les Cadres de l’expérience, Éditions de Minuit, 1991.
- La Mise en scène de la vie quotidienne, t. 1, La présentation de soi, Éditions de Minuit, 1973.
Goodman Nelson, Manières de faire des mondes, Gallimard, 1996.
Haraway Donna, Manifeste cyborg et autre sessais : sciences, fictions, féminismes, Éditions Exils, 2007 (1991).
Ingold Tim, Faire. Anthropologie, Archéologie, Art et Architecture, Zones Sensibles Editions, 2017.
- Marcher avec les dragons, Zones Sensibles Editions, 2013.
Jahjah Marc, “Stop the Goodreads Bullies : une arène littéraire sur Internet”, Revue d’histoire littéraire de la France, 2016, p. 653–676.
- “Des énoncés sans énonciateur ? Du surlignement à citation dans le dispositif Kindle d’Amazon” dans Marc Arabyan (dir.), L’énonciation éditoriale, Semen, n° 41.
- “Digital et Books Studies (2/2) : les formes de la matérialité numérique”, 24 septembre 2015.
Jeanneret Yves, Critique de la trivialité, Paris, Éditions Non Standard, 2014.
Karsenti Bruno et Quéré Louis (dir.), La Croyance et l’enquête : aux sources du pragmatismue, Éditions de l’EHESS, 2005.
Kaufmann Laurence et Trom Danny, “Présentation” dans Qu’est-ce qu’un collectif ? Du commun à la politique, Paris, Éditions de l’EHESS, 2013, p. 9–24, 2010.
Krippendorff Klaus, “Le discours et la matérialité de ses artefacts”, Communication & Langages, 173, p. 17–42, 2012.
Lambert Frédéric, Je sais bien mais quand même. Essai pour une sémiotique des croyances, Éditions non Standard, 2014.
Laugier Sandra
- “La vie humaine du langage” dans Estelle Ferrarese et Sandra Laugier (dir.), Formes de vie, CNRS Editions, 2018. p. 191–224.
- Recommencer la philosophie. Stanley Cavell et la philosophie en Amérique, Vrin, 2014.“L’ordinaire transatlantique”, L’Homme, 187–188, 2008.
- “Le commun comme ordinaire et comme conversation”, Multitudes, 2011, 45.
Lemieux Cyril, La Sociologie pragmatique, La Découverte, 2018
Leroi-Gourhan André, Milieu et techniques, Albin Michel, 1954.
Libera Alain de, La Querelle des universaux. De Platon à la fin du Moyen Âge, Seuil, 2014.
Marec Joëlle Le et Babou Igor, “La dimension communicationnelle des controverses”, Hermès, La Revue, 2015, no 73, p. 111‑121.
Marin Louis, Le Portrait du roi, Paris, Les Éditions de Minuit, 1981.
Marin Marc C., 2006, “Critical Code Studies”, consulté le 31/10/2018.
Morizot Baptiste, Les Diplomates. Cohabiter avec les loups sur une nouvelle carte du vivant, Wildproject, 2016.
Morizot Jacques, “Vérité” dans Bener C. et Thouard D. (dir.), L’Interprétation. Un dictionnaire philosophique, Vrin, 2015.
Jean-Luc Nancy, “La Communauté désoeuvrée”, Aléa, 4, 1983.
Nietzsche Friederich, Vérité et mensonge au sens extra-moral, 1873.
Ogien Albert et Quéré Louis, “Contraintes d’acceptabilité” dans Le Vocabulaire de la sociologie de l’action, Ellipses, 2005a.
- “Pluralité des mondes”, idem, 2005b.
- “Ordre”, idem, 2005c.
Paveau Marie-Anne, L’analyse du discours numérique : dictionnaire des formes et des pratiques, Hermann, 2017.
Pouivet Roger, Philosophie contemporaine, PUF, 2008.
Kitchin Rob et Martin Dodge, Code/space : Software and Everyday Life, Cambridge, Mass, MIT Pres, 2011.
Souchier Emmanuel, “Formes et pouvoirs de l’énonciation éditoriale”, Communication & Langages, 2007, 54, p. 23–38.
- Souchier Emmanuel, “Histoires de page et pages d’histoire” dans Anne Zali (dir.), L’aventure des écritures, t. 3, La page, Paris, Éditions de la BnF, p. 19–55, 1999.
Quéré Louis (dir.), L’Enquête sur les catégories. De Dhurkeim à Sacks, Éditions de l’EHESS, coll. “Raisons pratiques”, 1994.
Quine W. V., “Vérité et décitation” dans W. V. Quine, Les Voies du paradoxe et autres essais, Vrin, 2011, p. 505–524.
- La Poursuite de la vérité, Éditions du Seuil, Paris, 1993[1990].
Rébillard Franck, “Du Web 2.0 au Web : fortunes et infortunes des discours d’accompagnement des réseaux socionumériques”, Hermès, 59, p. 25–31, 2011.
Robert Pascal, L’Impensé numérique, t.1, Des années 1980 aux réseaux sociaux, Editions des archives contemporaines, 2016.
- Mnémotechnologies, pour une théorie générale critique des technologies intellectuelles, Hermès, 2010.
Schütz Alfred, Le Chercheur et le quotidien : phénoménologie des sciences sociales, Klincksieck, 2008.
Tenzer Nicolas, “Idéologie” dans Dictionnaire des sciences humaines, PUF, 2006.
Tiercelin Claudine, “Qu’est-ce que la philosophie analytique ? (3/4) Sommes-nous des cerveaux dans des cuves ?”, France Culture, Les Chemins de la philosophie, 2013.
- Hilary Putnam, L’Héritage pragmatiste, Collège de France, 2013.
Turner Fred, Aux sources de l’utopie numérique, Caen, C&F éditions, 2010.
Veyne Paul, Les Grecs ont-ils cru à leurs mythes ? Essai sur l’imagination constituante, Paris, Seuil, 1983.
Vidal Denis et Gaussier Philippe, “Un robot comme personne. Ontologies comparées et expérimentales au musée du Quai Branly”, Terrain, 2014, 62.
Vultur Ioana, Comprendre. L’herméneutique et les sciences humaines, Gallimard, 2017.
Wittgenstein Ludgwig, Recherches philosophiques, Tel Gallimard, 2014 [1954].
Worms Frédéric, Faut-il renoncer à la vérité ?, débat avec Jean-Claude Ameisen sur France Culture, 12 octobre 2018.
Notes
1. | ↑ | Ce billet est une réécriture et une très large extension d’un article à paraître dans Pascal Robert, L’Impensé numérique, t.2, Editions des Archives, courant 2018. |
2. | ↑ | Chaque terme avec une astérisque est défini dans le lexique. |
3. | ↑ | La notion de personnes vient ici remplacer celle d’ ”acteurs”, d’ ”agents” ou d’ ”usagers” : elle présuppose une capacité d’action chez chacun d’entre nous qui n’est pas nécessairement déterminée par une situation dans laquelle s’engagent les personnes. Corrélée à celle de capacité — voir note d’après -, la notion de personne réintroduit de l’incertitude, de l’imprévu dans l’étude de l’action humaine. Voir Luc Boltanski et Laurent Thévenot, De la justification, Gallimard, 1991. |
4. | ↑ | La capacité est un principe de la sociologie pragmatique qui prête aux personnes des aptitudes à analyser leur propre situation : elles n’appliquent pas bêtement un script ou un programme mais l’actualise en fonction de leurs intérêts, de leurs croyances, de l’intensité de leur adhésion. Voir Cyril Lemieux, La Sociologie pragmatique, La Découverte, 2018 |
5. | ↑ | Les philosophes allemands, comme Kant ou Dilthey, ont particulièrement travaillé la question des “conceptions du monde” à partir de la notion de “weltanschauung”. Très complexe, elle semble impliquer la manière dont des hommes agencent leur mode de vie. Voir Christian Berner, Qu’est-ce qu’une conception du monde ?, Vrin, 2006. On verra cependant que les programmes de vérité diffèrent en partie de cette notion : ils admettent une partie résistante de réel, là où la théorie des conceptions du monde semble, dans certains cas, excessivement mentaliste. |
6. | ↑ | Je reprends à mon compte la thèse de Ricoeur défendu dans un dialogue avec Castoriadis. Voir Cornelius Castoriadis et Paul Ricoeur, Dialogue sur l’histoire et l’imaginaire social, Éditions de l’EHESS, 2016. |
7. | ↑ | “La démarche ethnométhodologique reconnaît et prend toute la mesure d’un fait : la généralité de l’ordre dans le monde social ; et en déduit un principe d’analyse : rien de la vie que nous menons n’échappe jamais ni le moindre instant à une forme d’organisation sociale d’une activité pratique. C’est donc ce fait et ce principe qui fondent la pertinence du constat sur lequel ses analyses se développent : les individus agissent en mobilisant, dans la réflexivité de l’action, ce “savoir de sens commun des structures sociales“ qui ne cesse de les habiter.” Voir Ogien et Quéré, 2005c |
8. | ↑ | Les mots en astérisque font l’objet d’une définition synthétique dans le lexique, plus bas. Ils sont parfois rassemblés dans une macro-catégorie : dans “programme de vérité” pour “programme archaïque de vérité”, par exemple |
9. | ↑ | C’est d’autant plus étonnant de la part de Jacques Bouveresse, qui est l’un de nos philosophes contemporains les plus intéressants. Dans un livre d’entretiens parus en 1998 (Bouveresse, 1998, p. 46), il reconnaît à la fois son admiration pour Goodman et déclare son hostilité pour sa notion de “monde”, dont il semble faire un parangon des théories phénoménologiques et relativistes. |
10. | ↑ | Pour être plus précis, “les [nominalistes] n’acceptent dans le monde extérieur que des entités singulières, — cet homme, ce cheval, cette plage de rouge — et veulent expliquer par le fonctionnement du langage ou celui de l’esprit les phénomènes de catégorisation, d’abstraction ou de conceptualisation générale ; [les réalistes], au contraire, pensent qu’il y a dans la réalité, indépendamment de nous, des unités autres qu’individuelles, des genres et des espèces par exemple, des propriétés générales ou ds entités abstraites comme des nombres, des ensembles, des natures communes ou des valeurs.” (Panaccio, 2012, p. 10–11. |
11. | ↑ | Un grand merci à Milad Doueihi qui a porté à ma connaissance cette phrase, lors d’une de nos nombreuses rencontres dans un petit café parisien. |
12. | ↑ | La terminologie universitaire fluctue pour qualifier les êtres différents avec lesquels nous interagissons. Certains, comme Denis Vidal (2014), parlent de “personnes” au sujet des robots. Sur ces débats dans les études numériques et au-delà, voir Paveau (2017). Après avoir recouru à la notion d’actant (Jahjah, 2017), je me rapproche désormais de la notion de “membre” parce qu’elle est plus proche de mon programme actuel. Pour les ethnométhodologues, un membre est une personne “dotée d’un ensemble de procédures, de méthodes, d’activités, de savoir-faire, qui la rendent capable d’inventer des dispositifs d’adaptation pour donner sens au monde qui l’entoure. […] [le membre] exhibe “naturellement” la compétence sociale qui l’agrège à ce groupe et qui lui permet de se faire reconnaître et accepter.” (Coulon, 2014) Cette définition est très proche de la conception de Milad Doueihi des machines et du code informatiques qui sont pensés comme des êtres capables de s’adapter et d’adapter d’autres membres à leurs prérogatives, par tout un jeu d’ajustement et de naturalisation. Elle est également proche de la notion de “communauté” telle que la pense Nancy (1983), Blanchot (1983) et Bataille : est membre d’une communauté toute personne consciente de sa mortalité et de la nécessité de se mettre en rapport avec les autres. |
13. | ↑ | Cette idée est très proche de la philosophie politique de Ricoeur : “[une communauté] ne reste libre qu’à proportion de la discussion infinie qu’elle tolère ou exige sur chaque proposition.” Voir Tenzer, 2006 |
14. | ↑ | Ce mot m’a été proposé par mon psychothérapeute d’inspiration phénoménologiste et gestaltiste, à la suite d’une discussion sur le visible et l’invisible. Ce mot n’existait pas encore : il a émergé de notre interaction ; il est littéralement apparu et nous l’avons accueilli. |