Présentation
En quoi le développement des réseaux informatiques et de l’intelligence numérique conditionne nos connaissances ? Trois enjeux se démarquent dans notre approche épistémologique : comment penser le potentiel cognitif et les enjeux pragmatiques de l’intelligence artificielle ? Quelles sont les rationalités graphiques qui structurent et opèrent dans la boîte noire des machines intelligentes ? Comment penser le système d’information qui détermine les horizons de nos savoirs ?
Le terme numérique provient du latin numerus, qui désigne le nombre au sens arithmétique, c’est-à-dire tel qu’il renvoie à la cardinalité d’un ensemble fini d’éléments. Tout ensemble fini d’une même classe d’êtres est donc par définition numérique. Les anglais parlent quant à eux de digital humanities. Digital provient de digit qui veut dire « le doigt ». Dans le premier cas, numerus, on associe le nombre à la cardinalité d’un ensemble abstrait. Dans le second cas, digit, on indexe le nombre au sens très fort du terme, puisqu’on fait correspondre l’unité arithmétique élémentaire à l’index de la main, c’est-à-dire à une entité concrète directement manipulable, puisque constitutive de la main.
Mais il faut bien comprendre que « numérique », dans l’expression « humanités numériques », ne renvoie ni à la cardinalité d’un ensemble abstrait, ni à l’indexicalité d’un élément concret. « Numérique » renvoie à un support de codage discret, opératoire et calculatoire. Les humanités numériques, ce sont donc les lettres et belles-lettres codées par un système de nombre qu’on appelle le binaire. Les humanités numériques, ce sont les lettres et belles-lettres, les sciences humaines dans toute leur diversité et la philosophie qui, une fois codées par le système binaire, sont soumises à des processus calculatoires dont les résultats vont consister, via des programmes enregistrés qui pilotent ces calculs d’une façon automatisée, à régénérer les contenus documentaires de tout type (son, image, texte, image animée) en formes sémiotiques perceptibles et appropriables, à travers des interfaces (écrans) et des terminaux de sortie de signaux acoustiques (haut-parleurs). Dans cette mesure, le numérique constitue un système technique homogène et un support universel de codage de l’information.
Cependant, le numérique ne doit pas être confondu avec l’informatique. Il en dérive, mais ne s’y réduit pas. L’informatique, comme le mot l’indique dans sa contraction, désigne le traitement automatique de l’information comprise au sens technique du terme, c’est-à-dire tel que défini par Shannon au sortir de la Seconde Guerre mondiale. L’information, en ce sens technique, c’est un code. Or un code est d’autant plus informant qu’il contient de bits. C’est pourquoi l’informatique peut être définie comme une physique des signes sans significations (les bits), abstraite (car sans substrat). C’est la science des calculs effectuables sur des codages dont les lois sont les algorithmes, c’est-à-dire celles qui corrèlent un nombre fini d’opérations (à effectuer en un temps fini) à des ressources finies, pour résoudre automatiquement des problèmes qu’on peut entièrement coder numériquement.
Ainsi, l’intelligence artificielle est née du constat que tout problème dont on peut coder numériquement les données et les transformations à opérer sur elles au moyen d’un ensemble de ressources finies, s’il produit un résultat au terme d’un processus calculatoire qui termine, peut être résolu par une machine computationnelle à laquelle on délègue son traitement. C’est à la généralisation de ce principe à n’importe quel type de tâche reproductible par voie programmable que se consacre l’intelligence artificielle depuis maintenant presque soixante ans. Mais depuis moins d’une dizaine d’années, elle repose sur de nouvelles méthodes qui ne consistent plus simplement à programmer à la main des règles prédéfinies (dont l’application récursive permet de déléguer à des machines des tâches reproductibles automatiquement), mais à entraîner les machines computationnelles pour les faire apprendre, c’est-à-dire ajuster elles-mêmes leurs paramètres pour mieux réaliser certaines tâches qu’on souhaite leur confier.
En réinscrivant les humanités numériques, l’informatique et l’intelligence artificielle dans une histoire plus longue de la technique, elles apparaissent comme des chapitres nouveaux de l’histoire de l’écriture, et donc comme des technologies intellectuelles constitutives de nouvelles manières de penser et d’outiller la pensée. On peut faire l’hypothèse que nous sommes au seuil d’une nouvelle transformation de la raison dans ses catégories de pensée dans la mesure où le support technique d’inscription du savoir, tel qu’il se laisse actuellement analyser à travers une classe d’objets graphiques nommés diagrammes, autorise une autre manière de concevoir l’intelligence artificielle. Cette autre manière ne consiste plus à penser l’intelligence artificielle à partir du calcul et de sa représentation algorithmique. Il consiste à partir de ces machines sémiotiques que sont les systèmes graphiques de type diagrammatique, à la fois modèles de résolutions informelles de problèmes et outils qui nous permettent de mieux agir dans le monde.
Ainsi, poser le problème d’une « raison diagrammatique » dans l’histoire de la raison graphique et dans le contexte des humanités numériques, c’est poser le problème de la nouvelle forme d’encyclopédisme qui nous est contemporaine, où l’écrit opère une reterritorialisation de la main et de l’œil sur le clavier et l’écran. L’approche diagrammatique, à la différence de toute approche de type digital humanities, fonde sa démarche sur des unités discrètes manipulables déjà porteuses de sens, qui constituent une matière sémiotique sur laquelle vont enchaîner les diagrammes comme machines sémiotiques. En tant que machines sémiotiques, les diagrammes sont partiellement calculateurs (c’est leur aspect machine) car porteurs d’un sens qui excède leur dimension calculatoire (c’est leur aspect sémiotique). Le rapport du calcul à la sémiose dans le diagramme étant inversement proportionnel : plus on gagne en puissance calculatoire, plus on perd en sémiose ; et plus on gagne en matière sémiotique porteuse de sens, plus on perd en calculabilité.
Ce qu’il faut comprendre, c’est qu’il n’est pas nécessaire d’avoir recours au numérique pour faire de l’analyse diagrammatique, car ce qui importe, c’est la manipulation, dont l’essence est donnée par la notion de calcul. Dès lors, l’enjeu devient celui de comprendre la différence entre la manipulation diagrammatique et la manipulation algorithmique. Alors que le calcul peut manipuler tout ce qui est discrétisable numériquement, il ne peut pas manipuler ce qui est discrétisé sémiotiquement, car seul le diagramme peut le faire, dès lors qu’il est manipulé par cet animal sémiotique qu’est l’homme.