AI Fictions
Vérités de la fiction
05.06 - 11:15

Bio

Pierre-Carl Langlais est un chercheur en science de l'information et de la communication et en humanités numériques. Sa thèse consacrée à l'analyse de la naissance de la chronique boursière au 19e siècle avec de nouveaux outils de text mining a été distinguée par le prix de recherche 2016 de la SFSIC. Il est actuellement post-doc du projet Numapresse dédié à l'exploration de corpus massifs d'archives de presse ancienne avec des techniques innovantes en humanités numériques. En 2020, il fait paraître son premier livre en collaboration avec Marie-Ève Thérenty et Julien Schuh aux éditions du CNRS : “Fake new & viralité avant Internet : les lapins du Père-Lachaise et autres légendes médiatiques. ».

1
1
1
1
1
1
1
1
1

Communication

1
1
1
1
1
1
1
1
1

Abstract

En 2019, OpenAI dévoile un générateur de texte trop dangereux pour être mis en libre accès. GPT-2 parvient à générer en série des textes crédibles mais sans aucune garantie de fiabilité. Une dépêche annonce ainsi la découverte de licornes anglophones au Pérou avec toutes les apparences de l’objectivité journalistique : citations. Paradoxalement, en créant des textes non fiables et en brouillant les frontières en fiction et vérité, ces nouveaux outils de générations de texte par deep learning dévoilent des vérités sur la fiction : la génération parvient à être convaincante, parce qu’elle s’appuie sur des dispositifs narratifs tacites et des routines d’écritures. Dans un but de démonstration performative, chaque grand temps de cette présentation est introduite par des citations fictives de Foucault, Borges et Barthes générées par GPT-3 qui ne sont pas simplement des illustrations mais posent des éléments de réflexion importants.

L’intervention revient d’abord sur le nouveau paradigme spatial de la création par intelligence artificielle : chaque texte, chaque concept, chaque image, de plus en plus, chaque production culturelle au sens large est transformé en une série de coordonnées (les « vecteurs ») dans un espace sémantique « latent » . La régulation de cet espace soulève d’importants enjeux éthiques, sociaux et politiques : les grandes entreprises du secteurs recourent à des corpus gigantesques dans des conditions troubles. Dans un deuxième temps, nous décrivons une bibliothèque d’œuvres possibles rendu possible par un usage artisanal de GPT-2 : chaque modèle est ré-entraîné sur un corpus délimité et pensé en amont à l’échelle d’un auteur ou d’un genre précis. En détournant les paramètres d’entraînement, il devient aussi possible de créer des modèles hybrides croisant les caractéristiques de différents corpus, tels que « Proust, auteur de science-fiction ». Notre projet le plus abouti porte sur un recueil de 10 000 blagues : si GPT-2 échoue à faire de l’humour, il parvient à désosser et rendre visible le mécanisme de la chute et la structure narrative des histoires drôles. En conclusion, nous décrivons quelques pistes d’utilisation de l’espace latent généré par l’IA pour visualiser l’espace collectif des conceptions culturelles.

1
1
1
1
1
1
1
1
1