Le promptisme, une compétence à développer en urgence ?

Octave A la Une, Futur du Travail, Webmagazine Octave

Le promptisme, une compétence à développer en urgence ?


Le promptisme, une compétence à développer en urgence ?

 

Nous étions prévenus que l’Intelligence Artificielle allait déferler dans notre quotidien. Nous y sommes. Les transformeurs génératifs pré-entraînés (en abrégé : GPT) associés à des agents conversationnels à la stupéfiante convivialité (c’est-à-dire la simplicité d’utilisation) ont pris une place majeure dans les pratiques de plus de 300 millions d’utilisateurs pour plus d’1 milliard de requêtes traitées par jour, rien que pour le plus connu d’entre eux (ChatGPT).

Le phénomène est largement commenté sous diverses dimensions : les promesses de développement économique, les impacts écologiques, les problématiques de régulation, les conséquences observées ou supposées sur l’intelligence humaine et l’esprit critique, sur les libertés, sur le marché du travail… Arrêtons-nous sur ce dernier point : si l’IA menace de nombreux emplois, elle fabrique aussi de nouveaux besoins en termes de compétences. Parmi ces compétences, il y a le promptisme, c’est-à-dire l’art d’interroger – et par là-même d’entraîner l’intelligence artificielle.

 

De l’ILC aux GPT

Le prompt n’est pas une nouveauté propulsée par les GPT. C’est ainsi qu’on appelle déjà l’interface de lignes de commande bien connue des informaticiens losqu’ils utilisent une interface en ligne de commande pour passer des instructions à une machine.

Ce qui change avec les GPT, c’est que le prompt se fait en langage ordinaire par des quidams qui n’ont (parfois) pas le début d’une compétence en informatique. Mais il s’agit bien, dans l’absolu, de donner des instructions au modèle d’IA générative dont on attend qu’elle apporte des réponses pertinentes.

Est-ce à dire que l’intelligence artificielle comprendrait parfaitement nos questions quand nous les posons ?

 

Intermède philologique

Si l’IA comprenait parfaitement nos questions quand nous les posons, ce serait un exploit… Surhumain !

Car en effet, linguistes, philologues et philosophes s’accordent à dire que la plupart du temps, nous nous faisons très mal comprendre. Le critique littéraire et philosophe Maurice Blanchot a théorisé dès les années 1950 la « non-coïncidence » entre l’expression d’une intention et la réception du propos, estimant que l’art se situe dans la zone d’incompréhension, une zone ouverte à la coopération fortuite entre les émetteurs et les récepteurs. Pour le penseur de l’art, il est improbable, sinon impossible que l’on se fasse comprendre quand on s’exprime. Au mieux, on confronte des imaginaires, et lors de cette interaction, il se passe quelque chose qui n’a pas grand-chose à voir avec la réponse à une question posée mais qui ouvre tout le champ des possibles de la créativité, du questionnement renouvelé, de l’intelligence.

Oui, mais au quotidien, on ne fait pas toujours dans la philosophie de l’art et on a besoin concrètement d’avoir des réponses à nos questions ! Hélas (?), les experts en communication interpersonnelle rejoignent Blanchot : on ne se fait pas comprendre ! Il y a toute une chaîne de déperdition entre la pensée d’un message et sa compréhension par un autre. Premier maillon défaillant : entre l’idéation et le langage, on estime qu’il y a déjà entre 20% et 30% de perte de sens (on ne trouve pas les mots justes, on n’articule pas les idées dans le bon ordre, on simplifie sa pensée pour la faire « rentrer » dans les catégories du langage). Second maillon : l’autre qui n’écoute qu’à moitié, pas parce qu’il est distrait mais parce qu’il a sa propre subjectivité. Troisième maillon : l’autre ne comprend pas tout, pas parce qu’il est borné, mais parce qu’il a son propre référentiel de pensée, son imaginaire du langage (les mots n’évoquent pas exactement la même chose pour tous les individus), sans parler de ses repères culturels et de son état émotionnel. C’est donc à partir de moins de 20% de compréhension de ce que nous voulions dire qu’il va nous répondre. Et encore, on ne parle là que de la communication verbale…

 

« Ce qui s’énonce bien… », selon l’IA

Avantage de la relation avec le GPT : même si l’IA peut être biaisée, elle n’est pas parasitée par la subjectivité. En revanche, elle a besoin que nous fassions des efforts pour l’aider à nous comprendre. Elle préfère les mots précis, la syntaxe simple et les ordres directs. Évitez les formules de politesse et plus encore les périphrases qui permettent de commander sans en avoir l’air : le GPT vous pardonnera d’être autoritaire voire revêche, mais pas de compter sur l’implicite et d’hésiter.  L’IA générative veut aussi qu’on lui donne du contexte, des cibles, un horizon de contraintes, une tonalité…

Et tout à coup, on prend conscience que ce n’est pas exactement le langage de tous les jours que l’IA mobilise. Elle demande plutôt qu’on maîtrise une façon de lui parler qui traduise la proche parole ordinaire en énonciations normées qui optimisent les chances qu’elle réponde de façon pertinente.

 

En quête de rigoureux vérificateurs et d’agiles prompteurs

La pertinence de la réponse de l’IA générative se mesure à l’aune de son taux d’erreur, exigeant une étape de vérification. La pertinence s’apprécie aussi au regard de la complétude de la réponse, comprenant l’évitement des angles morts et la dérivation hors sujet. Ce n’est pas un boulot si facile, d’être vérificateur car le résultat est souvent si bluffant que l’on serait fortement tenté d’être séduit par sa puissance, au risque de s’aveugler sur les manquements. Bonne nouvelle pour les chercheurs de petite bête, les pointilleux de service, les ultra-vigilants de l’inexactitude, les redresseurs de sortie de cadre : ils ont a minima le tempérament qu’il faut pour devenir des vérificateurs de pointe. Pourvu bien sûr de disposer aussi de l’expertise nécessaire à l’exercice de correction.

Le travail du vérificateur ne serait rien, toutefois, sans celui en amont du prompteur. Celui qui pose les questions avec maestria pourrait bien devenir une star dans l’entreprise qui mobilise massivement les GPT. Le métier de « prompt engineer » a déjà vu le jour, annonçant d’appétissants niveaux de rémunération qui s’expliquent en partie par la rareté des profils disponibles sur ce marché encore très fermé des talents (la spécialisation commence à se déployer dans quelques universités américaines depuis 2024).

Nous ne serons toutefois pas tous des pros à temps plein de la « rédactique » (terme retenu en langue française pour le « promptisme »). En revanche, il est probable que chacun sera attendu sur des compétences clés permettant d’interagir efficacement dans le cadre professionnel avec les IA génératives. A l’intersection de la compréhension du fonctionnement de ces plateformes et des qualités traditionnelles de la communication verbale, ces compétences à développer vont nous emmener sur un terrain philosophique très humain : répondre à la question « qu’est-ce que (se faire) comprendre ? ». Tut tut tut, ne demandez pas trop vite une réponse à ChatGPT : il y a dans cette question-là tout un champ de connaissance de soi et de la relation aux autres qui mérite sans doute d’être humainement exploré…

 

Marie Donzel, pour le webmagazine Octave (avec la précieuse relecture de Stéphane Philip)

Share this Post