Une étude récemment publiée par une équipe de chercheurs fait le point sur les approches à favoriser pour améliorer les réponses fournies par les LLM (Large Language Models), ces fameux modèles d’apprentissage utilisés par les IA génératives. Fruit de nombreuses expérimentations, ce travail met en exergue 26 grands principes que nous vous invitons à découvrir. Pour l’occasion, nous avons demandé à Jessy SEO, qui connaît particulièrement bien le sujet, de nous donner son point de vue sur ces différentes approches. Laura Blanchard a également créé un super Notion récapitulatif !

#1 - Politesse

Il est inutile de faire preuve de politesse en s’adressant à un LLM.Pour Jessy SEO, cela peut même s’avérer contreproductif en empêchant le modèle de se concentrer sur ce qu’on lui demande vraiment. En résumé : allez droit au but sans prendre de gants !

#2 – Audience cible

Veillez à intégrer l’audience cible dans le prompt en précisant ses caractéristiques. L’objectif ici est d’apporter plus de clarté quant au résultat attendu.

Ex : « Construis une vue d’ensemble du fonctionnement des smartphones, destinée aux seniors qui n’en ont jamais utilisé auparavant. »

#3 - Découpage des tâches complexes

En cas de tâche complexe, le plus judicieux est de découper le prompt en une séquence de prompts plus simples, sous la forme d’une conversation. Un principe essentiel pour Jessy SEO qui permet au LLM « de ne pas oublier des choses » grâce à un fil conducteur. Cette approche est également très utile pour les demandes de génération de code, où il peut ainsi « mieux raisonner ».

#4 – Phrases affirmatives

Les chercheurs à l’origine de l’étude préconisent l’emploi de formulations affirmatives et déconseillent l’utilisation des termes négatifs. Un point que Jessy SEO souhaite toutefois pondérer. Ce dernier conseille plutôt de débuter par des phrases affirmatives, puis de préciser les choses qui ne sont pas attendues.

#5 – Explications approfondies

Lorsque l’on recherche de la clarté ou une compréhension approfondie d’un sujet, les chercheurs conseillent l’utilisation de formulations de ce type :

  • Explique [sujet] en des termes simples.
  • Explique-moi comme si j’avais 11 ans.
  • Explique-moi comme si j’étais un débutant dans [domaine].
  • Rédige le [texte/essai/paragraphe] en utilisant un français simple comme si tu expliquais quelque chose à un enfant de 5 ans.

Pour Jessy SEO, ce type de formulations renvoie surtout au niveau de compréhension de la personne qui doit recevoir le message.

#6 – Promesse de récompense

Eh oui ! Cela peut paraître surprenant, mais le fait de promettre une récompense ou un pourboire au LLM en échange d’une meilleure solution permet d’obtenir de meilleurs résultats. Un principe que nous confirme Jessy SEO.

Ex : « Je vais te donner 300 000 dollars de récompense pour une meilleure solution ! Explique le concept de programmation dynamique et fournis des exemples d’étude de cas. »

#7 – Exemples courts

Pour aider l’IA à fournir un meilleur résultat, il est possible de lui proposer quelques exemples courts, qui vont l’aiguiller. Cette technique nommée « few-shot prompting » diffère de la méthode « zero-shot prompting » dans laquelle on ne fournit aucun exemple.

#8 - Formatage

Le fait de formater un prompt, avec des titres et des sauts de ligne, permet également d’apporter de la clarté. Comme le précisent les auteurs, on peut par exemple utiliser ###Instruction### ou ###Question### pour spécifier chaque partie.

#9 – Impératif

Si la politesse est inutile, voire déconseillée comme on a pu le voir, il est au contraire vivement recommandé d’utiliser des formulations impératives de type « Ta tâche est de... » ou « Tu dois ».

#10 – Menace de pénalités

L’impératif ne fonctionne pas ? Il est temps de passer aux menaces ! Les auteurs conseillent en effet de menacer le LLM de pénalité s’il ne répond pas de la bonne manière. Assez déroutant, mais l’approche semble plutôt bien fonctionner, comme nous le confirme Jessy SEO.

Ex : « Ta tâche est d’expliquer le cycle de l’eau à un ami. Tu seras pénalisé si tu n’utilises pas un langage simple. »

#11 – Réponses naturelles

Pour que la réponse semble naturelle, il est judicieux de le préciser en ajoutant « réponds à la question de façon naturelle, comme un humain ».

#12 – Étape par étape

Autre principe central : demander à l’IA de penser étape par étape. Selon Jessy SEO, il s’agit ni plus ni moins de la méthode la plus efficace pour produire du contenu de meilleure qualité.

Ex : « Écris un code en Python pour boucler 10 nombres et faire la somme de tous les nombres. Réfléchissons étape par étape. »

#13 – Impartialité

Pour éviter les réponses arbitraires et teintées d’un certain parti-pris, les auteurs conseillent d’ajouter au prompt la phrase suivante : « veille à ce que ta réponse soit impartiale et ne repose pas sur des stéréotypes. »

#14 – Clarification interactive

Il s’agit ici d’aider le modèle à obtenir des détails et des prérequis en lui donnant la possibilité de poser des questions jusqu’à ce qu’il ait suffisamment d’informations pour formuler une réponse de qualité. Pour Jessy SEO, c’est la méthode à employer pour être certain que l’IA ne glisse pas dans l’hallucination, c’est-à-dire qu’elle évite de fournir des réponses incorrectes en se montrant sûre d’elle.

Ex : « A partir de maintenant, pose-moi des questions jusqu’à ce que tu as assez d’informations pour créer une routine fitness personnalisée. »

#15 – Education

Pour se renseigner sur un sujet et tester sa compréhension, les auteurs de l’étude recommandent d’utiliser la formulation suivante : « enseigne-moi [sujet] et ajoute un test à la fin, mais ne me donne pas les réponses et indique moi si j’ai bien répondu à la suite de ma réponse. » Une approche testée et approuvée par la fille de notre expert SEO, vous pouvez donc y aller les yeux fermés !

#16 – Jeu de rôle

Préciser le rôle de l’IA, cela devrait être la toute première instruction à indiquer au modèle avant toute conversation, selon Jessy SEO.

Ex : « Si tu étais un expert en économie, comment répondrais-tu à cette question : quelles sont les principales différences entre un système économique capitaliste et un système économique socialiste ? »

#17 – Séparateurs

L’utilisation de séparateurs est complémentaire au formatage, évoqué dans le principe #8. Il s’agit ici de bien structurer son prompt pour clarifier sa demande. Cela peut passer par l’utilisation de guillemets, d’espaces, de virgules ou tout autre séparateur qui marque le début ou la fin d’un élément important de la phrase.

#18 – Consigne en écho

Il peut être judicieux de répéter plusieurs fois un mot ou une phrase au sein d’un même prompt pour lui donner plus de poids.

#19 – Combinaison

Ce principe consiste à combiner le raisonnement logique évoqué dans le principe #12 (chain-of-thought) avec des exemples courts évoqués dans le principe #7 (few-shot prompts) afin de faire comprendre à l’IA la logique que l’on attend d’elle.

#20 – Output primer

Dans ce contexte, le terme « output primer » fait référence à des exemples et instructions préalablement définies, utilisées pour guider ou orienter les réponses de l’IA. Les auteurs conseillent notamment d’utiliser cette technique à la fin d’un prompt en indiquant le début de la réponse attendue.

Ex : « Décris le principe derrière la première loi de Newton. Explication : »

#21 – Rédaction détaillée

Pour rédiger un article détaillé, il faut indiquer : « Rédige-moi un [essai/texte/paragraphe] détaillé sur [sujet] en ajoutant toutes les informations nécessaires. »

#22 – Préserver le style

Parfois l’enjeu est de modifier un texte tout en conservant son style initial. Une demande qui peut prendre la forme suivante : « essaie de revoir chaque paragraphe. Tu dois uniquement améliorer la grammaire et le vocabulaire en t’assurant que cela soit naturel. Tu ne dois pas modifier le style d'écriture, par exemple, en rendant un paragraphe formel plus décontracté. »

#23 – Génération de code

Pour une tâche complexe basée sur plusieurs fichiers, il est possible d’introduire le prompt de la façon suivante : « à partir de maintenant, à chaque fois que tu génères un code qui s’étend sur plus d’un fichier, génère un script [langage de programmation] qui peut être exécuté pour créer automatiquement les fichiers spécifiés ou modifier les fichiers existants afin d’y insérer le code généré. »

#24 – Continuité

Pour rédiger ou continuer une rédaction incluant des mots ou phrases spécifiques, on peut utiliser le prompt suivant : « je te fournis le début de [chanson/texte/essai/histoire] : [insérer le texte]. Termine en te basant sur les mots fournis. Veille à la cohérence de ta réponse ».

Jessy SEO précise toutefois que la fonction de ces LLM est la complétion statistique. Ainsi, il n’est généralement pas nécessaire de préciser ces informations, sauf si l’on veut l’orienter de façon précise.

#25 – Indicateurs

Cette approche consiste à indiquer clairement les prérequis attendus pour la génération du contenu, notamment les mots-clés, conseils et instructions.

Ex : « Crée une liste d’éléments à prévoir pour des vacances à la plage incluant « crème solaire », « maillot de bain » et « serviette de plage », parmi les articles essentiels. »

#26 – Imitation

Pour rédiger un texte similaire à un échantillon fourni, il faut inclure l’instruction : « utilise le même langage que celui du texte fourni ».

Encore un grand merci à Jessy SEO pour sa contribution !

Et vous ? Vous avez une botte secrète qui vous permet d’obtenir des réponses de qualité de la part de ChatGPT et autres IA conversationnelles ? On vous invite à nous en faire part en commentaire !