Comment bien parler à un modèle d’IA ?

Comment bien parler à un modèle d’IA ?

Maintenant que les modèles d’IA génératives sont massivement utilisés, il peut arriver que les utilisateurs parlent de manière un peu trop informelle avec le chatbot.

Les utilisateurs parlent parfois à l’IA comme si un humain allait répondre. « Peux-tu améliorer cette photo ? » Ou : « Que ferais-tu dans cette situation ? » Parfois cela fonctionne parfaitement, d’autres fois tu reçois une réponse vague ou étrange. Est-ce la faute de l’IA ? Ou parles-tu mal ?

Les cyberattaques augmentent avec le télétravail

Les équipes informatiques constatent une augmentation du nombre d’employés ouvrant des pièces jointes malveillantes, ce qui entraîne une augmentation des reconstructions d’ordinateurs compromis. Le…

Le premier réflexe

L’IA semble aujourd’hui étonnamment humaine. Tu tapes une phrase, attends quelques secondes, et reçois une réponse bien formulée. Cela rend tentant de parler aussi de manière humaine. Beaucoup de personnes posent donc leur question comme elles le feraient oralement : informellement, ouvertement, sans beaucoup de contexte. Nuance importante : l’IA n’est pas un collègue à qui tu poses rapidement une question via Teams. Ce qui te semble évident est flou pour le modèle. Un mauvais prompt fait que le modèle d’IA ne réagira probablement pas comme tu l’espères, et la frustration naît alors rapidement.

Aux débuts de l’IA, quand il n’existait encore que de simples chatbots, les possibilités étaient limitées. Les utilisateurs ne pouvaient souvent chatter qu’avec des mots-clés. Cela ne semblait pas du tout naturel. Les modèles de langage ont donc été entraînés pour traiter le langage de la manière la plus humaine possible. Ils comprennent beaucoup mieux la nuance, le ton et le contexte qu’auparavant. Mais c’est là que réside aussi le risque : justement parce que le modèle réagit ainsi, nous pensons pouvoir le traiter comme un humain.

L’IA pense en modèles

L’IA n’a pas d’opinion ni de sentiment, mais fonctionne sur la base de probabilités. Chaque réponse est un calcul : quel est le mot suivant le plus logique qui suit les mots précédents ? C’est pourquoi il est utile d’être clair, structuré et spécifique dans ton prompt.

Si tu demandes : « Quelle est une bonne idée pour un post ? » tu reçois une réponse moyenne et prudente. Si tu demandes : « Imagine trois posts LinkedIn inspirants de maximum 50 mots, destinés aux jeunes entrepreneurs qui luttent contre la procrastination, sans énumérations ni emoji », tu donnes au modèle tout ce dont il a besoin.

Règles de base pour un bon prompt

Alors que les élèves apprenaient autrefois à l’école comment saisir des termes de recherche pertinents sur Google, ils apprennent aujourd’hui le prompt engineering. Ne pense pas à comment tu dis quelque chose à un collègue, mais à comment tu expliques quelque chose à quelqu’un qui ne connaît pas ton contexte de travail. Donne donc du contexte. Sois spécifique dans ce que tu demandes (court, long, liste, formel ?). Et mentionne l’objectif : veux-tu informer, convaincre, résumer ? Tu peux bien continuer à parler en « langage humain normal », tant que tu utilises structure et détails. Plus le prompt est ciblé, plus la réponse est utilisable. Au lieu de « améliore cette photo », tu écris : « Améliore cette photo en augmentant la luminosité, en supprimant le bruit et en ajustant la netteté. »

L’IA n’est pas un être omniscient. Vois-la plutôt comme un copilote : mieux tu dis ce dont tu as besoin, plus vite et facilement tu atteins la ligne d’arrivée, et donc obtiens une réponse correcte. La différence entre un résultat « correct » et « utilisable » réside rarement dans le modèle, et généralement dans la façon dont tu l’abordes. Et comme pour ta batterie d’ordinateur portable : si tu sais comment le système fonctionne, tu en profites plus longtemps.

lire aussi

L’IA sur vos genoux : qu’est-ce qui rend l’IA locale meilleure que les modèles en ligne ?