LLM, genAI, prompts : 10 termes d’IA expliqués

AI termen uitgelegd

Vous avez certainement déjà travaillé avec l’IA, mais cela ne signifie pas que vous connaissez tous les termes fréquemment utilisés que les utilisateurs expérimentés osent parfois employer.

L’IA apparaît partout : dans les programmes de messagerie, les processeurs, la génération d’images et même dans les notes de réunion. Mais les nouvelles technologies apportent également de nouveaux termes. Large Language Model (LLM), IA générative, prompt, finetuning … cela peut parfois être un peu accablant. Dans cet article, nous expliquons dix termes populaires liés à l’IA, afin que vous soyez désormais parfaitement informé.

1. Large Language Model (LLM)

Un Large Language Model (LLM) est une IA qui comprend et génère du langage. C’est donc un modèle linguistique. Il est entraîné avec d’énormes quantités de texte pour comprendre comment les humains écrivent, parlent et pensent. Les LLM bien connus sont GPT, Claude et LLaMA. Ils sont utilisés pour rédiger des textes, répondre à des questions ou effectuer des traductions.

2. IA générative (genAI)

L’IA générative fait référence à des systèmes qui créent ou génèrent quelque chose de nouveau : texte, images, code … C’est la technologie derrière les outils d’IA qui, par exemple, écrivent automatiquement des e-mails, créent des images basées sur une description ou composent une chanson. C’est créatif, mais pas toujours original. De nombreux modèles s’inspirent d’Internet, ce qui fait que les artistes originaux ne sont pas crédités. Cela a déjà suscité beaucoup de critiques.

3. Prompt

Un prompt est ce que vous demandez à l’IA ou l’instruction que vous lui donnez. Par exemple : « Résumez ce texte en trois phrases » ou « Rédigez une conclusion positive pour mon e-mail à mon nouveau client ». Plus votre prompt est concret, meilleur sera le résultat. De bons prompts sont donc nécessaires pour obtenir des réponses utiles.

4. Prompt engineering

Le prompt engineering consiste à poser de bonnes questions à une IA. Au lieu d’une instruction vague (« Améliorez cette image »), vous apprenez via le prompt engineering à donner des instructions spécifiques (« Augmentez le contraste et ajustez la qualité de l’image pour qu’elle soit adaptée à une impression haute résolution (CMYK) »). La demande de fonctions spécifiques de prompt engineering augmente chez certains employeurs.

5. Finetuning

Le finetuning signifie que vous entraînez davantage un modèle d’IA existant sur vos données spécifiques. Il conserve donc ses capacités originales, mais est ajusté à vos besoins spécifiques. Supposons que vous vouliez qu’un LLM vérifie les dommages sur un fil d’acier, vous fournissez alors du matériel d’entraînement supplémentaire comme des photos. Ainsi, vous obtenez des réponses plus pertinentes et conscientes du contexte.

6. Token

L’IA ne fonctionne pas avec des mots, mais avec des morceaux de texte : les tokens. Un token peut être un mot ou une partie d’un mot. Par exemple, le mot « impossible » peut être composé de deux tokens : « im » et « possible ». Ils sont également utilisés comme coût pour un certain modèle d’IA. Par exemple, ChatGPT-4 coûte 30,00 dollars par million de tokens. De nombreux modèles d’IA ont une limite sur le nombre de tokens par prompt ou réponse.

7. Hallucination

Une « hallucination » en IA signifie que le modèle invente quelque chose qui est faux ou n’existe pas, tout en étant présenté de manière convaincante. Cela s’est considérablement amélioré récemment, mais se produit encore assez fréquemment dans certains modèles. Par exemple, une fausse source, un fait incorrect ou un chiffre inventé. C’est pourquoi il est important de toujours examiner de manière critique les réponses de l’IA.

8. Fenêtre de contexte

Il s’agit de la portée de mémoire d’un modèle de langage : la quantité de texte qu’il peut « mémoriser » simultanément. Avec un prompt court de trois phrases, ce n’est pas un problème, mais si vous menez une conversation complète ou téléchargez un long document, le modèle peut oublier les informations plus anciennes lorsque la fenêtre de contexte se remplit progressivement. C’est pourquoi les nouveaux modèles d’IA ont des fonctions de mémoire, rendant cette fenêtre de contexte pratiquement illimitée.

9. Données d’entraînement

Nous avons déjà mentionné que certains modèles d’IA sont entraînés avec des images et des informations provenant d’Internet. Ces entrées sont appelées données d’entraînement. Les Large Language Models (LLM) utilisent du texte comme données d’entraînement et apprennent à reconnaître des modèles en prédisant chaque fois quel mot suit logiquement. Les modèles qui traitent des images font quelque chose de similaire en prédisant ce qui est visible sur une photo. C’est ainsi qu’ils finissent par apprendre à comprendre le contexte.

10. Inférence

L’inférence est le moment où un modèle d’IA fournit une réponse. Il calcule, sur la base de la requête et de ses connaissances, quels sont les mots suivants les plus logiques. L’inférence est donc la ‘réflexion’ du modèle, juste avant que vous ne voyiez le résultat. Pour certains modèles, vous pouvez même examiner ce processus de raisonnement en détail.

Pourquoi est-ce important ?

Il n’est pas nécessaire d’avoir fait des études pour travailler avec l’IA. Cependant, si vous comprenez les concepts de base, vous saurez mieux ce qui se passe en coulisses. Vous apprendrez à poser de meilleures questions et à aborder les résultats de manière plus critique. En d’autres termes, vous travaillerez avec l’IA de manière plus intelligente, plus rapide et plus consciente.

/