Digital-First a été la tendance des organisations dans le monde et en Amérique latine, où l’on opte d’abord pour une stratégie numérique pour la livraison de produits et de services, en particulier lorsque l’on cherche un plus grand impact de la marque plus immédiatement sur un certain segment de marché ainsi qu’une diffusion plus large de l’offre, de manière plus personnalisée et, surtout, si l’on cherche à se rapprocher du client final. Selon Marketing4Commerce, Digital Report, le nombre d’utilisateurs d’Internet dans le monde atteint 5,160 millions (64,4 % de la population mondiale, en 2023) avec un temps de navigation sur Internet supérieur à 6 heures, et les personnes avec des appareils mobiles atteignent 5,440 millions (68 % de la population mondiale, en 2023).

Cela se reflète également dans un rapport d’Adobe (Tendances numériques de 2023) dans lequel plus de 70 % des organisations, leaders et suiveurs, considèrent que les attentes de leurs clients sont constamment ajustées pour s’aligner sur les expériences omnicanal améliorées, c’est-à-dire que les clients finaux évaluent constamment leurs expériences par rapport à leur dernière meilleure expérience. Certes, les expériences les plus mémorables seront créées par les organisations qui sauront exploiter les données et les combiner avec la connaissance humaine pour anticiper les besoins du client, avec plus d’empathie et de manière plus individualisée.

Dans ce contexte, l’intelligence artificielle (IA) devient un allié pour mettre en œuvre des stratégies d’expérience client personnalisées et innovantes, en tirant parti d’outils de reconnaissance vocale, de compréhension du langage naturel, de données sur les comportements et les préférences des consommateurs. Ces dernières années, les interactions avec les assistants virtuels sont devenues monnaie courante, favorisant le développement de modèles linguistiques pour certaines tâches ou résultats attendus. Ceci est connu sous le nom de Ingénierie des questions, qui est le processus de construction d’alertes ou d’entrées pour guider un certain comportement du système d’IA et obtenir des réponses souhaitées et précises à partir des modèles d’IA. Ainsi, l’IA assume un rôle de collaborateur numérique qui non seulement sert de point de contact avec le consommateur, mais stimule également la connaissance et la productivité pour les collaborateurs de l’organisation.

Qu’est-ce que l’Ingénierie des requêtes ?

Selon Techopedia, l’ingénierie des requêtes (Prompt Engineering) fait référence à une technique utilisée en intelligence artificielle (IA) pour optimiser et ajuster des modèles linguistiques pour des tâches particulières et les résultats souhaités. Il est également connu sous le nom de conception d’alertes ou des requêtes (Prompts), qui construit soigneusement des indications ou des entrées pour les modèles d’IA afin d’améliorer leur performance pour des tâches spécifiques. Les prompts, correctement conçus, sont utilisés pour guider et modifier le comportement souhaité du système d’IA et obtenir des réponses précises et souhaitées des modèles d’IA.

L’ingénierie des requêtes utilise les capacités des modèles linguistiques et optimise leurs résultats grâce à des indications correctement conçues. Cela permet de ne pas dépendre uniquement de la formation préalable ou de l’ajustement, en plus d’aider les utilisateurs à guider les modèles pour atteindre des objectifs spécifiques, en encourageant des réponses précises et en fournissant des instructions directes, des exceptions ou des exemples dans les indications.

Selon une enquête réalisée par la société COPC Inc. Au cours de l’année 2022, « Améliorer l’expérience client » a atteint 87 % comme objectif le plus mentionné en ce qui concerne la mise en œuvre de solutions basées sur l’IA. À cet égard, 83 % des répondants ont déclaré utiliser des solutions basées sur l’IA principalement pour les applications de contact avec leurs clients, et c’est que l’IA a une infinité d’utilisations qui ont un impact direct sur l’expérience client. Selon une étude réalisée par CX optimisation 2023, les utilisations les plus mises en œuvre sont la création de contenu, le profilage du client et la réduction des appels internes.

Pour traiter ces requêtes, nous avons les Large Language Models, LLM, qui sont des modèles linguistiques avancés basés sur des algorithmes de Deep Learning pour traiter et analyser de grandes quantités de données textuelles. LLM fonctionne à partir de réseaux de neurones artificiels (systèmes qui s’inspirent de la fonction du cerveau humain), qui sont formés pour apprendre des modèles et des relations dans un texte et générer des réponses aux questions des utilisateurs. Cela permet à LLM d’être en mesure d’analyser de grands volumes de données textuelles et, à partir de là, d’utiliser ces informations pour comprendre les mots, les phrases et les phrases et leurs contextes, permettant la communication humaine-IA.

Côté technique de l’ingénierie des requêtes

Comme nous l’avons mentionné précédemment, les LLM sont formés à partir de grandes quantités de données textuelles pour apprendre au modèle à reconnaître les relations et les modèles dans un texte. Toutes ces données sont traitées pour ajuster les paramètres du modèle et ainsi améliorer la précision et la compréhension du langage. Des techniques de prétraitement de texte (suppression des mots non pertinents, normalisation des mots pour détecter la variabilité d’un texte), des ajustements d’hyperparamètres et une optimisation sont également utilisés pour obtenir la plus grande précision dans le modèle. Pour mettre en œuvre l’ingénierie des questions, il existe diverses techniques, telles que :

  1. Zero-Shot Prompting: Génère une réponse sans donner aux modèles linguistiques d’exemples ni de contexte préalable. Utilisé pour des réponses rapides à des questions ou à des sujets généraux.
    • Exemple : « Qu’est-ce qu’une requête ? »
    • Réponse : “Une requête c’est…”
  2. One-Shot Prompting: Une réponse est extraite d’un exemple ou d’un contexte fourni par l’utilisateur.
    • Exemple : « Si budget en portugais est orçamento, comment puis-je traduire Fournisseur ? »
    • Réponse : « Fornecedor ».
  3. Récupération d’informations: Une question concrète est posée à l’IA générative pour obtenir des réponses détaillées. La clé de ceci est la source de données à partir de laquelle les LLM sont alimentés. Par exemple, ChatGPT n’a accès qu’aux données après septembre 2021.
    • Exemple : « Quels sont les avantages du LLM ? »
    • Réponse : « 1. Diversification des contenus. 2. Personnalisation…».
  4.  Écriture créative: Grâce à cette technique, il est possible de développer des textes avec imagination, des histoires et des expressions textuelles qui s’adaptent aux préférences du public.
    • Exemple : « Faire un poème à la lune »
    • Réponse : « La lune peut être prise par cuillères à soupe…ou comme une capsule toutes les deux heures. Elle est bonne comme hypnotique et sédatif et soulage également ».
  5. Expansion du contexte: Enrichissement de l’information à l’Intelligence Artificielle pour améliorer la compréhension en utilisant les méthodes de les 5W et 1H, qui se réfère à 5 questions (qui en anglais commencent par W) : Qui, Quoi, Où, Quand, Pourquoi) ; et à 1 H, qui est le Comment (How) sur un sujet.
    • Exemple : « Est-il bon de manger Betabel ? »
    • Réponse : « Qui : la plupart des gens peuvent manger Betabel ; Quoi : « Le Betabel ou Betterave se réfère à un tubercule comestible d’un rouge intense… »
  6. Résumé de contenu avec une approche spécifique: consiste à diriger l’attention de l’IA sur des aspects spécifiques de l’instruction, avec un accent particulier. Il est possible de mettre en évidence les éléments à prioriser dans le modèle, afin que le résumé reflète l’essence de l’approche.
    • Exemple : « guide complet sur les techniques d’optimisation de sites Web, mais je ne veux que les stratégies d’optimisation mobiles. »
    • Réponse : « Les aspects clés sont : Cache mobile – activer cette option permet… ; Liste des agents utilisateurs mobiles – si la fonction de cache mobile est activée…»
  7. Remplir des modèles: Pour créer des contenus polyvalents et structurés. Un modèle avec des espaces réservés est utilisé pour personnaliser les prompts dans différentes instructions, tout en maintenant une cohérence. Les responsables de contenu ou développeurs Web utilisent cette stratégie pour créer des extraits de contenu personnalisés, qui ont été générés par l’IA sur leurs sites Web. Un exemple est l’utilisation d’un modèle standard pour la citation, faisant en sorte que l’IA remplisse les données client, les produits, les prix, etc. Un autre exemple est l’automatisation des courriels personnalisés à partir d’un modèle avec une structure générale – à partir du message d’accueil, du texte principal, des adieux (‘Bonjour {Nom}, Merci d’avoir demandé notre {Service}…{Fermeture} ».
  8. Personnalisation de Prompt ou Prompt Reframing: Permet de modifier la formulation des questions tout en conservant l’intention originale de la requête. Le modèle linguistique peut être conçu pour donner plusieurs réponses qui répondent à la requête originale de différentes manières. Cela peut se faire avec des synonymes ou une reformulation de questions.
    • Exemple : « Prompt original : quels sont les moyens de réduire la latence sur le réseau ? Prompt reformulé : pouvez-vous énumérer des techniques pour optimiser la vitesse sur le réseau ? »
  9. Combinaison de Prompts: Consiste à fusionner différentes prompt ou requêtes dans une même instruction pour obtenir une réponse complète.
    • Exemple : « Pouvez-vous expliquer les différences entre l’hébergement partagé et l’hébergement VPS et recommander lequel est le meilleur pour un petit site de commerce électronique ? »
    • Réponse : « L’hébergement partagé et l’hébergement VPS sont deux types de services d’hébergement…Hébergement partagé : … »
  10. Chaîne de Pensée ou Chain-Of-Thought Prompting: Utilise des interactions IA en temps réel pour guider vers des réponses plus précises et complètes. Il ne repose pas sur une seule question, mais sur une séquence de questions ou d’exemples associés afin d’approfondir la requête originale. Pour cela, il faut diviser une requête ou un sujet complexe en sections plus petites. Ensuite, ces parties sont présentées comme une séquence de consultations qui se déroulent les unes sur les autres, pour conduire l’IA vers une réponse souhaitée.
    • Exemple : « Quel est le thème principal ?… Dans quel but ?… Qui est l’audience ?… »
  11. Prompting itératif: Consiste à faire des consultations de suivi à partir des réponses précédentes pour approfondir un sujet, obtenir des informations supplémentaires ou clarifier une ambiguïté sur le résultat initial. Dans cette technique, des experts en traitement du langage naturel (Natural Language Processing) sont nécessaires pour concevoir des prompts itératifs et élaborer des réponses similaires à celles apportées par un être humain.
    • Exemple : « Quels sont les meilleurs films de 2022 ? »
    • Réponse : « ‘Drive My Car’ de Ryûsuke Hamaguchi ; ‘L’allée des âmes perdues’ de Guillermo del Toro ; ‘The Banshees of Inisherin’ de Martin McDonagh ; ‘Holy Spider’ d’Ali Abbasi… »
  12. Storytelling interactif et jeux de rôle: Tire parti de la capacité de l’IA à adapter les réponses en fonction des prompts et des interactions précédentes, en développant une narration fluide.
    • Exemple : « Prompt : Je veux commencer un exercice de narration collaborative avec vous. Nous allons écrire une histoire de fantaisie sur une terre où la magie existe,… Le personnage sera… »
    • Réponse : « Dans les ombres d’une forêt existait… »
  13. Injection implicite d’informations: La particularité de cette technique est qu’un contexte est subtilement donné pour que l’IA comprenne les besoins sans avoir besoin de l’exprimer explicitement.
    • Exemple : « Pouvez-vous mentionner les meilleures pratiques de modernisation d’un centre de données ? »
    • Réponse : « 1- Élevez la température de fonctionnement de votre centre de données ; 2- Mettez à jour les serveurs et les systèmes pour une meilleure consolidation et efficacité ».
  14. Traduction de langues avec des nuances contextuelles: Génération de contenus multilingues, au-delà de la traduction de mots d’une langue à une autre, en tenant compte du contexte culturel ou de la situation pour une traduction plus précise et naturelle.
    • Exemple : « Traduisez la phrase ‘ She took the ball and ran with it ‘ de l’anglais vers le français, en gardant à l’esprit qu’il s’agit d’une métaphore d’entreprise pour se référer à la prise en charge d’un projet. »
    • Réponse : « ‘ Elle a pris le ballon et a foncé avec ‘, en considérant l’idée de prendre l’initiative d’un projet. »

En plus de ceux-ci, nous pouvons mentionner l’ingénierie automatique des invites, où l’ingénierie automatique des invites (APE) est une avancée dans l’intelligence artificielle qui exploite les LLM pour aider l’IA à générer et à sélectionner automatiquement des instructions par elle-même. Les étapes principales sont :

  1. Attribue une tâche spécifique au chatbot et montre quelques exemples.
  2. Le chatbot a différentes façons de faire le travail, par raisonnement direct ou en tenant compte de tâches similaires qu’il connaît.
  3. Ces différentes méthodes sont ensuite testées dans la pratique.
  4. Le chatbot évalue l’efficacité de chaque méthode.
  5. L’IA choisira alors une meilleure méthode et l’appliquera.

Avec l’apprentissage automatique, les outils d’IA générative peuvent rationaliser les tâches, de l’analyse des données dans un contexte à l’assistance automatisée au client, sans avoir besoin de constantes requêtes générés par l’homme.

Il convient de mentionner que chez l’ingénierie de requêtes , il est important de prendre en compte des aspects techniques de base tels que la Température et ce que nous appelons Échantillonnage Top-K, afin d’améliorer la qualité et la diversité du contenu généré par l’IA, en influençant le processus de sélection des jetons (mots ou sous-mots) du modèle :

  • Température une valeur de température plus élevée (par exemple, 1,0 ou plus) donnera un texte plus diversifié et créatif, tandis qu’une valeur plus faible (par exemple, 0,5 ou moins) produira des résultats plus centrés et déterministes. Pour ce faire, il est recommandé d’encourager la créativité sur la base de valeurs de température plus élevées en générant une écriture créative, des séances de brainstorming ou en explorant des idées innovantes. Il est également recommandé d’améliorer la cohérence, en optant pour des valeurs de température plus basses avec un contenu bien structuré, cohérent et ciblé, comme la documentation technique ou les articles formels.
  • L’échantillonnage Top-k est une autre technique recommandée dans la génération de texte IA pour contrôler le processus de sélection des tokens du modèle, à partir d’un ensemble restreint de k tokens les plus probables. Une valeur k plus petite (par exemple, 20 ou 40) donnera un texte plus ciblé et déterministe, tandis qu’une valeur k plus grande (par exemple, 100 ou 200) produira des résultats plus diversifiés et créatifs. Les applications d’échantillonnage top-k comprennent la promotion de la diversité du contenu, en utilisant des valeurs k plus grandes lors de la génération de contenu nécessitant un large éventail d’idées, de perspectives ou de vocabulaire. Il consiste également à garantir des résultats ciblés, en choisissant des valeurs k plus petites, générant un contenu qui nécessite un haut degré de concentration, de précision ou de cohérence.

Pour mettre en œuvre les techniques de température et d’échantillonnage Top-k, il est recommandé de Expérimentation (en testant diverses combinaisons de température et de valeurs top-k pour identifier la configuration optimale pour les tâches ou le contenu) et le Réglage séquentiel, au cours du processus de génération de texte pour contrôler le comportement du modèle d’IA à différentes étapes. Par exemple, commencez par une température élevée et une grande valeur k pour générer des idées créatives, puis passez à des valeurs inférieures pour un raffinement et une mise au point ultérieurs.

Enfin, il est recommandé d’appliquer les gradients descendants qui consistent en un algorithme d’optimisation pour minimiser une fonction cible et calculer le taux de changement ou le gradient de la fonction de perte. Dans l’apprentissage automatique, cette fonction cible est généralement la fonction de perte pour évaluer les performances du modèle. Les paramètres sont mis à jour itérativement en utilisant les gradients descendants jusqu’à ce qu’un minimum local soit atteint.

Pourquoi l’ingénierie des requêtes est-elle importante ?

La rapidité avec laquelle fonctionne le ChatGPT d’OpenAI depuis 2022 est écrasante, aujourd’hui elle est utilisée par des millions de personnes, comme une forme d’intelligence artificielle conversationnelle, à partir d’algorithmes avancés d’apprentissage profond (Deep Learning) pour comprendre le langage humain.

Actuellement, les organisations utilisent diverses techniques d’intelligence artificielle, telles que le traitement du langage naturel (Natural Language Processing), l’ingénierie des questions, les réseaux de neurones artificiels (Artificial Neural Network, NN), l’apprentissage automatique (Machine Learning) et le processus de décision de Markov (Markov Decision Processing, MDP) pour automatiser diverses tâches.

L’importance de l’ingénierie des requêtes réside dans le fait qu’elle améliore l’expérience client et les interactions entre les personnes et l’IA, en plus de contribuer à construire de meilleurs systèmes d’IA conversationnelle. Ces systèmes d’IA conversationnelle dominent et domineront le marché dans les années à venir en utilisant LLM de manière cohérente, pertinente et précise. Juste pour avoir un point de référence, ChatGPT a atteint 100 millions d’utilisateurs actifs en quelques semaines après son lancement.

Pour les développeurs, l’ingénierie des requêtes aide à comprendre comment les modèles basés sur l’IA atteignent les réponses attendues et obtiennent également des informations précises sur le fonctionnement des modèles d’IA en arrière-plan. Bien sûr, le développement de prompts couvrant divers thèmes et scénarios sera nécessaire. D’autres avantages que nous pouvons mentionner sont : que l’ingénierie des questions et le contexte de la synthèse texte-image, permettent de personnaliser les caractéristiques de l’image (le style, la perspective, le rapport d’aspect, le point de vue et la résolution de l’image). Il joue également un rôle important dans l’identification et l’atténuation des attaques par injection d’invite, protégeant ainsi les modèles d’IA d’éventuelles activités malveillantes.

Évolution de l’ingénierie des requêtes

Natural Language Processing (NLP), fait partie de l’IA qui aide à percevoir, comme son nom l’indique, le « langage naturel » utilisé par les humains, facilitant l’interaction entre les personnes et les ordinateurs, grâce à laquelle il peut comprendre des mots et des phrases. Il comprend également le traitement syntaxique (signification des mots et du vocabulaire) et le traitement sémantique (compréhension à l’intérieur d’une phrase ou d’une combinaison de phrases). Les premières lumières de NLP ont été vues dans les années 1950, lorsque des méthodes basées sur des règles ont commencé à être adoptées, qui consistaient principalement en la traduction automatique. Leur application a été fournie dans l’analyse des mots/phrases, la réponse aux questions et la traduction automatique. Jusque dans les années 1980, la grammaire informatique apparaît comme un champ de recherche actif. Plus d’outils et de ressources grammaticales étaient disponibles, ce qui a stimulé sa demande. Vers les années 1990, l’utilisation du Web a généré un grand volume de connaissances, ce qui a poussé les méthodes d’apprentissage statistique qui nécessitaient de travailler avec NLP. En 2012, entre dans l’arène Deep Learning en tant que solution d’apprentissage statistique, produisant des améliorations dans les systèmes NLP, approfondissant les données brutes et apprenant de leurs attributs.

En 2019, le GPT (Generative Pre-Entraînement Transformator) est une avancée notable dans le domaine du traitement du langage naturel, car il est possible de former à l’avance des modèles de langage à grande échelle pour enseigner aux systèmes IA comment représenter les mots et les phrases dans un contexte. Cela a permis le développement de machines capables de comprendre et de communiquer en utilisant le langage d’une manière très similaire à celle des êtres humains. Son application la plus populaire est ChatGPT, qui obtient des informations depuis 2021 sur Internet, y compris des actualités, des encyclopédies, des livres, des pages Web, etc., mais n’a pas la capacité de discriminer quelles informations sont vraies et celles qui ne l’ont pas. C’est précisément pour cette raison que l’ingénierie des questions se présente comme une méthode permettant d’optimiser le traitement du langage naturel dans l’IA et d’améliorer la précision et la qualité de vos réponses.

L’art et la science de la création de questions

Un prompt est en soi un texte qui est inclus dans le modèle de langage (LM), et l’ingénierie des questions est l’art de concevoir ce texte pour obtenir le résultat souhaité, avec qualité et précision. Cela implique d’adapter la saisie des données afin que les outils optimisés par l’IA puissent comprendre l’intention de l’utilisateur et obtenir des réponses claires et concises. Cela nous indique que le processus doit être efficace pour s’assurer que les outils pilotés par l’IA ne génèrent pas de réponses inappropriées et insensées, en particulier lorsque les solutions GPT reposent principalement sur la fréquence et l’association des mots, ce qui peut entraîner des résultats incomplets ou erronés.

Pour créer des questions sur les outils d’IA de génération, il est recommandé de suivre ce guide essentiel:

  • Comprendre le résultat souhaité

    L’ingénierie des requêtes correcte commence par savoir quelles questions poser et comment le faire efficacement. L’utilisateur doit donc être clair sur ce qu’il veut en premier : les objectifs de l’interaction et un aperçu clair des résultats attendus (ce qu’il faut obtenir, pour quel public et les actions associées que le système doit effectuer).

  • N’oubliez pas que la forme est importante

    Les systèmes d’IA fonctionnent sur la base de demandes simples et directes, de phrases informelles et d’un langage clair. Mais les requêtes complexes bénéficieront de requêtes détaillées et bien structurées qui adhèrent à une forme ou à un format cohérent avec la conception interne du système. C’est essentiel dans l’ingénierie des questions, car la forme et le format peuvent différer pour chaque modèle, et certains outils peuvent avoir une structure préférée qui implique l’utilisation de mots-clés dans des emplacements prévisibles

  •  Formulez des demandes claires et spécifiques

    Considérez que le système ne peut agir qu’en fonction de ce qu’il peut interpréter d’un message donné. Vous devez donc faire des demandes claires, explicites et exploitables et comprendre le résultat souhaité. À partir de là, il faut ensuite travailler à décrire la tâche à accomplir ou à articuler la question à laquelle il faut répondre.

  • Faites attention à la longueur

    Les invites peuvent être soumises à un nombre minimum et maximum de caractères. Même lorsqu’il existe des interfaces d’IA qui n’imposent pas de limite stricte, les invites extrêmement longues peuvent être difficiles à gérer pour les systèmes d’IA.

  • Choisir les mots avec soin

    Comme tout système informatique, les outils d’IA peuvent être précis dans leur utilisation des commandes et du langage, sans savoir comment répondre à des commandes ou à un langage non reconnus. Il est recommandé d’éviter les ambiguïtés, les métaphores, les expressions idiomatiques et le jargon spécifique afin de ne pas produire de résultats inattendus et indésirables.

  •  Poser des questions ou des demandes ouvertes

    Le but de l’IA générative est de créer. Les questions simples dont leur réponse est oui ou non sont limitatives et ont des résultats possibles courts et inintéressants. Les questions ouvertes permettent une plus grande flexibilité.

  • Inclure le contexte

    Un outil d’IA générative peut répondre à un large éventail d’objectifs et d’attentes, des résumés courts et généraux aux explorations détaillées. Pour tirer parti de cette polyvalence, des invites bien conçues incluent un contexte qui aide le système d’IA à adapter sa sortie au public visé.

  • Fixer des objectifs ou des limites de durée de production

    Bien que l’IA générative vise à être créative, il est souvent judicieux d’inclure des barrières dans des facteurs tels que la durée de la production. Les éléments de contexte dans les invites peuvent inclure, par exemple, la demande d’une réponse simplifiée et concise plutôt que d’une réponse longue et détaillée. Considérez également que les modèles de traitement du langage naturel, tels que GPT-3, sont entraînés à prédire les mots en fonction des modèles linguistiques, et non à les compter.

  • Éviter les termes contradictoires

    Également dérivé de longs prompts et peut inclure des termes ambigus ou contradictoires. Il est recommandé que les ingénieurs Prompt examinent la formation Prompt et s’assurent que tous les termes sont cohérents. Une autre recommandation est d’utiliser un langage positif et d’éviter le langage négatif. La logique est que les modèles d’IA sont formés pour effectuer des tâches spécifiques, pas pour ne pas les faire.

  • Utiliser la ponctuation pour clarifier des indications complexes

    Tout comme les humains, les systèmes d’IA dépendent de la ponctuation pour aider à analyser un texte. Les prompts d’IA peuvent également utiliser des virgules, des guillemets et des sauts de ligne pour aider le système à analyser et à opérer dans une requête complexe.

En ce qui concerne les images, il est recommandé de prendre en compte leur description et l’ambiance dans leur contexte, les couleurs, la lumière, le réalisme.

Comment fonctionne l’ingénierie des requêtes

L’ingénierie des requêtes est à proprement parler une discipline pour promouvoir et optimiser l’utilisation de modèles linguistiques en IA, par la création et le test de saisies de données, avec différentes phrases pour évaluer les réponses obtenues, sur la base d’essais et d’erreurs jusqu’à la formation du système basé sur l’IA, en suivant ces tâches fondamentales:

  1. Spécifier la tâche: Définition d’un objectif dans le modèle de langage, ce qui peut impliquer des tâches liées à NLP telles que la complémentation, la traduction, le résumé de texte.
  2. Identifier les entrées et les sorties: Définition des entrées requises dans le modèle de langue et des sorties ou résultats souhaités.
  3. Créer des prompts informatifs: Création de prompts qui communiquent clairement le comportement attendu dans le modèle, devant être clairs, brefs et conformes au but pour lequel il a été créé.
  4. Interagir et évaluer: C’est testé à l’aide de modèles linguistiques et en évaluant les résultats obtenus, en recherchant les défauts et en identifiant les biais pour faire des ajustements qui améliorent ses performances.
  5. Calibrer et affiner: Consiste à prendre en compte les résultats obtenus, en effectuant des ajustements jusqu’à obtenir le comportement requis dans le modèle, aligné sur les exigences et les intentions avec lesquelles la requête a été créée.

Tout au long de ce processus, l’ingénieur de requêtes doit garder à l’esprit qu’il est essentiel d’être clair et précis lors de la conception des questions. Si le message conçu est ambigu, le modèle aura du mal à répondre avec qualité. Lors de la conception de prompts, il convient de prêter attention aux sources utilisées lors de la formation précédente, en tenant compte des publics non biaisés par les genres et les cultures, afin de promouvoir le respect et l’inclusion. Il est recommandé de se concentrer sur les réponses visant à aider, à apprendre et à fournir des réponses neutres et fondées sur des faits.

Il est également recommandé d’appliquer le jeu de rôle dans lequel un scénario est créé où le modèle assume un rôle et interagit avec une autre entité. Par exemple, si vous voulez créer une revue de produit, vous pouvez assumer le rôle d’un client qui a essayé un produit et qui écrit son expérience satisfaisante.

El Rol de un Ingeniero de Preguntas

Un Ingénieur des requêtes est responsable de la conception, du développement, des tests, du débogage, de la maintenance et de la mise à jour des applications d’IA, en étroite collaboration avec d’autres développeurs de logiciels pour s’assurer que le logiciel répond et fonctionne efficacement. Dans sa fonction, la créativité et l’attention aux détails sont nécessaires pour choisir des mots, des phrases, des symboles et des formats corrects qui guident le modèle IA dans la génération de textes pertinents et de haute qualité. Ce rôle émergent est devenu plus pertinent dans la nécessité pour l’IA de contribuer à améliorer et à rationaliser les services devant le client et en interne. Maintenant, si nous nous demandons qui peuvent être des ingénieurs de requêtes, non seulement pour rationaliser leurs tâches, mais pour se développer professionnellement, nous pouvons dire qu’ils peuvent être des chercheurs et des ingénieurs en IA, des scientifiques et des analystes de données, des créateurs de contenu, des cadres du service client, du personnel enseignant, des professionnels des affaires, des chercheurs. La demande d’ingénieurs de questions devrait croître au fur et à mesure que les organisations ont besoin de personnes capables de gérer les outils pilotés par l’IA.

L’avenir de l’ingénierie des requêtes

Il est prévu que les tendances vers un avenir de l’ingénierie des questions seront liées à l’intégration avec la réalité augmentée (RA) et la réalité virtuelle (RV), en ce sens qu’une bonne application de prompts peut améliorer les expériences immersives de RA/VR, en optimisant les interactions IA dans les environnements 3D. Dans les progrès de l’ingénierie des requêtes, il est possible pour les utilisateurs de converser avec des personnages d’IA, de demander des informations et d’émettre des ordres en langage naturel dans des environnements simulés et en temps réel. Cela part du fait qu’avec l’ingénierie des requêtes, l’IA peut être dotée d’un contexte ou d’une situation, d’une conversation et d’un échange d’êtres humains avec des applications de RA/VR, qu’elles soient d’utilisation spatiale, éducative, de recherche ou d’exploration.

Une autre prévision de l’utilisation de l’ingénierie des requêtes est la possibilité d’obtenir une traduction simultanée en langues parlées et écrites, en profitant des contextes en plusieurs langues pour que l’IA traduise bidirectionnellement en temps réel et de la manière la plus fiable possible. L’impact de cela est la communication dans des contextes commerciaux, muticulturels, diplomatiques et personnels, en tenant compte des dialectes régionaux, des nuances culturelles et des modèles de parole.

En ce qui concerne la créativité interdisciplinaire, l’ingénierie des requêtes peut stimuler l’IA pour générer de l’art, des histoires, des œuvres et de la musique, en se combinant avec la créativité humaine. Bien sûr, cela peut avoir des implications éthiques, bien que l’accès à l’IA à des fins artistiques soit également démocratisé.

Bien sûr, à mesure que l’ingénierie des requêtes mûrit, des questions se posent sur l’équité, le respect et l’alignement avec les valeurs morales, de la formulation même de la consultation au type de réponses pouvant en découler. Il faut garder à l’esprit que dans l’avenir de l’IA et de l’ingénierie des requêtes, la technologie sera toujours le reflet des gens.

Défis et opportunités

Comme nous l’avons vu, l’ingénierie des requêtes représente l’opportunité de développer des questions bien conçues qui améliorent la fonctionnalité de l’IA, de manière plus efficace et efficiente. L’avantage de cela est que les tâches quotidiennes peuvent être rationalisées, en plus d’élargir les connaissances sur divers sujets et de stimuler la créativité. L’inclusion est également encouragée lorsqu’elle est correctement mise en œuvre, avec un impact positif sur les expériences de genre.

L’autre face de la médaille sont les questions mal conçues qui peuvent entraîner des réponses IA avec des biais, des préjugés ou des données erronées. Par conséquent, des considérations éthiques dans l’ingénierie des questions peuvent atténuer ces risques, sans compromettre l’équité, le respect et l’inclusion. De plus, le manque d’application des meilleures pratiques, même par des professionnels en la matière, pourrait ne pas atteindre le résultat souhaité du premier coup et s’avérer difficile de trouver un point approprié pour lancer le processus.

De même, il peut être difficile de contrôler le niveau de créativité et d’unicité du résultat. Souvent, les professionnels de l’ingénierie des requêtes peuvent fournir des informations supplémentaires dans le message qui peuvent confondre le modèle d’IA et affecter la précision de la réponse.

Conclusions

Dans l’économie numérique, les expériences les plus mémorables seront celles dans lesquelles les données sont exploitées et combinées avec la connaissance humaine pour anticiper les besoins du client, avec empathie et personnalisation. Dans cet environnement, l’IA devient le collaborateur numérique, non seulement en tant que point de contact avec le client, mais aussi en tant que moteur de productivité dans l’organisation. Il est vrai que GPT a gagné du terrain dans une recherche de plus grande proximité avec le client ; cependant, il est basé sur la fréquence et l’association des mots, n’ayant pas la capacité de discriminer les informations correctes des informations incorrectes. C’est dans ce besoin d’améliorer la qualité des réponses que l’ingénierie des requêtes prend de l’importance pour développer et optimiser les modèles de langage naturel de l’IA et obtenir qualité et précision dans leurs réponses, en se basant sur une meilleure compréhension de l’intention de l’utilisateur. Sans aucun doute, la demande de l’ingénieur de requêtes augmentera confirmer les organisations ont besoin de professionnels qui savent comprendre la nature des outils basés sur l’IA.

Bien sûr, à mesure que l’adoption de l’ingénierie des requêtes mûrit, des questions d’équité, de respect et d’alignement avec les valeurs morales continueront de se poser dans la formulation des prompts et des résultats, de sorte que des techniques appropriées sont nécessaires pour les mettre en œuvre sans biais ni préjugés. Pour entreprendre ce voyage vers l’ingénierie des requêtes, il est recommandé de s’accompagner d’un partenaire technologique qui transmettra à votre équipe les meilleures techniques et pratiques pour sa mise en œuvre.

Shares