Digital-First (primero digital) ha sido la tendencia de las organizaciones en el mundo y América Latina, en que se opta primero por una estrategia digital para la entrega de productos y servicios, especialmente cuando se busca un mayor impacto de la marca de forma más inmediata a un determinado segmento del mercado junto con una difusión más amplia sobre la oferta, de manera más personalizada y, sobre todo, si se busca acercarse más al cliente final. Según Marketing4Commerce, Digital Report, el número de usuarios de internet en el mundo alcanza los 5,160 millones (64,4% de la población mundial, al 2023) con un tiempo de navegación en internet mayor a 6 horas, y personas con dispositivos móviles alcanzan los 5,440 millones (68% de la población mundial, al 2023).

También, esto lo vemos reflejado en un reporte de Adobe (Tendencias Digitales de 2023) en que más de 70% de las organizaciones, tanto líderes como seguidoras, consideran que las expectativas de sus clientes se ajustan constantemente para alinearse a las experiencias omnicanal mejoradas, esto es porque los clientes finales están constantemente evaluando sus experiencias en comparación con su última mejor experiencia. Ciertamente, las experiencias más memorables serán creadas por las organizaciones que sepan aprovechar los datos y los combinen con el conocimiento humano para anticiparse a las necesidades del cliente, con mayor empatía y en forma más individualizada.

En este panorama la Inteligencia Artificial (IA) se convierte en una aliada para implementar estrategias de experiencia del cliente en forma personalizada e innovadora, aprovechando herramientas de reconocimiento de voz, comprensión del lenguaje natural, los datos sobre patrones de conducta y las preferencias del consumidor. En los últimos años las interacciones con asistentes virtuales se han vuelto el común, impulsando el desarrollo de modelos de lenguaje para determinadas tareas o resultados esperados. A esto se le conoce como Ingeniería de Preguntas, el cual es el proceso de construir alertas o inputs para guiar a una determinada conducta del sistema de IA y obtener respuestas deseadas y precisas a partir de los modelos de IA. De manera que la IA asume un papel de colaborador digital que no solo sirve de punto de contacto con el consumidor, sino que también impulsa el conocimiento y la productividad para los colaboradores de la organización.

¿Qué es la Ingeniería de Preguntas?

De acuerdo con Techopedia, la Ingeniería de Preguntas (Prompt Engineering) refiere a una técnica utilizada en inteligencia artificial (IA) para optimizar y ajustar modelos de lenguaje para tareas particulares y resultados deseados. También se la conoce como diseño de avisos o alertas (Prompts), que construye cuidadosamente indicaciones o entradas para modelos de IA con el fin de mejorar su desempeño de tareas específicas. Los prompts, adecuadamente diseñados, se utilizan para guiar y modificar el comportamiento deseado del sistema de IA y obtener respuestas precisas y deseadas de los modelos de IA.

La Ingeniería de Preguntas usa las capacidades de los modelos de lenguaje y optimiza sus resultados a través de indicaciones correctamente diseñadas. Esto permite no depender solo de la capacitación previa o el ajuste, además de ayudar a los usuarios a guiar los modelos para lograr objetivos específicos, fomentando respuestas precisas y proporcionando instrucciones directas, excepciones o ejemplos en las indicaciones.

De acuerdo con una encuesta realizada por la empresa COPC Inc. Durante el año 2022, “Mejorar la experiencia del cliente” alcanzó el 87% como el objetivo más mencionado en cuanto a la implementación de soluciones basadas en IA. En este aspecto, 83% de los encuestados afirmaron que utilizan soluciones basadas en IA mayormente para aplicaciones de contacto con sus clientes, y es que la IA tiene un sinfín de usos que impactan directamente en la Experiencia del Cliente. Según un estudio realizado por CX optimization 2023, los usos más implementados son la creación de contenidos, perfilamiento del cliente y reducción de las llamadas internas.

Para procesar estos prompts, tenemos a los Modelos de Lenguaje Grandes (Large Language Models, LLM), que son modelos lingüísticos avanzados basados en algoritmos de Deep Learning (aprendizaje profundo) para procesar y analizar grandes cantidades de datos de texto. LLM trabaja a partir de redes neuronales artificiales (sistemas que se inspiran en la función del cerebro humano), que se entrenan para aprender patrones y relaciones en un texto y generar respuestas a las preguntas de los usuarios. Esto permite que LLM sea capaz de analizar grandes volúmenes de datos de texto y, a partir de ello, usar dicha información para entender palabras, frases y oraciones y sus contextos, habilitando la comunicación humana-IA.

Lado Técnico de la Ingeniería de Preguntas

Como habíamos mencionado anteriormente, los LLM se entrenan a partir de grandes cantidades de datos de texto para enseñar al modelo a reconocer relaciones y patrones en un texto. Todos estos datos son procesados para ajustar parámetros del modelo y, de ese modo, mejorar la precisión y comprensión del lenguaje. También se usan técnicas de preprocesamiento de textos (eliminación de palabras irrelevantes, estandarización de palabras para detectar la variabilidad de un texto), ajustes de hiperparámetros y optimización para lograr la mayor precisión en el modelo. Para implementar la Ingeniería de Preguntas, existen diversas técnicas, tales como:

  1. Zero-Shot Prompting genera una respuesta sin dar a los modelos lingüísticos ejemplos ni contexto previo. Se usa para respuestas rápidas a preguntas o temas generales.
    • Ejemplo: “¿Qué es un prompt?”
    • Respuesta: “Un Prompt es…”
  2. One-Shot Prompting se extrae una respuesta desde un ejemplo o contexto proporcionado por el usuario.
    • Ejemplo: “Si presupuesto en portugués es orçamento, ¿cómo puedo traducir Proveedor?”
    • Respuesta: “Fornecedor”.
  3. Recuperación de información se formula a la IA generativa una pregunta concreta para obtener respuestas detalladas. La clave de esto es la fuente de datos de donde se alimentan los LLMs. Por ejemplo, ChatGPT solo tiene acceso a datos posteriores a septiembre de 2021.
    • Ejemplo: “¿Cuáles son las ventajas de LLM?”
    • Respuesta: “1. Diversificación de contenidos. 2. Personalización…”.
  4. Escritura creativa a través de esta técnica es posible desarrollar textos con imaginación, historias y expresiones textuales que se adaptan a las preferencias de la audiencia.
    • Ejemplo: “Haz un poema a la luna”
    • Respuesta: “La luna se puede tomar a cucharadas…o como una cápsula cada dos horas. Es buena como hipnótico y sedante y también alivia”.
  5. Expansión del contexto enriquecimiento de la información a la Inteligencia Artificial para mejorar la comprensión usando los métodos de las 5W y 1H, que refiere a 5 preguntas (que en inglés empiezan con W): Quién, Qué, Dónde, Cuándo, Por qué); y a 1 H, que es el Cómo (How) sobre un tema.
    • Ejemplo: “Es bueno comer Betabel?”
    • Respuesta: “Quiénes: la mayoría de las personas pueden comer Betabel; Qué: “El Betabel o Remolacha refiere a un tubérculo comestible de rojo intenso…”
  6. Resumen de contenidos con enfoque específico consiste en dirigir la atención de la IA a aspectos concretos de la instrucción, con un énfasis particular. Se puede destacar qué elementos deben priorizarse en el modelo, para que el resumen refleje la esencia del enfoque.
    • Ejemplo: “guía completa sobre técnicas de optimización de sitios web, pero sólo quiero las estrategias de optimización para móviles.”
    • Respuesta: “Los aspectos clave son: Caché móvil- activar esta opción permite…; Lista de User Agents Móviles- si la función de Caché móvil está activada…”
  7. Rellenar plantillas para crear contenidos versátiles y estructurados. Se usa una plantilla con marcadores de posición para personalizar prompts en diferentes instrucciones, manteniendo una coherencia. Los content managers o desarrolladores web usan esta estrategia para crear fragmentos de contenido personalizados, que han sido generados por IA en sus sitios web. Un ejemplo es usar una plantilla estándar para cotizar, haciendo que IA complete datos de cliente, productos, precios, etc. Otro ejemplo es la automatización de correos personalizados desde una plantilla con una estructura general – desde el saludo, texto principal, despedida (‘Hola {Nombre}, Gracias por solicitar nuestro {Servicio}…{Cierre}».
  8. Personalización de Prompt o Prompt Reframing permite cambiar la redacción de las preguntas manteniendo la intención original de la consulta. Se puede diseñar el modelo lingüístico para dar varias respuestas que respondan a la consulta original de diferentes maneras. Esto puede hacerse con sinónimos o reformulación de preguntas.
    • Ejemplo: “Prompt original: ¿cuáles son las formas de reducir la latencia en la red? Prompt reformulado: ¿puede enumerar técnicas para optimizar la velocidad en la red?”.
  9. Combinación de Prompts consiste en fusionar diferentes prompt o preguntas en una misma instrucción para obtener una respuesta completa.
    • Ejemplo: “¿Puedes explicar las diferencias entre el hosting compartido y el hosting VPS y recomendar cuál es mejor para un pequeño sitio web de comercio electrónico?”.
    • Respuesta: “Hosting compartido y hosting VPS son dos tipos de servicios de alojamiento…Hosting Compartido: …”
  10. Cadena de Pensamiento o Chain-Of-Thought Prompting usa interacciones de IA en tiempo real para guiar hacia respuestas más precisas y completas. No se basa en una sola pregunta, sino en una secuencia de preguntas o ejemplos asociados con la finalidad de profundizar sobre la consulta original. Para ello, hay que dividir una consulta o un tema complejo en secciones más pequeñas. Luego, estas partes se presentan como una secuencia de consultas que se desarrollan unas sobre otras, para conducir a IA hacia una respuesta deseada.
    • Ejemplo: “¿Cuál es el tema principal?… ¿Con qué objetivo?… ¿Quién es la audiencia?…”
  11. Prompting iterativo consiste en hacer consultas de seguimiento a partir de respuestas anteriores para profundizar un tema, obtener información adicional o aclarar alguna ambigüedad sobre el resultado inicial. En esta técnica, se requiere expertos en procesamiento del lenguaje natural (Natural Language Processing) para diseñar prompts iterativos y elaborar respuestas parecidas a las realizadas por un ser humano.
    • Ejemplo: “¿Cuáles son las mejores películas de 2022?”
    • Respuesta: “’Drive My Car’ de Ryûsuke Hamaguchi; ‘El callejón de las almas perdidas’ de Guillermo del Toro; ‘The Banshees of Inisherin’ de Martin McDonagh; ‘Holy Spider’ de Ali Abbasi…”
  12. Storytelling interactivo y juegos de rol aprovecha la capacidad de IA para adaptar respuestas en función de los prompts e interacciones anteriores, desarrollando una narración fluida.
    • Ejemplo: “Prompt: Quiero empezar un ejercicio de narración colaborativa contigo. Escribiremos una historia de fantasía sobre una tierra en la que existe la magia,… El personaje será….”
    • Respuesta: “En las sombras de un bosque existía…”
  13. Inyección implícita de información la particularidad de esta técnica es que se otorga un contexto sutilmente para que IA entienda las necesidades sin necesidad de expresarlo explícitamente.
    • Ejemplo: “¿Puedes mencionar las mejores prácticas de Modernización de un datacenter?”
    • Respuesta: “1- Eleve la temperatura de funcionamiento de su centro de datos; 2- Actualice los servidores y sistemas para una mejor consolidación y eficiencia”.
  14. Traducción de idiomas con matices contextuales generación de contenidos multilingües, más allá de traducir palabras de un idioma a otro, considerando el contexto cultural o situación para una traducción más precisa y natural.
    • Ejemplo: “Traduce la frase «She took the ball and ran with it» del inglés al francés, teniendo en cuenta que se trata de una metáfora empresarial para referirse a tomar las riendas de un proyecto.”
    • Respuesta: “Elle a pris le ballon et a foncé avec”, considerando la idea de tomar la iniciativa de un proyecto.”

Adicional a éstos, podemos mencionar a la Ingeniería de prompt automática, donde la ingeniería automática de prompts (Automatic Prompt Engineering, APE) es un avance en inteligencia artificial que aprovecha los LLM para ayudar a la IA a generar y seleccionar automáticamente instrucciones por sí misma. Los pasos principales son:

  1. Asigna al chatbot una tarea específica y muestra algunos ejemplos.
  2. Al chatbot se le ocurren diferentes maneras de hacer el trabajo, por razonamiento directo o teniendo en cuenta tareas similares que conoce.
  3. A continuación, se prueban en la práctica estos distintos métodos.
  4. El chatbot valora la eficacia de cada método.
  5. La IA elegirá entonces un método mejor y lo aplicará.

Con Machine Learning, las herramientas de IA Generativa pueden agilizar las tareas, desde el análisis de datos en un contexto hasta la atención automatizada al cliente, sin necesitar constantes prompts generados por los humanos.

Cabe mencionar que en Prompt Engineering es importante considerar aspectos técnicos básicos como Temperatura y lo que llamamos Muestreo Top-K, para mejorar la calidad y diversidad del contenido generado por IA, al influir en el proceso de selección de tokens (palabras o subpalabras) del modelo:

  • Temperatura un valor de temperatura más alto (p. ej., 1,0 o superior) dará como resultado un texto más diverso y creativo, mientras que un valor más bajo (p. ej., 0,5 o menos) producirá resultados más centrados y deterministas. Para ello, se recomienda fomentar la creatividad con base en valores de temperatura más altos al generar escritura creativa, sesiones de lluvia de ideas o explorar ideas innovadoras. También se recomienda mejorar la coherencia, optando por valores de temperatura más bajos con contenido bien estructurado, coherente y enfocado, como documentación técnica o artículos formales.
  • El muestreo Top-k es otra técnica recomendada en la generación de texto de IA para controlar el proceso de selección de tokens del modelo, desde un conjunto restringido de k tokens más probables. Un valor k más pequeño (por ejemplo, 20 o 40) dará como resultado un texto más enfocado y determinista, mientras que un valor k más grande (por ejemplo, 100 o 200) producirá resultados más diversos y creativos. Las aplicaciones del muestreo top-k incluyen impulsar la diversidad de contenido, usando valores k más grandes al generar contenido que requiera una amplia gama de ideas, perspectivas o vocabularios. También consiste en garantizar resultados enfocados, eligiendo valores k más pequeños, generando contenido que requiere un alto grado de concentración, precisión o coherencia.

Para implementar las técnicas de Temperatura y Muestreo Top-k, se recomienda la Experimentación (probando varias combinaciones de temperatura y valores top-k para identificar la configuración óptima para tareas o contenidos) y el Ajuste Secuencial, durante el proceso de generación de texto para controlar el comportamiento del modelo de IA en diferentes etapas. Por ejemplo, comience con una temperatura alta y un valor k grande para generar ideas creativas, luego cambie a valores más bajos para un posterior refinamiento y enfoque.

Por último, se recomienda la aplicación de los gradientes descendentes que consisten en un algoritmo de optimización para minimizar una función objetivo y calculan la tasa de cambio o gradiente de la función de pérdida. En Machine Learning esta función objetivo suele ser la función de pérdida para evaluar el rendimiento del modelo. Los parámetros se actualizan iterativamente utilizando los gradientes descendentes hasta que se alcanza un mínimo local.

¿Por qué la Ingeniería de Preguntas es Importante?

La rapidez con la que funciona ChatGPT de OpenAI desde 2022 es abrumadora, hoy está siendo usada por millones de personas, como una forma de inteligencia artificial conversacional, partiendo de algoritmos avanzados de aprendizaje profundo (Deep Learning) para comprender el lenguaje humano.

Actualmente, las organizaciones utilizan diversas técnicas de inteligencia artificial, tales como el procesamiento del lenguaje natural (Natural Language Processing), la ingeniería de preguntas, las redes neuronales artificiales (Artificial Neural Network, NN), el aprendizaje automático (Machine Learning) y el proceso de decisión de Markov (Markov Decision Processing, MDP) para automatizar varias tareas.

La importancia de la Ingeniería de Preguntas radica en que mejora la experiencia del cliente y las interacciones entre personas e IA, además de que contribuye a construir mejores sistemas de IA conversacionales. Estos sistemas de IA conversacionales dominan y dominarán el mercado en los próximos años al utilizar LLM en forma coherente, relevante y preciso. Solo para tener un punto de referencia, tenemos que ChatGPT alcanzó los 100 millones de usuarios activos en cuestión de semanas después de su lanzamiento.

Para los desarrolladores, la Ingeniería de Preguntas ayuda a comprender cómo los modelos basados en IA llegan a las respuestas esperadas y también obtienen información precisa del funcionamiento de los modelos AI en el back-end. Desde luego, se necesitará el desarrollo de prompts que abarquen diversos temas y escenarios. Otros beneficios que podemos mencionar son: que la Ingeniería de Preguntas y el contexto de la síntesis texto-imagen, permiten personalizar las características de la imagen (el estilo, la perspectiva, la relación de aspecto, el punto de vista y la resolución de la imagen).También, desempeña un papel importante en la identificación y mitigación de los ataques de inyección de prompt, protegiendo así los modelos de IA de posibles actividades maliciosas.

Evolución de la Ingeniería de Preguntas

Natural Language Processing (NLP), es parte de IA que ayuda a percibir, como dice su nombre, el “lenguaje natural” usado por los humanos, facilitando la interacción entre personas y computadoras, gracias a que puede comprender palabras, frases y oraciones. También comprende el procesamiento sintáctico (significado de las palabras y vocabulario) y semántico (comprensión dentro de una frase o combinación de frases). Las primeras luces de NLP se vieron en los años 50, cuando se comenzaron a adoptar métodos basados en reglas, que consistían más que nada en la traducción automática. Su aplicación se dio en el análisis de palabras/oraciones, respuesta a preguntas y traducción automática. Hasta la década de los 80, aparece la gramática computacional como campo activo de investigación. Se tuvo más disponibilidad de herramientas y recursos gramaticales, lo que impulsó su demanda. Hacia los años 90, el uso de la web generó un gran volumen de conocimiento, lo que impulsó a los métodos de aprendizaje estadístico que requerían trabajar con NLP. AL 2012, entra en la arena Deep Learning como solución para el aprendizaje estadístico, produciendo mejoras en los sistemas de NLP, profundizando los datos sin procesar y aprendiendo de sus atributos.

Al 2019, surge el Transformador Generativo Pre-entrenado (GPT) como un avance notable en el dominio del procesamiento del lenguaje natural, ya que con ello es posible entrenar previamente modelos de lenguaje a gran escala para enseñar a los sistemas IA cómo representar palabras y oraciones en un contexto. Esto permitió el desarrollo de máquinas que pueden comprender y comunicarse utilizando el lenguaje de una manera muy similar a la de los seres humanos. Su aplicación más popular es ChatGPT, el cual obtiene información de textos publicados desde el año 2021 en Internet, incluyendo noticias, enciclopedias, libros, páginas web, entre otros, pero carece de la capacidad para discriminar qué información es cierta y cuál no lo es. Precisamente por ello, la Ingeniería de Preguntas surge como un método para optimizar el procesamiento del lenguaje natural en IA y mejorar la precisión y calidad de sus respuestas.

El Arte y la Ciencia de Crear Preguntas

Un prompt es en sí un texto que se incluye en el modelo de lenguaje (Language Model, LM), y la Ingeniería de Preguntas es el arte de diseñar ese texto para obtener el resultado deseado, con calidad y precisión. Esto implica adaptar la entrada de datos para que las herramientas impulsadas por IA puedan comprender la intención del usuario y obtener las respuestas claras y concisas. Lo cual nos indica que el proceso debe ser eficaz para garantizar que las herramientas impulsadas por la IA no generen respuestas inapropiadas y sin sentido, especialmente cuando las soluciones GPT se basan más que nada en la frecuencia y asociación de palabras, pudiendo arrojar resultados incompletos o erróneos.

Para crear Preguntas en herramientas de IA Generativa, se recomienda seguir esta guía esencial:

  • Comprender el resultado deseado

    Una Ingeniería de Preguntas exitosa parte de saber qué preguntas hacer y cómo hacerlo de manera efectiva. Por lo que el usuario debe tener claro lo que quiere en primer lugar: objetivos de la interacción y un esquema claro de los resultados previstos (qué obtener, para qué audiencia y cualquier acción asociada que el sistema deba realizar).

  • Recordar que la forma importa

    Los sistemas de IA funcionan con base en solicitudes simples y directas, mediante oraciones informales y un lenguaje sencillo. Pero las solicitudes complejas se beneficiarán de consultas detalladas y bien estructuradas que se adhieran a una forma o formato coherente con el diseño interno del sistema. Eso es esencial en la Ingeniería de Preguntas, ya que la forma y el formato pueden diferir para cada modelo, y algunas herramientas puede existir una estructura preferida que implique el uso de palabras clave en ubicaciones predecibles.

  • Hacer solicitudes claras y específicas

    Considere que el sistema solo puede actuar en función de lo que puede interpretar a partir de un mensaje determinado. Por lo que hay que formular solicitudes claras, explícitas y procesables y comprender el resultado deseado. A partir de ello, luego se debe trabajar para describir la tarea por realizarse o articular la pregunta que debe responderse.

  • Estar atento a la longitud

    Los prompts pueden estar sujetos a un número mínimo y máximo de caracteres. Aun cuando hay interfaces de IA que no imponen un límite estricto, las indicaciones extremadamente largas pueden resultar difíciles de manejar para los sistemas de IA.

  • Elegir las palabras cuidadosamente

    Como cualquier sistema informático, las herramientas de IA pueden ser precisas en el uso de comandos y el lenguaje, sin saber cómo responder a comandos o lenguaje no reconocidos. Se recomienda evitar la ambigüedad, metáforas, modismos y jerga específica para no producir resultados inesperados e indeseables.

  • Plantear preguntas o solicitudes abiertas

    El propósito de IA Generativa es crear. Las preguntas simples de Sí o No son limitantes y con posibles resultados breves y poco interesantes. Las preguntas abiertas permiten más flexibilidad.

  • Incluir contexto

    Una herramienta de IA generativa puede cumplir con una amplia gama de objetivos y expectativas, desde resúmenes breves y generales hasta exploraciones detalladas. Para aprovechar esta versatilidad, los prompts bien diseñados incluyen un contexto que ayuda al sistema de IA a adaptar su salida a la audiencia prevista.

  • Establecer objetivos o límites de duración de la producción

    Aunque la IA generativa pretende ser creativa, a menudo es aconsejable incluir barreras en factores como la duración de la salida. Los elementos de contexto en las indicaciones pueden incluir, por ejemplo, solicitar una respuesta simplificada y concisa versus una respuesta larga y detallada. También considere que los modelos de procesamiento de lenguaje natural, como GPT-3, están entrenados para predecir palabras basándose en patrones del lenguaje, no para contarlas.

  • Evitar términos contradictorios

    Derivado también de prompts largas y se puede incluir términos ambiguos o contradictorios. Se recomienda que los ingenieros de Prompt revisen la formación de Prompt y garantizar que todos los términos sean coherentes. Otra recomendación es usar un lenguaje positivo y evitar el lenguaje negativo. La lógica es que los modelos de IA están entrenados para realizar tareas específicas, no para no hacerlas.

  • Utilizar la puntuación para aclarar indicaciones complejas

    Al igual que los humanos, los sistemas IA dependen de la puntuación para ayudar a analizar un texto. Los prompts de IA también pueden hacer uso de las comas, las comillas y los saltos de renglón para ayudar al sistema a analizar y operar en una consulta compleja.

En cuanto a imágenes, se recomienda considerar su descripción, el ambiente y ánimo en su contexto, colores, luz, realismo.

Cómo Funciona la Ingeniería de Preguntas

La Ingeniería de Preguntas es propiamente una disciplina para impulsar y optimizar el uso de modelos de lenguaje en IA, mediante la creación y prueba de entradas de datos, con diferentes oraciones para ir evaluando las respuestas obtenidas, a base de ensayo y error hasta lograr el entrenamiento del sistema basado en IA, siguiendo estas tareas fundamentales:

  1. Especificar la tarea: definición de un objetivo en el modelo de lenguaje, lo cual puede implicar tareas relacionadas con NLP como complementación, traducción, resumen de texto.
  2. Identificar entradas y salidas: definición de las entradas que se requieren en el modelo de lenguaje y las salidas o resultados deseados.
  3. Crear prompts informativos: creación de prompts que comunican claramente el comportamiento esperado en el modelo, debiendo ser claros, breves y acorde al propósito por el cual fue creado.
  4. Interactuar y evaluar: se somete a pruebas usando modelos de lenguaje y evaluando los resultados que se arrojan, buscando fallas e identificando sesgos para hacer ajustes que mejoren su desempeño.
  5. Calibrar y refinar: consiste en tomar en cuenta los hallazgos obtenidos, haciendo ajustes hasta obtener el comportamiento requerido en el modelo, alineado con los requerimientos e intenciones con el cual fue creado el prompt.

En todo este proceso, el Ingeniero de Preguntas debe tener en mente que al diseñar preguntas es fundamental ser claros y precisos. Si el mensaje diseñado es ambiguo, el modelo tendrá dificultades para responder con calidad. Al diseñar prompts se debe prestar atención a las fuentes utilizadas durante el entrenamiento previo, considerando audiencias sin sesgo por géneros y culturas, para promover el respeto y la inclusión. Lo que se recomienda es enfocarse en respuestas encaminadas a ayudar, aprender y brindar respuestas neutrales y basadas en hechos.

También, se recomienda la aplicación de Juego de roles en que se crea un escenario donde el modelo asume un rol e interactúa con otra entidad. Por ejemplo, si se quiere crear una reseña de productos, se puede asumir el rol de un cliente que ha probado un producto y que escribe su experiencia satisfactoria.

El Rol de un Ingeniero de Preguntas

Un Ingeniero de Preguntas es el responsable de diseñar, desarrollar, probar, depurar, mantener y actualizar aplicaciones de IA, en estrecha colaboración con otros desarrolladores de software para garantizar que el software responda y funcione de manera eficiente. En su función se requiere creatividad y atención al detalle para elegir palabras, frases, símbolos y formatos correctos que guíen al modelo IA en la generación de textos relevantes y de alta calidad. Este rol emergente ha cobrado mayor relevancia en la necesidad de que IA contribuya a mejorar y agilizar los servicios ante el cliente y en forma interna. Ahora, si nos preguntamos quiénes puede ser Ingenieros de Preguntas, no solo para agilizar sus tareas sino para desarrollarse profesionalmente, podemos decir que pueden ser los investigadores e ingenieros de IA, los científicos y analistas de datos, los creadores de contenido, ejecutivos de atención al cliente, personal docente, profesionales de negocios, investigadores. Se espera que la demanda de Ingenieros de Preguntas crezca en la medida que las organizaciones requieran de personas que sepan manejar las herramientas impulsadas por IA.

El Futuro de la Ingeniería de Preguntas

Se prevé que las tendencias hacia un futuro de la Ingeniería de Preguntas estará vinculada a la integración con la realidad aumentada (RA) y la realidad virtual (RV), en el sentido que la adecuada aplicación de prompts puede mejorar las experiencias inmersivas de RA/VR, optimizando interacciones de IA en entornos 3D. En los avances de la Ingeniería de Preguntas es posible que los usuarios conversen con personajes de IA, soliciten información y emitan órdenes mediante el lenguaje natural en entornos simulados y en tiempo real. Esto parte de que, con la Ingeniería de Preguntas, se puede dotar a IA de un contexto o situación, una conversación y el intercambio del ser humano con aplicaciones de RA/VR, ya sea de uso espacial, educacional, de investigación o exploración.

Otra de las previsiones del uso de la Ingeniería de Preguntas es la posibilidad de lograr una traducción simultánea en lenguas habladas y escritas, aprovechando los contextos en varios idiomas para que la IA traduzca bidireccionalmente en tiempo real y en la forma más fidedigna posible. El impacto de esto es la comunicación en contextos empresariales, multiculturales, diplomáticos y personales, tomando en cuenta los dialectos regionales, los matices culturales y los patrones del habla.

En cuanto a la creatividad interdisciplinar, la Ingeniería de Preguntas puede impulsar a IA para generar arte, historias, obras y música, combinándose con la creatividad humana. Desde luego, esto puede tener implicaciones éticas, aunque también se democratiza el acceso de IA con fines artísticos.

Desde luego, a medida que la Ingeniería de Preguntas va madurando, se plantean cuestiones sobre equidad, respeto y alineación con los valores morales, desde la propia formulación de la consulta hasta el tipo de respuestas que pueden derivarse. Hay que tener en mente que en el futuro de IA y la Ingeniería de Preguntas, la tecnología siempre será un reflejo de las personas.

Desafíos y Oportunidades

Como hemos visto, la Ingeniería de Preguntas representa la oportunidad de desarrollar Preguntas bien diseñadas que mejoren la funcionalidad de la IA, en forma más eficiente y efectiva. La ventaja de esto es que se pueden agilizar tareas cotidianas, además de ampliar el conocimiento en diversos temas e impulsar la creatividad. Se fomenta también la inclusión cuando se implementa adecuadamente, con un impacto positivo en las experiencias de género.

La otra cara de la moneda son las preguntas mal diseñadas que pueden resultar en respuestas de IA con sesgos, prejuicios o datos erróneos. De ahí que las consideraciones éticas en la Ingeniería de Preguntas pueden mitigar estos riesgos, sin comprometer la equidad, el respeto y la inclusión. También, la falta de aplicación de mejores prácticas, incluso por profesionales en la materia, podrían no lograr el resultado deseado en el primer intento y resultar difícil de encontrar un punto adecuado para iniciar el proceso.

Asimismo, puede ser difícil controlar el nivel de creatividad y singularidad del resultado. A menudo, los profesionales de Ingeniería de Preguntas pueden proporcionar información adicional en el mensaje que puede confundir al modelo de IA y afectar la precisión de la respuesta.

Conclusiones

En la economía digital, las experiencias más memorables serán aquéllas en que se aprovechan los datos y se combinan con el conocimiento humano para así anticiparse a las necesidades del cliente, con empatía y personalización. En este entorno, la IA se convierte en el colaborador digital, no solo como punto de contacto con el cliente, sino que también como impulsor de productividad en la organización. Cierto es que GPT ha ganado tracción en una búsqueda de mayor acercamiento al cliente; sin embargo, se basa en frecuencia y asociación de palabras, careciendo de la capacidad para discriminar la información correcta de la incorrecta. Es en esta necesidad de mejorar la calidad de respuestas que la Ingeniería de Preguntas toma relevancia para desarrollar y optimizar los modelos de lenguaje natural de IA y obtener calidad y precisión en sus respuestas, basándose en una mayor comprensión de la intención del usuario. Sin duda alguna, la demanda del Ingeniero de Preguntas crecerá confirme las organizaciones requieran de profesionales que sepan comprender la naturaleza de las herramientas basadas en IA.

Claro es que, conforme la adopción de la Ingeniería de Preguntas madure se seguirán planteando cuestiones de equidad, respeto y alineación con los valores morales en la formulación de los prompts y los resultados, por lo que se requiere de técnicas adecuadas para lograr su implementación sin sesgos o prejuicios. Para emprender este viaje a la Ingeniería de Preguntas, se recomienda acompañarse por un socio de tecnología que transmita a su equipo las mejores técnicas y prácticas para su implementación.

Shares