¿Y si el problema no es la IA, sino cómo le hablamos? Crónica de un prompt fallido
Una historia real de cómo descubrí que el problema no era la máquina, sino mi forma de explicarme.
Cuando hablamos de Inteligencia Artificial, específicamente de Inteligencia Artificial Generativa, es evidente que a partir del 30 de noviembre de 2022 el impacto y la masificación que ha tenido esta tecnología (a través de herramientas como ChatGPT, Gemini, Grok, Claude, Perplexity, entre muchas otras), ha sido poco menos que impresionante. Ha permeado la economía, la sociedad, la cultura, la política... y eso que apenas estamos viendo su impacto inicial.
Por eso es clave empezar a familiarizarnos con cómo podemos sacarle más provecho a estas herramientas. Siguiendo la misma analogía que hemos usado en artículos anteriores, la de la ensalada, tenemos los ingredientes, luego la receta, y al final “la salida”, que es la ensalada servida.
En el caso de la Inteligencia Artificial Generativa, la entrada es lo que se conoce como el prompt. No es una traducción exacta, pero es bastante aproximada: el prompt son las instrucciones que yo le doy a la herramienta. Siguiendo la analogía, la receta sería el algoritmo o el modelo, que procesa esa instrucción para generar el resultado. Y ese resultado dependerá tanto de lo que yo escriba como del modelo que lo procese.
Ahora bien, ¿qué parte de este proceso realmente puedo controlar? El algoritmo, claramente no. Nuestro margen de influencia sobre el modelo es muy limitado. Tal vez podemos dar retroalimentación (“me gustó” / “no me gustó”), o corregir una respuesta, o hacerle precisiones para mejorarla... pero lo que sí está completamente bajo nuestro control es el prompt.
Por eso es tan importante empezar a refinar la forma en que estructuramos nuestros prompts. En términos simples, un prompt son esas instrucciones que le damos a la herramienta esperando obtener una respuesta que se acerque a lo que queremos. Esta práctica se ha sofisticado tanto que ya se conoce como Prompt Engineering, o Ingeniería de Instrucciones, y combina tanto ciencia como arte. Se trata de aprender a comunicar de manera precisa lo que queremos que la IA haga por nosotros.
La realidad es que no siempre obtenemos lo que esperamos en el primer intento.
Por eso, hay dos elementos claves en este proceso:
Tener una mentalidad exploratoria, abierta a descubrir cosas nuevas en el camino.
Asumir una actitud iterativa, entendiendo que muy probablemente necesitaremos probar, ajustar y volver a intentar.
A veces la herramienta acierta al primer intento. Otras veces hay que probar una y otra vez. En mi caso, una vez necesitaba hacer un informe con gráficas y análisis de datos. Estimaba que, por la complejidad y el volumen de información, me iba a tomar unas dos o tres semanas. Esto fue en 2024. Decidí explorar si ChatGPT podía ayudarme a hacer el proceso más eficiente.
Solo en encontrar el prompt adecuado tuve que dedicar medio día. Estuve probando la redacción, la estructura, buscando cómo explicar mejor lo que quería. A veces corregía un detalle, pero el resultado salía mal en otra parte. Frustrante, sí, pero parte del proceso. Al final, cuando por fin encontré el prompt correcto, hacer el informe completo me tomó solo un día. Lo que antes hubiera tomado tres semanas, se resolvió en 24 horas. La clave: iterar, experimentar, refinar.
En una conferencia, alguien dijo algo que al principio me sonó duro, pero ahora lo entiendo bien:
“El resultado que obtengo con ChatGPT habla más de mi capacidad para expresarme que de la capacidad de la herramienta para responder.”
Muchas veces no es que la herramienta no sepa, es que el prompt no está bien formulado. Por eso, una recomendación esencial es que, al escribir nuestros prompts, seamos lo más claros, específicos y estructurados posible. Y si el resultado no es el esperado, lo analicemos, ajustemos el prompt y volvamos a intentarlo. Puede llevar tiempo al inicio, pero con la práctica, los resultados mejoran muchísimo.
Ahora bien, para facilitar ese proceso de iteración, existen los llamados marcos de prompt. Son estructuras que otras personas ya han probado, optimizado y compartido, y que nos sirven como “atajos” para obtener buenos resultados desde el inicio. Como decía Newton, es “pararse sobre hombros de gigantes”.
Uno de los marcos más conocidos tiene cuatro componentes:
Rol
Contexto
Tarea
Formato de salida
Aquí va un ejemplo:
Rol: Actúa como agente de servicio al cliente, experto en soporte técnico.
Contexto: Durante la semana se han presentado casos repetitivos de recalentamiento de computadores en una fábrica en Barranquilla.
Tarea: Define recomendaciones para disminuir este tipo de casos.
Formato de salida: Las recomendaciones deben presentarse en una tabla con tres columnas: “Recomendación”, “Área de aplicación” y “Objetivo”.
Como se ve es claro, estructurado y específico. Este tipo de marcos puede ayudar mucho a mejorar tus resultados con la IA desde el primer intento, o al menos, a iterar con una mejor base. En este enlace te compartimos algunos de los marcos de prompt más populares.
Para el caso de la Inteligencia Artificial Generativa de imágenes, aplica el mismo principio: ser lo más específicos posible:
Un consejo para generar imágenes es pedirle a la herramienta (como CHATGPT), que nos construya un ‘prompt’ para generar la imagen: