Ir al contenido principal

Las 30 preguntas y respuestas más frecuentes sobre IA agencial para 2026

Prepárate para tu próxima entrevista con esta completa lista de preguntas sobre IA agencial y respuestas cuidadosamente elaboradas.
Actualizado 6 ene 2026  · 15 min leer

La IA agencial se está adoptando rápidamente en todos los sectores, y muchas empresas nuevas buscan ahora expertos en este campo. Este artículo incluye preguntas reales de entrevistas de trabajo para puestos de nivel inicial y medio, algunas de las cuales se me ocurrieron a mí y otras que ofrecen una visión general del campo.

Ten en cuenta que, en una entrevista real, es posible que te pidan que realices primero un ejercicio práctico. También es posible que te pidan que expliques tu enfoque para abordar este tipo de tareas, así que asegúrate de prepararte adecuadamente.

Algunas preguntas aquí abordan temas más amplios, lo que ofrece áreas adicionales de estudio. También recomiendo ser sincero durante la entrevista; a veces, incluso con toda la experiencia adecuada, es igual de importante haber pensado bien las respuestas con antelación.

Obtén una certificación superior en IA

Demuestra que puedes utilizar la IA de forma eficaz y responsable.
Certifícate, que te contraten

Preguntas básicas para una entrevista sobre IA agencial

Comenzaremos con algunas preguntas básicas que proporcionan definiciones y marcan la pauta del artículo. Algunos de ellos también incluyen consejos sobre lo que hay que preparar con antelación.

¿En qué aplicaciones de IA has trabajado?

Los entrevistadores querrán conocer tu experiencia de forma personal y detallada. No solo buscarán una lista de proyectos, ya que probablemente ya la tengan en tu currículum, sino que evaluarán la claridad con la que puedes explicar cada proyecto y tu función específica en él.

Asegúrate de preparar tu respuesta con antelación y de tener una idea clara de tu trabajo anterior. Practicar con un amigo o escribirlo puede ayudarte a organizar tus pensamientos.

¿Con qué bibliotecas, marcos y herramientas tienes experiencia? ¿Qué otras bibliotecas conoces?

Al igual que en la pregunta anterior, los entrevistadores querrán saber más de lo que figura en tu currículum. Prepárate para desglosar cada proyecto en el que hayas trabajado y explicar todas las tecnologías utilizadas.

Ten en cuenta que es posible que te hagan muchas preguntas de seguimiento en este momento. Es importante que un empleador comprenda tus habilidades específicas. Asegúrate de revisar o familiarizarte con bibliotecas como LlamaIndex o LangChain, ya que son las bibliotecas de desarrollo de alto nivel más utilizadas. Además, familiarízate con proveedores de modelos como Huggingface u Ollama.

¿Qué es la IA agencial y en qué se diferencia de la IA tradicional?

La IA agencial se refiere a los sistemas de inteligencia artificial que pueden actuar de forma autónoma, establecer sus propios objetivos y adaptarse a entornos cambiantes. Por el contrario, la IA tradicional suele funcionar con reglas predefinidas, tomando entradas y produciendo salidas.

Por ejemplo, puedes hablar de tus propios proyectos o mencionar otras aplicaciones de IA agencial que hayas utilizado o de las que hayas oído hablar. Para obtener una explicación más detallada de cada uno, recomiendo leer el siguiente artículo sobre IA agencial.

¿Qué es lo que te entusiasma de trabajar con la IA agencial?

Esta es una pregunta habitual destinada a comprender tus motivaciones e intereses. Por lo general, se trata de una pregunta muy abierta que te permite ir en cualquier dirección y hablar con sinceridad con el entrevistador.

Ten preparada una historia o una explicación interesante para esto, asegúrate de mostrarte entusiasta, específico e intenta hablar de algo relacionado con el puesto. Si no puedes concretar algo en particular, intenta hablar sobre un producto que utilices y por qué te parece emocionante o interesante.

¿Puedes dar un ejemplo de una aplicación de IA agencial y hablar sobre sus componentes?

Por ejemplo, hablemos de un coche autónomo. En primer lugar, consideremos los objetivos que debe cumplir el coche: debe conducir y circular por las carreteras de forma autónoma, trazar rutas óptimas, evitar obstáculos y, lo más importante, garantizar la seguridad de los pasajeros.

Una vez establecidos los objetivos, podemos analizar cómo se podría estructurar la aplicación. Un modelo principal podría encargarse de conducir el coche, recibiendo información continua o bajo demanda de modelos más pequeños que se ocupan de tareas como la optimización de rutas o la recuperación de información medioambiental.

Durante la entrevista, puedes profundizar en cada uno de estos componentes. No dudes en aportar tus propios ejemplos.

¿Con qué LLM has trabajado hasta ahora?

Prepárate para hablar en detalle sobre los modelos concretos con los que has trabajado. Los empleadores querrán saber qué tan bien comprendes el modelo internamente. Por ejemplo, prepárate para hablar sobre modelos de código abierto como Llama o modelos GPT patentados.

Esta es también una buena oportunidad para mencionar nuevos modelos y demostrar al entrevistador que estás al día. Por ejemplo, puedes hablar sobre Deepseek R1 y otros modelos de razonamiento.

¿Cuál es tu experiencia con el uso de LLM a través de la API?

Esta pregunta se refiere al uso de LLM a través de la API en lugar de una ventana de chat. Prepárate para hablar sobre tus proyectos si utilizan API. Asegúrate de revisar el uso de las API, la generación y el almacenamiento de claves secretas, la supervisión de los costes y los diferentes proveedores de modelos. Este también podría ser un buen momento para hablar de tu experiencia en ingeniería.

Si no tienes suficiente experiencia en el uso de LLM a través de la API, ten en cuenta estos recursos:

¿Has utilizado modelos de razonamiento?

Con la aparición de modelos de razonamiento como OpenAI o3 y DeepSeek-R1, los empleadores querrán saber cuál es tu experiencia y familiaridad con ellos. Va más allá de simplemente seleccionar un modelo diferente en una aplicación o llamada a la API, ya que estos modelos producen tokens de pensamiento y, a menudo, requieren un patrón de uso diferente.

Podrías causar una buena impresión si sabes cómo ajustar y ejecutar localmente un modelo de código abierto, ya que esto es algo que la empresa en la que estás solicitando empleo podría necesitar. Para practicar, considera ajustar DeepSeek-R1 y ejecutarlo localmente:

¿Utilizas los LLM en tu flujo de trabajo diario? Si es así, ¿para qué?

Si utilizas LLM en tu flujo de trabajo, esta podría ser tu oportunidad para demostrar tu experiencia. Puedes hablar sobre las herramientas que has utilizado, lo que te ha gustado o disgustado de ellas, e incluso sobre las cosas que esperas con interés. Considera mencionar herramientas populares como Cursor, NotebookLM, Lovable, Replit, Artefactos de Claude, Manus AI, etc.

¿Qué fuentes utilizas para mantenerte al día sobre la IA agencial?

Algunos empleadores querrán saber qué tan actualizado estás o puedes estar en materia de IA. Las fuentes que puedes incluir en tu respuesta son conferencias sobre IA, foros, boletines informativos, etc.

¿Te sientes cómodo leyendo y comprendiendo documentos y documentación?

Leer literatura, artículos y documentación forma parte de casi cualquier trabajo relacionado con la IA. También es posible que te pregunten sobre tu enfoque general respecto al aprendizaje o la recuperación de información. Es recomendable no dar la impresión de depender excesivamente de los chatbots en tus respuestas.

Prepárate para hablar sobre un artículo reciente que hayas leído; por ejemplo, puedes hablar sobre la arquitectura Titans de Google.

Preguntas de entrevista sobre IA agencial intermedia

Ahora que ya hemos aclarado las cuestiones básicas, podemos profundizar un poco más y abordar algunas cuestiones intermedias que podrían plantearse o servir como buena referencia.

¿Cuál es tu opinión sobre la ética de esta función y la IA agencial en general?

Creo que es una pregunta bastante poco habitual, pero aún así es bueno pensar en ella, quizá incluso en general y no solo para una entrevista. Puedes pensar en ideas relacionadas con el puesto que solicitas o en ideas más generales, como las aplicaciones de IA que toman decisiones que afectan a la vida de las personas. La pregunta definitivamente no tiene una respuesta correcta y, por lo general, solo sirve para comprobar cuánto te importa o has pensado en el campo.

¿Qué riesgos de seguridad deben tenerse en cuenta al implementar agentes de IA autónomos?

Hay varias cuestiones de seguridad que debes tener en cuenta al implementar agentes de IA autónomos. Un riesgo es que el modelo pueda tener acceso a herramientas o bases de datos internas confidenciales. Si el modelo no está correctamente aislado o autorizado, un usuario malintencionado podría utilizar inyección de comandos o entradas adversas para extraer datos privados o desencadenar acciones no deseadas.

Otro riesgo es la manipulación del comportamiento del modelo mediante indicaciones cuidadosamente elaboradas o entradas externas. Un atacante podría inducir al modelo a ignorar las restricciones de seguridad, escalar privilegios o comportarse de manera que se desvíe de su función prevista.

También existe la posibilidad de ataques de tipo denegación de servicio, en los que el modelo se ve desbordado por las solicitudes o se le engaña para que detenga sus propias operaciones. Si un agente controla infraestructuras críticas o flujos de trabajo automatizados, esto podría provocar interrupciones más graves.

Para mitigar estos riesgos, es importante aplicar los principios de la seguridad tradicional del software: privilegios mínimos, validación rigurosa de las entradas, supervisión, limitación de la velocidad y análisis continuo del comportamiento del agente.

Introducción a los agentes de IA

Aprende los fundamentos de los agentes de IA, sus componentes y su uso en el mundo real, sin necesidad de programar.

¿Qué trabajos humanos crees que pronto serán sustituidos por aplicaciones de IA agencial y por qué?

Los entrevistadores pueden hacerte esta pregunta para comprender tu conocimiento sobre las capacidades actuales de la IA agencial. No solo buscarán una lista, sino una explicación detallada de tu razonamiento.

Por ejemplo, personalmente no creo que los médicos vayan a ser sustituidos en un futuro próximo, especialmente aquellos cuyas decisiones afectan directamente a vidas humanas, y eso tiene que ver con la ética. Hay mucho que explorar aquí, e incluso puedes debatir si crees que es bueno o malo que ciertos puestos de trabajo sean sustituidos por la IA.

¿Puedes describir algunos de los retos a los que te has enfrentado al trabajar en una aplicación de IA?

Aunque se trata de una pregunta sobre ti, la he incluido en la sección intermedia porque es bastante habitual y los entrevistadores suelen darle mucha importancia. Definitivamente necesitas tener preparado un ejemplo sólido, no intentes inventar algo en el momento.

Si aún no te has enfrentado a ningún reto importante, intenta al menos hablar de una situación teórica y de cómo la manejarías.

Preguntas avanzadas sobre inteligencia artificial agencial para entrevistas

Por último, analicemos algunas cuestiones más avanzadas y técnicas. Intentaré ser lo más general posible, aunque normalmente durante la entrevista real las preguntas pueden ser más específicas. Por ejemplo, en lugar de preguntar sobre la indexación en general, es posible que te pregunten sobre los diferentes métodos de indexación que admiten Langchain o Llama-Index.

¿Cuál es la diferencia entre el sistema y el mensaje de usuario?

Tanto las indicaciones del sistema como las del usuario son entradas que se proporcionan a un modelo de lenguaje, pero cumplen funciones diferentes y suelen tener distintos niveles de influencia.

La instrucción ocultadel sistema « » establece el comportamiento general o la personalidad del modelo. No es directamente visible para el usuario durante una conversación, pero desempeña un papel fundamental. Por ejemplo, el sistema podría indicar al modelo que actúe como un asistente útil, un matemático o un planificador de viajes. Define el tono, el estilo y las limitaciones de la interacción.

Por otro lado,la indicación para el usuario es la entrada que el usuario escribe directamente, como una pregunta o una solicitud. Esto es lo que responde el modelo en tiempo real.

En muchas configuraciones, la indicación del sistema tiene más peso, lo que ayuda a mantener un comportamiento coherente entre sesiones, mientras que la indicación del usuario determina el contenido específico de cada respuesta.

¿Cómo se programa un sistema de IA agencial para priorizar determinados objetivos o tareas que compiten entre sí?

Los sistemas de IA agencial suelen programarse definiendo objetivos claros, asignando las herramientas adecuadas y estructurando la lógica que determina cómo prioriza el agente las tareas cuando los objetivos entran en conflicto. Esto suele implicar el uso de una combinación de indicaciones, llamadas a funciones y lógica de coordinación, a veces en varios modelos o subsistemas.

Un enfoque consiste en definir una jerarquía de objetivos y asignar ponderaciones o reglas que guíen al agente a la hora de elegir qué tarea llevar a cabo cuando surgen conflictos. Algunos sistemas también utilizan componentes de planificación o pasos de razonamiento intermedios (como bucles de reflexión o blocs de notas) para evaluar las ventajas e inconvenientes antes de actuar.

Si eres nuevo en esto, te recomiendo que empieces por el artículo de Anthropic sobre patrones de diseño de agentes. Ofrece ejemplos concretos y arquitecturas comunes utilizadas en sistemas del mundo real. Muchos de los conceptos te resultarán familiares si tienes experiencia en ingeniería de software, especialmente en lo que se refiere al diseño modular, la gestión de estados y la ejecución de tareas asíncronas.

¿Te sientes cómodo con las indicaciones y la ingeniería de indicaciones? ¿Qué enfoques has oído o utilizado?

La ingeniería de prompts es un componente importante de un sistema de IA agencial, pero también es un tema que tiende a suscitar estereotipos, por lo que es importante evitar declaraciones vagas sobre su importancia y centrarse en los detalles técnicos de cómo se aplica.

Esto es lo que yo consideraría una buena respuesta:

Me siento bastante cómodo con las indicaciones y la ingeniería de indicaciones, y he utilizado varias técnicas tanto en proyectos como en tareas cotidianas. Por ejemplo, yo utilizo habitualmente las indicaciones de pocos disparos para guiar a los modelos hacia un formato o tono específico proporcionando ejemplos. También utilizo la cadena de pensamiento cuando necesito que el modelo razone paso a paso, lo cual es especialmente útil para tareas como la codificación, los rompecabezas lógicos o la planificación.

En aplicaciones más estructuradas, he experimentado con ajustes de indicaciones y la compresión de indicaciones, especialmente cuando trabajas con API que cobran por número de tokens o requieren un control estricto sobre los resultados. Estas técnicas implican destilar las indicaciones hasta sus componentes más esenciales, conservando al mismo tiempo la intención y el rendimiento.

Dado que el campo está evolucionando rápidamente, tengo la costumbre de leer artículos recientes, repositorios de GitHub y actualizaciones de documentación, manteniéndome al día con técnicas como llamada a funciones, las indicaciones aumentadas con recuperación y el encadenamiento de cadenas de indicaciones modulares encadenamiento de indicaciones modulares.

¿Qué es una ventana de contexto? ¿Por qué tu tamaño es limitado?

Una ventana de contexto se refiere a la cantidad máxima de información, medida en tokens, que un modelo de lenguaje puede procesar a la vez. Esto incluye el mensaje actual, cualquier historial de conversaciones anteriores e instrucciones a nivel del sistema. Una vez alcanzado el límite de la ventana de contexto, los tokens más antiguos pueden ser truncados o ignorados.

La razón por la que la ventana de contexto es limitada se debe a restricciones computacionales y arquitectónicas. En modelos basados en transformadores, los mecanismos de atención requieren calcular las relaciones entre todos los tokens del contexto, lo que crece cuadráticamente con el número de tokens. Esto hace que el procesamiento de contextos muy largos resulte costoso y lento, especialmente en el hardware actual. Los modelos anteriores, como las RNN, no tenían un límite de contexto tan estricto, pero tenían dificultades para conservar eficazmente las dependencias de largo alcance.

¿Qué es la generación aumentada por recuperación (RAG)?

La generación aumentada por recuperación (RAG) es una técnica que mejora los modelos lingüísticos al permitirles recuperar información relevante de fuentes externas antes de generar una respuesta. En lugar de basarse únicamente en lo que el modelo ha aprendido durante el entrenamiento, los sistemas RAG pueden acceder a datos actualizados o específicos del dominio en el momento de la inferencia.

Una configuración típica de RAG tiene dos componentes principales: un recuperador, que busca en una base de datos o colección de documentos el contexto relevante basándose en la consulta introducida, y un generador, que utiliza la información recuperada para producir una respuesta más precisa y documentada. Este enfoque resulta especialmente útil para tareas que requieren precisión factual, memoria a largo plazo o conocimientos específicos de un ámbito concreto.

¿Qué otras arquitecturas LLM conoces además del transformador?

Aunque el transformador es la arquitectura dominante en la IA actual, hay otros tipos de modelos que vale la pena conocer. Por ejemplo, xLSTM se basa en la arquitectura LSTM con mejoras que optimizan el rendimiento en secuencias largas, al tiempo que mantienen la eficiencia.

Mamba es otra arquitectura prometedora: utiliza modelos de espacio de estado selectivos para gestionar el procesamiento de contexto largo de forma más eficiente que los transformadores, especialmente para tareas que no requieren una atención total sobre cada token.

También merece la pena echar un vistazo a la arquitectura Titans de Google también merece la pena echarle un vistazo. Está diseñado para abordar algunas de las limitaciones clave de los transformadores, como la falta de memoria persistente y los altos costes computacionales.

Estas arquitecturas alternativas tienen como objetivo hacer que los modelos sean más eficientes, escalables y capaces de manejar entradas más largas o complejas sin requerir grandes recursos de hardware.

¿Qué son el uso de herramientas y la llamada a funciones en los LLM?

Las llamadas a herramientas y funciones permiten que los modelos de lenguaje grandes interactúen con sistemas externos, como API, bases de datos o funciones personalizadas. En lugar de basarse únicamente en conocimientos previos, el modelo puede reconocer cuándo una tarea requiere información actualizada o especializada y responder utilizando la herramienta adecuada.

Por ejemplo, si le preguntas a un modelo con acceso a una API meteorológica «¿Qué tiempo hace en Londres?», este puede decidir llamar a esa API en segundo plano y devolver los datos en tiempo real, en lugar de generar una respuesta genérica u obsoleta. Este enfoque hace que los modelos sean más útiles y fiables, especialmente para tareas que implican datos en tiempo real, cálculos o acciones fuera de las capacidades internas del modelo.

¿Qué es la cadena de pensamiento (CoT) y por qué es importante en las aplicaciones de IA agencial?

La cadena de pensamiento (CoT) es una técnica de sugerencia que ayuda a los modelos lingüísticos a desglosar problemas complejos en razonamientos paso a paso antes de producir una respuesta final. Permite que el modelo genere pasos de razonamiento intermedios, lo que mejora la precisión y la transparencia, especialmente en tareas que implican lógica, matemáticas o toma de decisiones en varios pasos.

El CoT se utiliza ampliamente en los sistemas de IA agencial. Por ejemplo, cuando un modelo actúa como juez en una evaluación, puedes pedirle que explique su respuesta paso a paso para comprender mejor su proceso de decisión. CoT también es una técnica fundamental en modelos centrados en el razonamiento, como OpenAI o1, en los que el modelo genera primero tokens de razonamiento antes de utilizarlos para producir el resultado final. Este proceso de pensamiento estructurado hace que el comportamiento de los agentes sea más interpretable y fiable.

¿Qué es el rastreo? ¿Qué son los spans?

El seguimiento es el proceso de registrar y visualizar la secuencia de eventos que ocurren durante una sola ejecución o llamada de una aplicación. En el contexto de las aplicaciones LLM, un rastro captura la cronología completa de las interacciones, como múltiples llamadas a modelos, uso de herramientas o puntos de decisión, dentro de un flujo de ejecución.

Un intervalo es un evento o una operación únicos dentro de esa traza. Por ejemplo, una llamada a un modelo, una invocación de función o un paso de recuperación se registrarían como intervalos individuales. En conjunto, los intervalos te ayudan a comprender la estructura y el comportamiento de tu aplicación.

El rastreo y los intervalos son esenciales para depurar y optimizar los sistemas agenticos. Facilitan la detección de fallos, cuellos de botella de latencia o comportamientos no deseados. Herramientas como Arize Phoenix y otras proporcionan interfaces visuales para inspeccionar trazas y intervalos en detalle.

¿Qué son las evaluaciones? ¿Cómo evalúas el rendimiento y la solidez de un sistema de IA agencial?

Las evaluaciones son, en esencia, las pruebas unitarias de la ingeniería de IA agencial. Permiten a los programadores evaluar el rendimiento del sistema en diferentes escenarios y casos extremos. Hoy en día se utilizan habitualmente varios tipos de evaluaciones. Un enfoque consiste en utilizar un conjunto de datos de referencia recopilados manualmente para comparar los resultados del modelo con las respuestas correctas conocidas.

Otro enfoque consiste en utilizar un LLM como juez para evaluar la calidad, la precisión o el razonamiento que hay detrás de las respuestas del modelo. Algunas evaluaciones comprueban el éxito general de la tarea, mientras que otras se centran en componentes individuales como el uso de herramientas, la planificación o la coherencia. Ejecutarlos con regularidad ayuda a identificar regresiones, medir mejoras y garantizar que el sistema siga siendo fiable a medida que evoluciona. Para profundizar más, te recomiendo que consultes esta guía de evaluación de LLM.

¿Puedes hablar sobre la arquitectura del transformador y su importancia para la IA agencial?

La arquitectura del transformador se presentó en el influyente artículo de 2017 «Attention Is All You Need» (La atención es todo lo que necesitas). Si aún no lo has leído, vale la pena hacerlo, ya que sentó las bases de casi todos los modelos lingüísticos modernos de gran tamaño.

Desde su lanzamiento, se han desarrollado muchas variaciones y mejoras, pero la mayoría de los modelos utilizados en los sistemas de IA agencial siguen basándose en alguna forma del transformador.

Una ventaja clave del transformador es su mecanismo de atención, que permite al modelo calcular la relevancia de cada token de la secuencia de entrada con respecto a todos los demás tokens, siempre que todo encaje en la ventana de contexto. Esto permite un gran rendimiento en tareas que requieren comprender dependencias a largo plazo o razonar a partir de múltiples entradas.

En el caso concreto de la IA agencial, la flexibilidad y el paralelismo del transformador lo hacen muy adecuado para manejar tareas complejas como el uso de herramientas, la planificación y el diálogo multiturno, comportamientos fundamentales en la mayoría de los sistemas agenciales actuales.

¿Qué es la observabilidad LLM y por qué es importante?

La observabilidad de los LLM se refiere a la capacidad de supervisar, analizar y comprender el comportamiento de los sistemas de modelos lingüísticos grandes en tiempo real. Es un término genérico que incluye herramientas como trazas, intervalos y evaluaciones, que ayudan a los programadores a obtener visibilidad sobre cómo funciona el sistema internamente.

Dado que los LLM suelen considerarse «cajas negras», la observabilidad es esencial para depurar errores, mejorar el rendimiento y garantizar la fiabilidad. Te permite rastrear cómo interactúan los modelos entre sí y con herramientas externas, identificar puntos de fallo y detectar comportamientos inesperados de forma temprana. En los sistemas de IA agenciales, en los que se encadenan múltiples pasos y decisiones, la observabilidad es especialmente importante para mantener la confianza y el control.

¿Podéis explicar qué es el ajuste fino de modelos y la destilación de modelos?

El ajuste del modelo es el proceso de tomar un modelo preentrenado y entrenarlo aún más con un nuevo conjunto de datos, normalmente para especializarlo en un dominio o tarea específicos. Esto permite que el modelo adapte su comportamiento y respuestas basándose en conocimientos más específicos o actualizados.

La destilación de modelos es una técnica relacionada en la que se entrena un modelo más pequeño o con menos capacidad a partir de los resultados de un modelo más grande y potente. El objetivo es transferir conocimientos y comportamientos del modelo más grande al más pequeño, lo que a menudo da como resultado modelos más rápidos y eficientes con un rendimiento comparable. Por ejemplo, desde el lanzamiento de Deepseek R1, se han creado muchos modelos más pequeños a partir de sus respuestas y han alcanzado una calidad impresionante en relación con su tamaño.

¿Cuál es la siguiente tarea de predicción de tokens y por qué es importante? ¿Qué son los modelos auxiliares?

La predicción del siguiente token, también conocida como modelado de lenguaje autorregresivo, es la tarea de entrenamiento fundamental que subyace a la mayoría de los modelos de lenguaje de gran tamaño. El modelo está entrenado para predecir el siguiente token de una secuencia a partir de todos los tokens anteriores. Este sencillo objetivo permite al modelo aprender gramática, hechos, patrones de razonamiento e incluso algunas capacidades de planificación. El resultado de esta fase inicial de entrenamiento se denominamodelo base de « » (aprendizaje profundo).

Los modelos auxiliares son modelos básicos que se han perfeccionado para que sean más útiles, seguros y conversacionales. Este ajuste suele implicar técnicas como el ajuste de la instrucción supervisada y aprendizaje por refuerzo con retroalimentación humana (RLHF), que guían al modelo para que responda más como un asistente en lugar de limitarse a completar el texto.

¿Qué es el enfoque «human-in-the-loop» (HITL)?

El enfoque «human-in-the-loop» (HITL) se refiere a la participación de seres humanos en el entrenamiento, la evaluación o el uso en tiempo real de un sistema LLM o de IA agencial. La intervención humana puede producirse en diversas etapas: durante el entrenamiento del modelo (por ejemplo, etiquetando datos, clasificando respuestas), durante el ajuste (como en RLHF) o incluso durante la ejecución, donde un humano puede guiar o aprobar las acciones de un agente.

Por ejemplo, si un chatbot te pide que elijas la mejor de dos respuestas, estás participando activamente en un proceso HITL. Este enfoque ayuda a mejorar la calidad, la seguridad y la alineación del modelo al incorporar el criterio humano en aquellos casos en los que la automatización por sí sola puede resultar insuficiente.

Conclusión

En este artículo, hemos abordado una serie de preguntas que pueden surgir en una entrevista sobre IA agencial, junto con estrategias para reflexionar, investigar y responderlas de manera eficaz. Para profundizar en el tema, recomiendo consultar las referencias mencionadas a lo largo del artículo y echar un vistazo a los cursos de IA de DataCamp sobre el tema para un aprendizaje más estructurado.


Dimitri Didmanidze's photo
Author
Dimitri Didmanidze
LinkedIn
Soy Dimitri Didmanidze, un científico de datos que actualmente cursa un Máster en Matemáticas con especialización en Aprendizaje Automático. Mi trayectoria académica también ha incluido la investigación sobre las capacidades de los modelos basados en transformadores y la docencia a nivel universitario, lo que ha enriquecido mi comprensión de conceptos teóricos complejos. También he trabajado en el sector bancario, donde he aplicado estos principios para afrontar retos de datos del mundo real.
Temas

¡Aprende IA con estos cursos!

programa

EU AI Fundamentos de la Ley

8 h
Domina la Ley EU AI y los fundamentos de la IA. Aprende a sortear las normativas y a fomentar la confianza con la IA Responsable.
Ver detallesRight Arrow
Iniciar curso
Ver másRight Arrow