Saltar al contenido principal

Las 30 mejores preguntas y respuestas de la entrevista sobre Inteligencia Artificial Agéntica para 2025

Prepárate para tu próxima entrevista con esta completa lista de preguntas para entrevistas sobre IA agéntica y respuestas cuidadosamente elaboradas.
Actualizado 21 mar 2025  · 15 min de lectura

La IA agéntica se está adoptando rápidamente en todos los sectores, y muchas empresas nuevas buscan ahora expertos en este campo. Este artículo incluye preguntas reales de entrevistas de trabajo de nivel inicial y medio, algunas que se me ocurrieron a mí, y otras que ofrecen una comprensión general del campo.

Ten en cuenta que, en una entrevista real, es posible que te pidan que realices primero un ejercicio práctico. También podrían pedirte que expliques tu enfoque de dichas tareas, así que asegúrate de prepararte adecuadamente.

Algunas preguntas tocan temas más amplios, ofreciendo áreas de estudio adicionales. También recomiendo ser auténtico durante la entrevista: a veces, incluso con toda la experiencia adecuada, es igual de importante haber pensado tus respuestas de antemano.

Obtén una certificación superior en IA

Demuestra que puedes utilizar la IA de forma eficaz y responsable.
Certifícate, que te contraten

Preguntas básicas de la entrevista sobre IA Genética

Empezaremos con algunas preguntas básicas que proporcionan definiciones y marcan el tono del artículo. Algunos de ellos también incluyen consejos sobre qué preparar con antelación.

¿En qué aplicaciones de IA has trabajado?

Los entrevistadores querrán oír hablar de tu experiencia de forma personal y detallada. No se limitarán a buscar una lista de proyectos -puesto que probablemente ya la tengan por tu currículum-, sino que evaluarán la claridad con la que puedes explicar cada proyecto y tu papel específico en él.

Asegúrate de preparar tu respuesta con antelación y de tener una idea clara de tu trabajo anterior. Practicar con un amigo o escribirlo puede ayudarte a organizar tus pensamientos.

¿Con qué bibliotecas, frameworks y herramientas tienes experiencia? ¿De qué otras bibliotecas has oído hablar?

Al igual que en la pregunta anterior, los entrevistadores querrán oír algo más que lo que figura en tu currículum. Prepárate para desglosar cada proyecto en el que hayas trabajado y explicar todas las tecnologías utilizadas.

Ten en cuenta que en este punto te pueden hacer muchas preguntas de seguimiento. Es importante que un empresario conozca con precisión tu conjunto de competencias. Asegúrate de revisar o familiarizarte con bibliotecas como LlamaIndex o LangChainya que son las bibliotecas de desarrollo de alto nivel más utilizadas. Además, ponte cómodo con proveedores de modelos como Huggingface o Ollama.

¿Qué es la IA agéntica y en qué se diferencia de la IA tradicional?

La IA agéntica se refiere a los sistemas de inteligencia artificial que pueden actuar de forma autónoma, establecer sus propios objetivos y adaptarse a entornos cambiantes. En cambio, la IA tradicional suele funcionar con reglas predefinidas, tomando entradas y produciendo salidas.

A modo de ejemplo, puedes hablar de tus propios proyectos o mencionar otras aplicaciones de IA agéntica que hayas utilizado o de las que hayas oído hablar. Para una explicación más detallada de cada una de ellas, recomiendo leer el siguiente artículo sobre IA agéntica.

¿Qué te entusiasma de trabajar con IA agéntica?

Se trata de una pregunta habitual destinada a comprender tus motivaciones e intereses. Normalmente muy abierta, la pregunta te permite ir en cualquier dirección y hablar genuinamente con el entrevistador.

Ten preparada una bonita historia o una explicación para esto, asegúrate de ser entusiasta, específico e intenta hablar de algo relacionado con el papel. Si no puedes concretar algo en particular, intenta hablar de un producto que utilices y por qué es emocionante o interesante.

¿Puedes dar un ejemplo de una aplicación de IA agéntica y hablar de sus componentes?

Por ejemplo, hablemos de un coche autoconducido. En primer lugar, considera los objetivos que debe cumplir el coche: debe conducir y recorrer carreteras de forma autónoma, construir rutas óptimas, evitar obstáculos y, lo más importante, mantener a salvo a los pasajeros.

Una vez fijados los objetivos, podemos estudiar cómo estructurar la aplicación. Un modelo principal podría encargarse de conducir el coche, recibiendo información continua o a demanda de modelos más pequeños que se encargan de tareas como la optimización de la ruta o la recuperación de información medioambiental.

Durante la entrevista, puedes profundizar en cada uno de estos componentes. Siéntete libre de proponer también tus propios ejemplos.

¿Con qué LLM has trabajado hasta ahora?

Prepárate para hablar en detalle de modelos concretos con los que hayas trabajado. Los empresarios querrán saber hasta qué punto comprendes el modelo internamente. Por ejemplo, prepárate para hablar de modelos de código abierto como Llama o de modelos GPT propietarios.

También es una buena oportunidad para mencionar nuevos modelos y demostrar al entrevistador que te mantienes al día. Por ejemplo, puedes hablar de Deepseek R1 y otros modelos de razonamiento.

Llama Fundamentals

Experimenta con Llama 3 para ejecutar la inferencia en modelos preentrenados, afinarlos en conjuntos de datos personalizados y optimizar el rendimiento.

¿Cuál es tu experiencia con el uso de LLMs a través de la API?

Esta pregunta es sobre el uso de LLMs a través de la API en lugar de una ventana de chat. Prepárate para hablar de tus proyectos si utilizan API. Asegúrate de revisar el uso de las API, la generación y almacenamiento de claves secretas, la supervisión de los costes y los distintos proveedores de modelos. También puede ser un buen lugar para hablar de tu experiencia en ingeniería.

Si no tienes suficiente experiencia en el uso de LLMs a través de la API, ten en cuenta estos recursos:

¿Has utilizado modelos de razonamiento?

Con la aparición de modelos de razonamiento como OpenAI o3 y DeepSeek-R1, los empleadores querrán conocer tu experiencia y familiaridad con ellos. Va más allá de la simple selección de un modelo diferente en una aplicación o llamada a la API, ya que estos modelos producen tokens de pensamiento y a menudo requieren un patrón de uso diferente.

Podrías causar una buena impresión si sabes cómo poner a punto y ejecutar localmente un modelo de código abierto, ya que es algo que la empresa para la que te entrevistas podría necesitar. Para practicar, considera la posibilidad de ajustar DeepSeek-R1 y ejecutarlo localmente:

¿Utilizas LLM en tu flujo de trabajo diario? Si es así, ¿para qué?

Si utilizas LLMs en tu flujo de trabajo, ésta puede ser tu oportunidad de demostrar tu experiencia. Puedes hablar de las herramientas que has utilizado, de lo que te ha gustado o disgustado de ellas, e incluso de cosas que esperas con impaciencia. Considera mencionar herramientas populares como Cursor, CuadernoLM, Lovable, Reemplazar, Claude Artefactos, Manus AIetc.

¿Cuáles son algunas de las fuentes que utilizas para mantenerte al día sobre la IA agéntica?

Algunos empleadores querrán saber lo al día que estás o puedes estar con la IA. Las fuentes que podrías incluir en tu respuesta son Conferencias sobre IAforos, boletines, etc.

¿Te sientes cómodo leyendo y comprendiendo papeles y documentación?

Leer bibliografía, artículos y documentación forma parte de casi cualquier trabajo de IA. También podrían preguntarte sobre tu enfoque general para aprender o recuperar información. Es una buena idea no parecer demasiado dependiente de los chatbots en tu respuesta.

Prepárate para hablar de un artículo reciente que hayas leído; por ejemplo, puedes hablar de La Arquitectura de Titanes de Google.

Preguntas intermedias de la entrevista sobre IA Genética

Ahora, con las preguntas básicas fuera del camino, podemos profundizar un poco más y discutir algunas preguntas intermedias que podrían plantearse o servir de buena referencia.

¿Qué opinas sobre la ética de este papel y de la IA agéntica en general?

Creo que es una pregunta bastante rara, pero aun así es bueno reflexionar sobre ella, incluso de forma general y no particularmente para una entrevista. Puedes pensar en ideas tangentes al puesto que solicitas o en ideas más generales como aplicaciones de IA que tomen decisiones que afecten a vidas humanas. Definitivamente, la pregunta no tiene una respuesta correcta y, en general, sólo sirve para comprobar cuánto te interesa o has pensado sobre el tema.

¿Qué riesgos de seguridad deben tenerse en cuenta al desplegar agentes autónomos de IA?

Hay varios problemas de seguridad que hay que tener en cuenta al desplegar agentes autónomos de IA. Un riesgo es que el modelo pueda tener acceso a herramientas o bases de datos internas sensibles. Si el modelo no está correctamente protegido por un sandbox o por permisos, un usuario malintencionado podría utilizar inyección puntual o adversario para extraer datos privados o desencadenar acciones no deseadas.

Otro riesgo consiste en manipular el comportamiento del modelo mediante indicaciones cuidadosamente elaboradas o entradas externas. Un atacante podría inducir al modelo a ignorar las restricciones de seguridad, escalar privilegios o comportarse de forma que se desvíe de su función prevista.

También existe la posibilidad de que se produzcan ataques del tipo "denegación de servicio", en los que el modelo se ve desbordado por las peticiones o es engañado para que detenga sus propias operaciones. Si un agente controla infraestructuras críticas o flujos de trabajo automatizados, esto podría provocar interrupciones mayores.

Para mitigar estos riesgos, es importante aplicar los principios de la seguridad del software tradicional: mínimo privilegio, validación rigurosa de la entrada, supervisión, limitación de la tasa y redistribución continua del comportamiento del agente.

¿Qué trabajos humanos crees que pronto serán sustituidos por aplicaciones de IA agéntica y por qué?

Los entrevistadores podrían hacerte esta pregunta para entender tu comprensión de las capacidades de la IA agéntica en la actualidad. No buscarán sólo una lista, sino una explicación meditada de tu razonamiento.

Por ejemplo, personalmente no creo que los médicos vayan a ser sustituidos a corto plazo, sobre todo aquellos cuyas decisiones afectan directamente a vidas humanas, y eso está relacionado con la ética. Hay mucho que explorar aquí, e incluso puedes discutir si crees que es bueno o malo que ciertos trabajos sean sustituidos por la IA.

¿Puedes describir algunos retos a los que te has enfrentado al trabajar en una aplicación de IA?

Aunque se trata de una pregunta "tú", la he puesto en la sección intermedia porque es bastante habitual y los entrevistadores suelen darle mucha importancia. Definitivamente, tienes que tener preparado un ejemplo sólido, no trates de inventar algo sobre la marcha.

Si aún no te has enfrentado a ningún reto importante, intenta al menos hablar de una situación teórica y de cómo la manejarías.

Preguntas de la entrevista sobre IA Agenética Avanzada

Por último, vamos a discutir algunas cuestiones más avanzadas y técnicas. Intentaré ser lo más general posible, aunque en general durante la entrevista real las preguntas pueden ser más específicas. Por ejemplo, en lugar de preguntar por la indexación en general, podrían preguntarte por los distintos métodos de indexación que admiten Langchain o Llama-Index.

¿Cuál es la diferencia entre la consulta del sistema y la consulta del usuario?

Tanto las indicaciones del sistema como las del usuario son entradas que se dan a un modelo lingüístico, pero cumplen funciones distintas y suelen tener niveles de influencia diferentes.

La instrucción del sistema es una instrucción oculta que establece el comportamiento general o persona del modelo. No es directamente visible para el usuario durante una conversación, pero desempeña un papel fundamental. Por ejemplo, la indicación del sistema puede decirle al modelo que actúe como un ayudante, un matemático o un planificador de viajes. Define el tono, el estilo y las limitaciones de la interacción.

Por otro lado,la pregunta al usuario es la entrada que el usuario escribe directamente, como una pregunta o una petición. Esto es a lo que responde el modelo en tiempo real.

En muchas configuraciones, la indicación del sistema tiene más peso, ya que ayuda a mantener un comportamiento coherente en todas las sesiones, mientras que la indicación del usuario determina el contenido específico de cada respuesta.

¿Cómo se programa un sistema de IA agéntica para que priorice la competencia entre determinados objetivos o tareas?

Los sistemas de IA agenética suelen programarse definiendo objetivos claros, asignando herramientas adecuadas y estructurando la lógica que determina cómo prioriza el agente las tareas cuando los objetivos compiten. Esto suele implicar el uso de una combinación de avisos, llamadas a funciones y lógica de orquestación, a veces en varios modelos o subsistemas.

Un enfoque consiste en definir una jerarquía de objetivos y asignar pesos o reglas que guíen al agente a la hora de elegir qué tarea perseguir cuando surjan conflictos. Algunos sistemas también utilizan componentes de planificación o pasos intermedios de razonamiento (como bucles de reflexión o rascadores) para evaluar las compensaciones antes de actuar.

Si eres nuevo en esto, te recomiendo que empieces por artículo de Anthropic sobre patrones de diseño de agentes. Ofrece ejemplos concretos y arquitecturas comunes utilizadas en sistemas del mundo real. Muchos de los conceptos te resultarán familiares si tienes experiencia en ingeniería de software, especialmente los relacionados con el diseño modular, la gestión de estados y la ejecución de tareas asíncronas.

¿En qué medida te sientes cómodo con los avisos y la ingeniería de avisos? ¿De qué enfoques has oído hablar o has utilizado?

La ingeniería de instrucciones es un componente importante de un sistema de IA agéntica, pero también es un tema que tiende a invitar a los estereotipos, por lo que es importante evitar declaraciones vagas sobre su importancia y centrarse en los detalles técnicos de cómo aplicarla.

Esto es lo que yo consideraría una buena respuesta:

Me siento bastante cómodo con la ingeniería de avisos y avisos, y he utilizado varias técnicas tanto en el trabajo de proyectos como en las tareas cotidianas. Por ejemplo, yo utilizo regularmente indicaciones de pocos disparos para guiar a los modelos hacia un formato o tono concreto, proporcionándoles ejemplos. También utilizo cadena de pensamiento cuando necesito que el modelo razone paso a paso; esto es especialmente útil para tareas como la codificación, los puzzles lógicos o la planificación.

En aplicaciones más estructuradas, he experimentado con ajuste rápido y compresión de avisosespecialmente cuando trabajo con API que cobran por recuento de tokens o requieren un control estricto de las salidas. Estas técnicas consisten en destilar las indicaciones hasta sus componentes más esenciales, conservando la intención y el rendimiento.

Como el campo evoluciona rápidamente, tengo la costumbre de leer artículos recientes, repos de GitHub y actualizaciones de la documentación, para mantenerme al día de técnicas como llamada a funcionesla llamada a funciones, los avisos aumentados por recuperación y el encadenamiento modular de avisos modular.

¿Qué es una ventana contextual? ¿Por qué su tamaño es limitado?

Una ventana de contexto se refiere a la cantidad máxima de información -medida en tokens- que un modelo lingüístico puede procesar a la vez. Esto incluye el indicador actual, cualquier historial de conversaciones anteriores e instrucciones a nivel de sistema. Una vez alcanzado el límite de la ventana contextual, las fichas más antiguas pueden truncarse o ignorarse.

La razón por la que la ventana contextual es limitada se reduce a restricciones computacionales y arquitectónicas. En modelos basados en transformadoreslos mecanismos de atención requieren calcular las relaciones entre todas las fichas del contexto, lo que crece cuadráticamente con el número de fichas. Esto hace que el procesamiento de contextos muy largos sea caro y lento, especialmente en el hardware actual. Los modelos anteriores, como las RNN, no tenían un límite estricto de contexto del mismo modo, pero les costaba retener eficazmente las dependencias de largo alcance.

¿Qué es la generación aumentada por recuperación (GRA)?

La generación aumentada por recuperación (RAG) es una técnica que mejora los modelos lingüísticos permitiéndoles recuperar información relevante de fuentes externas antes de generar una respuesta. En lugar de basarse únicamente en lo que el modelo ha aprendido durante el entrenamiento, los sistemas GAR pueden acceder a datos actualizados o específicos del dominio en el momento de la inferencia.

Una configuración RAG típica tiene dos componentes principales: un recuperador, que busca en una base de datos o colección de documentos el contexto relevante en función de la consulta de entrada, y un generador, que utiliza esa información recuperada para producir una respuesta más precisa e informada. Este enfoque es especialmente útil para tareas que requieren precisión factual, memoria a largo plazo o conocimientos específicos del dominio.

¿De qué otras arquitecturas LLM has oído hablar fuera del transformador?

Aunque el transformador es la arquitectura dominante en la IA actual, hay otros tipos de modelos que merece la pena conocer. Por ejemplo xLSTM se basa en la arquitectura LSTM con mejoras que aumentan el rendimiento en secuencias largas manteniendo la eficiencia.

Mamba es otra arquitectura prometedora: utiliza modelos de espacio de estados selectivos para gestionar el procesamiento de contextos largos de forma más eficiente que los transformadores, especialmente para tareas que no requieren una atención plena sobre cada token.

La arquitectura de Titanes de Google también merece la pena. Está diseñado para abordar algunas de las principales limitaciones de los transformadores, como la falta de memoria persistente y los elevados costes computacionales.

Estas arquitecturas alternativas pretenden que los modelos sean más eficientes, escalables y capaces de manejar entradas más largas o complejas sin requerir recursos masivos de hardware.

¿Qué son el uso de herramientas y la llamada a funciones en los LLM?

La llamada a herramientas y funciones permite que los grandes modelos lingüísticos interactúen con sistemas externos, como API, bases de datos o funciones personalizadas. En lugar de basarse únicamente en conocimientos preentrenados, el modelo puede reconocer cuándo una tarea requiere información actualizada o especializada y responder llamando a una herramienta adecuada.

Por ejemplo, si preguntas a un modelo con acceso a una API meteorológica: "¿Qué tiempo hace en Londres?", puede decidir llamar a esa API en segundo plano y devolver los datos en tiempo real en lugar de generar una respuesta genérica o anticuada. Este enfoque hace que los modelos sean más útiles y fiables, especialmente para tareas que impliquen datos en vivo, cálculos o acciones fuera de las capacidades internas del modelo.

¿Qué es la cadena de pensamiento (CoT) y por qué es importante en las aplicaciones de IA agéntica?

Cadena de pensamiento (CoT) es una técnica que ayuda a los modelos lingüísticos a desglosar problemas complejos en razonamientos paso a paso antes de producir una respuesta final. Permite que el modelo genere pasos intermedios de razonamiento, lo que mejora la precisión y la transparencia, especialmente en tareas que implican lógica, matemáticas o toma de decisiones en varios pasos.

La CoT se utiliza ampliamente en los sistemas de IA agéntica. Por ejemplo, cuando un modelo actúa como juez en una evaluación, puedes pedirle que explique su respuesta paso a paso para comprender mejor su proceso de decisión. CoT también es una técnica fundamental en modelos centrados en el razonamiento como OpenAI o1donde el modelo genera primero fichas de razonamiento antes de utilizarlas para producir el resultado final. Este proceso de pensamiento estructurado hace que el comportamiento del agente sea más interpretable y fiable.

¿Qué es el rastreo? ¿Qué son los tramos?

El seguimiento es el proceso de registrar y visualizar la secuencia de acontecimientos que se producen durante una sola ejecución o llamada de una aplicación. En el contexto de las aplicaciones LLM, una traza captura la línea temporal completa de interacciones -como múltiples llamadas al modelo, uso de herramientas o puntos de decisión- dentro de un flujo de ejecución.

Un tramo es un único acontecimiento u operación dentro de esa traza. Por ejemplo, una llamada al modelo, una invocación a una función o un paso de recuperación se registrarían cada uno como tramos individuales. Juntos, los tramos te ayudan a comprender la estructura y el comportamiento de tu aplicación.

El rastreo y las extensiones son esenciales para depurar y optimizar los sistemas agénticos. Facilitan la detección de fallos, cuellos de botella de latencia o comportamientos no deseados. Herramientas como Arize Phoenix y otras proporcionan interfaces visuales para inspeccionar las trazas y los tramos en detalle.

¿Qué son las evaluaciones? ¿Cómo se evalúa el rendimiento y la solidez de un sistema de IA agéntica?

Las pruebas son esencialmente las pruebas unitarias de la ingeniería de la IA agéntica. Permiten a los desarrolladores evaluar el rendimiento del sistema en distintos escenarios y casos extremos. Hay varios tipos de pruebas que se utilizan habitualmente hoy en día. Un enfoque consiste en utilizar un conjunto de datos reales elaborados a mano para comparar los resultados del modelo con las respuestas correctas conocidas.

Otro enfoque consiste en utilizar un LLM como juez para evaluar la calidad, precisión o razonamiento de las respuestas del modelo. Algunas pruebas evalúan el éxito general de la tarea, mientras que otras se centran en componentes individuales como el uso de herramientas, la planificación o la coherencia. Ejecutarlas regularmente ayuda a identificar regresiones, medir mejoras y garantizar que el sistema sigue siendo fiable a medida que evoluciona. Para una inmersión más profunda, recomiendo consultar esta Guía de evaluación del LLM.

¿Puedes hablarnos de la arquitectura transformadora y de su importancia para la IA agéntica?

La arquitectura del transformador se introdujo en el influyente artículo de 2017 "La atención es todo lo que necesitas". Si aún no lo has leído, merece la pena hacerlo: sentó las bases de casi todos los grandes modelos lingüísticos modernos.

Desde su lanzamiento, se han desarrollado muchas variaciones y mejoras, pero la mayoría de los modelos utilizados en los sistemas de IA agéntica siguen basándose en alguna forma del transformador.

Una ventaja clave del transformador es su mecanismo de atenciónque permite al modelo calcular la relevancia de cada token de la secuencia de entrada con respecto a cualquier otro token, siempre que todo encaje dentro de la ventana de contexto. Esto permite un gran rendimiento en tareas que requieren comprender dependencias de largo alcance o razonar a través de múltiples entradas.

En el caso concreto de la IA agéntica, la flexibilidad y el paralelismo del transformador lo hacen idóneo para manejar tareas complejas como el uso de herramientas, la planificación y los comportamientos de diálogo de varios turnos, que son el núcleo de la mayoría de los sistemas agénticos actuales.

¿Qué es la observabilidad LLM y por qué es importante?

La observabilidad de los LLM se refiere a la capacidad de controlar, analizar y comprender el comportamiento de grandes sistemas de modelos lingüísticos en tiempo real. Es un término general que incluye herramientas como trazas, spans y evals, que ayudan a los desarrolladores a obtener visibilidad sobre el funcionamiento interno del sistema.

Como los LLM suelen considerarse "cajas negras", la observabilidad es esencial para depurar, mejorar el rendimiento y garantizar la fiabilidad. Te permite rastrear cómo interactúan los modelos entre sí y con herramientas externas, identificar puntos de fallo y detectar comportamientos inesperados con antelación. En los sistemas de IA agéntica, donde se encadenan múltiples pasos y decisiones, la observabilidad es especialmente crítica para mantener la confianza y el control.

¿Puedes explicar el ajuste de modelos y la destilación de modelos?

El ajuste del modelo es el proceso de tomar un modelo preentrenado y entrenarlo más en un nuevo conjunto de datos, normalmente para especializarlo para un dominio o tarea específicos. Esto permite que el modelo adapte su comportamiento y sus respuestas en función de conocimientos más precisos o actualizados.

La destilación de modelos es una técnica relacionada en la que un modelo más pequeño o menos capaz se entrena con los resultados de un modelo más grande y potente. El objetivo es transferir el conocimiento y el comportamiento del modelo más grande al más pequeño, lo que a menudo da lugar a modelos más rápidos y eficientes con un rendimiento comparable. Por ejemplo, desde el lanzamiento de Deepseek R1, muchos modelos más pequeños se han destilado en sus respuestas y han alcanzado una calidad impresionante en relación con su tamaño.

¿Cuál es la siguiente tarea de predicción de fichas y por qué es importante? ¿Qué son los modelos asistentes?

La predicción del siguiente token, también conocida como modelado autorregresivo del lenguaje, es la tarea de entrenamiento central de la mayoría de los grandes modelos lingüísticos. El modelo se entrena para predecir el siguiente token de una secuencia dados todos los tokens anteriores. Este sencillo objetivo permite al modelo aprender gramática, hechos, patrones de razonamiento e incluso algunas capacidades de planificación. El resultado de esta fase inicial de entrenamiento se denominamodelo base .

Los modelos asistentes son modelos base que se han afinado aún más para que se comporten de forma más servicial, segura o conversacional. Este ajuste fino suele implicar técnicas como el ajuste supervisado de instrucciones y el aprendizaje por refuerzo con retroalimentación humana (RLHF)que guían al modelo para que responda más como un asistente en lugar de limitarse a completar un texto.

¿Qué es el enfoque humano en el bucle (HITL)?

El enfoque humano en el bucle (HITL) se refiere a la participación de seres humanos en el entrenamiento, la evaluación o el uso en tiempo real de un LLM o sistema de IA agéntica. La aportación humana puede producirse en varias fases: durante el entrenamiento del modelo (por ejemplo, etiquetando datos, clasificando respuestas), durante el ajuste fino (como en RLHF), o incluso durante la ejecución, donde un humano puede guiar o aprobar las acciones de un agente.

Por ejemplo, si un chatbot te pide que elijas la mejor de dos respuestas, estás participando activamente en un proceso HITL. Este enfoque ayuda a mejorar la calidad del modelo, la seguridad y la alineación, incorporando el juicio humano allí donde la automatización por sí sola puede quedarse corta.

Conclusión

En este artículo cubrimos una serie de preguntas que pueden surgir en una entrevista sobre IA agéntica, junto con estrategias para pensarlas, investigarlas y responderlas eficazmente. Para profundizar, recomiendo explorar las referencias mencionadas a lo largo del artículo y consultar cursos de IA de DataCamp para un aprendizaje más estructurado.


Dimitri Didmanidze's photo
Author
Dimitri Didmanidze
LinkedIn
Soy Dimitri Didmanidze, un científico de datos que actualmente cursa un Máster en Matemáticas con especialización en Aprendizaje Automático. Mi trayectoria académica también ha incluido la investigación sobre las capacidades de los modelos basados en transformadores y la docencia a nivel universitario, lo que ha enriquecido mi comprensión de conceptos teóricos complejos. También he trabajado en el sector bancario, donde he aplicado estos principios para afrontar retos de datos del mundo real.
Temas

Aprende IA con estos cursos

Programa

AI Fundamentals

10hrs hr
Discover the fundamentals of AI, dive into models like ChatGPT, and decode generative AI secrets to navigate the dynamic AI landscape.
Ver detallesRight Arrow
Comienza el curso
Ver másRight Arrow
Relacionado
Machine Learning Interview Questions

blog

Las 25 preguntas más frecuentes en las entrevistas sobre aprendizaje automático para 2024

Explore las mejores preguntas de entrevista sobre aprendizaje automático con respuestas para estudiantes de último curso y profesionales.
Abid Ali Awan's photo

Abid Ali Awan

15 min

Data engineering interview q and a

blog

Las 39 mejores preguntas y respuestas de entrevistas sobre ingeniería de datos en 2025

Supera tu próxima entrevista con esta recopilación de preguntas y respuestas para entrevistas a ingenieros de datos, que te ayudarán a prepararte para las distintas fases, desde la selección de RR.HH. hasta las evaluaciones técnicas en profundidad, incluyendo preguntas sobre Python y SQL.
Abid Ali Awan's photo

Abid Ali Awan

15 min

blog

Las 13 habilidades esenciales del ingeniero de IA que debes conocer

Ahora se demandan conocimientos de ingeniería de IA. Aprende todo sobre las habilidades esenciales necesarias en esta completa guía.
Austin Chia's photo

Austin Chia

10 min

blog

Cómo aprender IA desde cero en 2025: Guía completa de los expertos

Descubre todo lo que necesitas saber sobre el aprendizaje de la IA en 2025, desde consejos para empezar, recursos útiles y opiniones de expertos del sector.
Adel Nehme's photo

Adel Nehme

15 min

An AI juggles tasks

blog

Cinco proyectos que puedes crear con modelos de IA generativa (con ejemplos)

Aprende a utilizar modelos de IA generativa para crear un editor de imágenes, un chatbot similar a ChatGPT con pocos recursos y una aplicación clasificadora de aprobación de préstamos y a automatizar interacciones PDF y un asistente de voz con GPT.
Abid Ali Awan's photo

Abid Ali Awan

10 min

blog

7 proyectos de IA para todos los niveles

Desarrolla tu portafolio y mejora tus habilidades para crear soluciones innovadoras a problemas complejos trabajando en proyectos de IA.
Abid Ali Awan's photo

Abid Ali Awan

8 min

Ver másVer más