Programa
A IA agênica está sendo adotada rapidamente em todos os setores, e muitas novas empresas agora estão procurando especialistas na área. Esse artigo traz perguntas reais de entrevistas de emprego para cargos iniciais e intermediários, algumas que eu inventei e outras que ajudam a entender melhor a área.
Lembre-se de que, numa entrevista de verdade, podem te pedir pra fazer um exercício prático primeiro. Também podem te pedir pra explicar como você encara essas tarefas, então se prepare bem pra isso.
Algumas perguntas aqui falam de assuntos mais amplos, oferecendo áreas adicionais para estudo. Também recomendo ser sincero durante a entrevista — às vezes, mesmo com toda a experiência necessária, é igualmente importante ter pensado nas respostas com antecedência.
Obtenha uma das melhores certificações de IA
Perguntas básicas para entrevistas sobre IA agênica
Vamos começar com algumas perguntas básicas que dão definições e definem o tom do artigo. Alguns deles também têm dicas sobre o que preparar antes.
Quais são algumas das aplicações de IA em que você já trabalhou?
Os entrevistadores vão querer saber sobre sua experiência de um jeito pessoal e detalhado. Eles não vão só procurar uma lista de projetos — já que provavelmente já têm isso no seu currículo —, mas vão avaliar a clareza com que você consegue explicar cada projeto e o seu papel específico nele.
Certifique-se de preparar sua resposta com antecedência e ter uma compreensão clara do seu trabalho anterior. Praticar com um amigo ou escrever pode te ajudar a organizar seus pensamentos.
Com quais bibliotecas, frameworks e ferramentas você tem experiência? Que outras bibliotecas você já ouviu falar?
Parecido com a pergunta anterior, os entrevistadores vão querer saber mais do que tá no seu currículo. Esteja pronto para detalhar cada projeto em que você trabalhou e explicar todas as tecnologias usadas.
Lembre-se de que podem te fazer várias perguntas adicionais nesse momento. É importante que o empregador entenda exatamente quais são suas habilidades. Não esquece de dar uma olhada ou se familiarizar com bibliotecas como LlamaIndex ou LangChain, pois essas são as bibliotecas de desenvolvimento de alto nível mais usadas. Além disso, familiarize-se com provedores de modelos como Huggingface ou Ollama.
O que é IA agênica e como ela difere da IA tradicional?
IA agênica é quando os sistemas de inteligência artificial podem agir sozinhos, definir seus próprios objetivos e se adaptar a ambientes que mudam. Já a IA tradicional geralmente funciona com regras pré-definidas, pegando entradas e gerando saídas.
Por exemplo, você pode falar sobre seus próprios projetos ou mencionar outras aplicações de IA agênica que você já usou ou ouviu falar. Para uma explicação mais detalhada sobre cada um deles, recomendo a leitura do seguinte artigo sobre IA agênica.
O que te deixa animado em trabalhar com IA agênica?
Essa é uma pergunta comum pra entender suas motivações e interesses. Normalmente muito aberta, a pergunta permite que você vá em qualquer direção e converse de verdade com o entrevistador.
Tenha uma boa história ou explicação pronta para isso, seja entusiasta, específico e tente falar sobre algo relacionado à função. Se você não consegue definir algo específico, tente falar sobre um produto que você usa e por que ele é legal ou interessante.
Você pode dar um exemplo de uma aplicação de IA agênica e falar sobre seus componentes?
Por exemplo, vamos falar sobre um carro autônomo. Primeiro, pense nos objetivos que o carro precisa atingir: ele precisa dirigir e navegar pelas estradas de forma autônoma, criar rotas ideais, evitar obstáculos e, o mais importante, manter os passageiros seguros.
Depois de definir os objetivos, podemos ver como a aplicação pode ser estruturada. Um modelo principal pode ser responsável por dirigir o carro, recebendo informações contínuas ou sob demanda de modelos menores que cuidam de tarefas como otimização de rotas ou busca de informações ambientais.
Durante a entrevista, você pode aprofundar cada um desses componentes. Fique à vontade para dar seus próprios exemplos também.
Com quais LLMs você já trabalhou até agora?
Esteja pronto para falar sobre modelos específicos com os quais você já trabalhou em detalhes. Os empregadores vão querer saber o quanto você entende o modelo internamente. Por exemplo, esteja pronto para falar sobre modelos de código aberto, como o Llama, ou modelos GPT proprietários.
Essa também é uma boa chance de falar sobre novos modelos e mostrar pro entrevistador que você tá sempre por dentro das novidades. Você pode, por exemplo, falar sobre Deepseek R1 e outros modelos de raciocínio.
Como tá sua experiência com o uso de LLMs pela API?
Essa pergunta é sobre usar LLMs pela API em vez de uma janela de chat. Esteja pronto para falar sobre seus projetos se eles usarem APIs. Não esqueça de revisar usando APIs, gerando e guardando chaves secretas, monitorando custos e diferentes provedores de modelos. Esse também pode ser um bom momento pra falar sobre sua experiência em engenharia.
Se você não tem muita experiência com o uso de LLMs por meio da API, dá uma olhada nesses recursos:
- Tutorial da API GPT-4.5: Começando com a API da OpenAI
- API DeepSeek: Um guia com exemplos e cálculos de custos
- Mistral OCR: Um guia com exemplos práticos
Você já usou modelos de raciocínio?
Com o surgimento de modelos de raciocínio como o OpenAI o3 e o DeepSeek-R1, os empregadores vão querer saber sobre sua experiência e familiaridade com eles. Isso vai além de só escolher um modelo diferente em um aplicativo ou chamada de API, já que esses modelos geram tokens de pensamento e, muitas vezes, precisam de um padrão de uso diferente.
Você pode causar uma boa impressão se souber como ajustar e executar localmente um modelo de código aberto, já que isso é algo que a empresa para a qual você está se candidatando pode precisar. Para praticar, pense em ajustar o DeepSeek-R1 e rodá-lo localmente:
- Ajustando o DeepSeek R1 (Modelo de Raciocínio)
- Como configurar e executar o DeepSeek-R1 localmente com o Ollama
Você usa LLMs no seu dia a dia de trabalho? Se sim, pra quê?
Se você usa LLMs no seu fluxo de trabalho, essa pode ser sua chance de mostrar sua experiência. Você pode falar sobre as ferramentas que já usou, o que gostou ou não gostou nelas e até mesmo o que está ansioso para experimentar. Pense em falar sobre ferramentas populares como Cursor, NotebookLM, Lovable, Replit, Artefatos de Claude, Manus AI, etc.
Quais são algumas das fontes que você usa para se manter atualizado sobre IA agente?
Alguns empregadores vão querer saber se você está ou pode estar atualizado em relação à IA. Fontes que você pode incluir na sua resposta são conferências sobre IA, fóruns, boletins informativos e assim por diante.
Você se sente à vontade pra ler e entender artigos e documentos?
Ler literatura, artigos e documentação faz parte de quase todo trabalho de IA. Também podem perguntar sobre sua abordagem geral para aprender ou recuperar informações. É uma boa ideia não parecer que você depende demais dos chatbots nas suas respostas.
Esteja pronto pra falar sobre um artigo recente que você leu — por exemplo, você pode falar sobre Arquitetura Titans do Google.
Perguntas para entrevistas sobre IA agênica intermediária
Agora que já esclarecemos as questões básicas, podemos aprofundar um pouco mais e discutir algumas questões intermediárias que podem ser perguntadas ou servir como uma boa referência.
O que você acha da ética desse papel e da IA agente em geral?
Acho que essa é uma pergunta bem rara, mas ainda assim é bom pensar nisso, talvez até de forma geral e não só para uma entrevista. Você pode pensar em ideias relacionadas à função que está se candidatando ou em ideias mais gerais, como aplicações de IA que tomam decisões que afetam a vida das pessoas. A pergunta definitivamente não tem uma resposta certa e geralmente só serve pra ver o quanto você se importa ou já pensou sobre o assunto.
Que riscos de segurança devem ser considerados ao implantar agentes de IA autônomos?
Tem várias preocupações de segurança que a gente precisa ter em mente ao implantar agentes de IA autônomos. Um risco é que o modelo possa ter acesso a ferramentas ou bancos de dados internos confidenciais. Se o modelo não estiver devidamente isolado ou autorizado, um usuário mal-intencionado poderá usar injeção de prompt ou entradas adversárias para extrair dados privados ou acionar ações indesejadas.
Outro risco é a manipulação do comportamento do modelo por meio de prompts cuidadosamente elaborados ou entradas externas. Um invasor pode fazer com que o modelo ignore restrições de segurança, aumente privilégios ou se comporte de maneiras que não sejam as pretendidas.
Também tem a chance de ataques do tipo negação de serviço — onde o modelo fica sobrecarregado com pedidos ou é enganado para parar suas próprias operações. Se um agente controlar infraestruturas críticas ou fluxos de trabalho automatizados, isso pode causar grandes interrupções.
Para diminuir esses riscos, é importante usar os princípios da segurança tradicional de software: privilégios mínimos, validação rigorosa de entradas, monitoramento, limitação de taxa e testes contínuos de segurança do comportamento do agente.
Introdução aos agentes de IA
Quais trabalhos humanos você acha que logo serão substituídos por aplicativos de IA agênica e por quê?
Os entrevistadores podem fazer essa pergunta pra entender o quanto você entende das capacidades da IA agênica como elas são hoje. Eles não vão só querer uma lista, mas uma explicação detalhada do seu raciocínio.
Por exemplo, eu pessoalmente não acho que os médicos serão substituídos tão cedo — especialmente aqueles cujas decisões afetam diretamente vidas humanas — e isso está ligado à ética. Tem muita coisa pra explorar aqui, e você pode até discutir se acha que é bom ou ruim que certos empregos sejam substituídos pela IA.
Você pode falar sobre alguns desafios que enfrentou ao trabalhar em um aplicativo de IA?
Mesmo que essa seja uma pergunta sobre você, coloquei na seção intermediária porque é bem comum e os entrevistadores costumam dar bastante importância a ela. Você precisa mesmo ter um exemplo concreto preparado — não tente inventar algo na hora.
Se você ainda não enfrentou nenhum desafio grande, tente pelo menos falar sobre uma situação teórica e como você lidaria com ela.
Perguntas avançadas sobre IA agênica para entrevistas
Por fim, vamos discutir algumas questões mais avançadas e técnicas. Vou tentar ser o mais genérico possível, embora, geralmente, durante a entrevista real, as perguntas possam ser mais específicas. Por exemplo, em vez de perguntar sobre indexação em geral, você pode ser questionado sobre os diferentes métodos de indexação que o Langchain ou o Llama-Index suportam.
Qual é a diferença entre o sistema e o prompt do usuário?
Os prompts do sistema e do usuário são entradas fornecidas a um modelo de linguagem, mas têm funções diferentes e geralmente exercem diferentes níveis de influência.
O prompt do sistema “ ” é uma instrução oculta que define o comportamento geral ou a personalidade do modelo. Não é visível diretamente para o usuário durante uma conversa, mas desempenha um papel fundamental. Por exemplo, o sistema pode pedir para o modelo agir como um assistente prestativo, um matemático ou um planejador de viagens. Define o tom, o estilo e as restrições para a interação.
Já o prompt do usuário é o que o usuário digita direto, tipo uma pergunta ou um pedido. É a isso que o modelo responde em tempo real.
Em muitas configurações, o prompt do sistema tem mais peso, ajudando a manter um comportamento consistente entre as sessões, enquanto o prompt do usuário determina o conteúdo específico de cada resposta.
Como você programa um sistema de IA agênica para priorizar certos objetivos ou tarefas concorrentes?
Os sistemas de IA agênica geralmente são programados definindo objetivos claros, escolhendo as ferramentas certas e organizando a lógica que decide como o agente prioriza as tarefas quando os objetivos se chocam. Isso geralmente envolve usar uma combinação de prompts, chamadas de função e lógica de orquestração — às vezes em vários modelos ou subsistemas.
Uma abordagem é definir uma hierarquia de objetivos e atribuir pesos ou regras que orientem o agente na escolha da tarefa a ser realizada quando surgirem conflitos. Alguns sistemas também usam componentes de planejamento ou etapas intermediárias de raciocínio (como loops de reflexão ou blocos de notas) para avaliar as vantagens e desvantagens antes de agir.
Se você é novo nisso, recomendo começar com artigo da Anthropic sobre padrões de design de agentes. Ele traz exemplos concretos e arquiteturas comuns usadas em sistemas do mundo real. Muitos dos conceitos vão parecer familiares se você tiver experiência em engenharia de software, especialmente em relação a design modular, gerenciamento de estado e execução de tarefas assíncronas.
Você se sente à vontade com prompts e engenharia de prompts? Que abordagens você já ouviu falar ou já usou?
A engenharia de prompts é um componente importante de um sistema de IA agênica, mas também é um tema que costuma gerar estereótipos — por isso, é importante evitar declarações vagas sobre sua importância e, em vez disso, focar nos detalhes técnicos de como aplicá-la.
Aqui está o que eu consideraria uma boa resposta:
Eu me sinto bem à vontade com prompts e engenharia de prompts, e já usei várias técnicas tanto em projetos quanto nas tarefas do dia a dia. Por exemplo, eu uso regularmente algumas sugestões para orientar os modelos em direção a um formato ou tom específico, fornecendo exemplos. Eu também uso o prompt de cadeia de pensamentos quando preciso que o modelo raciocine passo a passo — isso é especialmente útil para tarefas como codificação, quebra-cabeças lógicos ou planejamento.
Em aplicações mais estruturadas, eu experimentei o ajuste rápido. ajustes de prompt e compressão de prompt, especialmente ao trabalhar com APIs que cobram por contagem de tokens ou exigem um controle rígido sobre as saídas. Essas técnicas envolvem destilar as instruções até seus componentes mais essenciais, preservando a intenção e o desempenho.
Como a área tá sempre mudando, eu leio artigos recentes, repositórios do GitHub e atualizações de documentação — pra ficar por dentro de técnicas como chamada de função, prompting aumentado por recuperação e encadeamento modular encadeamento de prompts.
O que é uma janela de contexto? Por que o tamanho é limitado?
Uma janela de contexto é a quantidade máxima de informação — medida em tokens — que um modelo de linguagem consegue processar de uma vez só. Isso inclui o prompt atual, qualquer histórico de conversas anteriores e instruções no nível do sistema. Quando o limite da janela de contexto for atingido, os tokens mais antigos podem ser cortados ou ignorados.
A razão pela qual a janela de contexto é limitada se resume a restrições computacionais e arquitetônicas. Em modelos baseados em transformadores, os mecanismos de atenção precisam calcular as relações entre todos os tokens no contexto, o que cresce quadraticamente com o número de tokens. Isso faz com que o processamento de contextos muito longos seja caro e lento, especialmente no hardware atual. Modelos anteriores, como as RNNs, não tinham um limite de contexto tão rígido, mas tinham dificuldade em manter dependências de longo alcance de forma eficaz.
O que é geração aumentada por recuperação (RAG)?
A geração aumentada por recuperação (RAG) é uma técnica que melhora os modelos de linguagem, permitindo que eles recuperem informações relevantes de fontes externas antes de gerar uma resposta. Em vez de depender só do que o modelo aprendeu durante o treinamento, os sistemas RAG podem acessar dados atualizados ou específicos do domínio na hora da inferência.
Uma configuração típica de RAG tem dois componentes principais: um recuperador, que procura em um banco de dados ou coleção de documentos por contexto relevante com base na consulta inserida, e um gerador, que usa as informações recuperadas para produzir uma resposta mais precisa e informada. Essa abordagem é especialmente útil para tarefas que exigem precisão factual, memória de longo prazo ou conhecimento específico da área.
Que outras arquiteturas LLM você já ouviu falar além do transformador?
Embora o transformador seja a arquitetura dominante na IA hoje em dia, existem vários outros tipos de modelos que vale a pena conhecer. Por exemplo, xLSTM baseia-se na arquitetura LSTM com melhorias que aumentam o desempenho em sequências longas, mantendo a eficiência.
Mamba é outra arquitetura promissora — ela usa modelos seletivos de espaço de estado para lidar com o processamento de contexto longo de forma mais eficiente do que os transformadores, especialmente para tarefas que não exigem atenção total em cada token.
A arquitetura Titans do Google também vale a pena conferir. Ele foi feito pra resolver algumas das principais limitações dos transformadores, tipo a falta de memória persistente e os altos custos computacionais.
Essas arquiteturas alternativas têm como objetivo tornar os modelos mais eficientes, escaláveis e capazes de lidar com entradas mais longas ou complexas sem precisar de muitos recursos de hardware.
O que são uso de ferramentas e chamada de funções em LLMs?
A chamada de ferramentas e funções permite que grandes modelos de linguagem interajam com sistemas externos, como APIs, bancos de dados ou funções personalizadas. Em vez de depender só do que já sabe, o modelo consegue perceber quando uma tarefa precisa de informações atualizadas ou especializadas e responde chamando a ferramenta certa.
Por exemplo, se você perguntar a um modelo com acesso a uma API meteorológica: “Como está o tempo em Londres?”, ele pode decidir chamar essa API em segundo plano e retornar os dados em tempo real, em vez de gerar uma resposta genérica ou desatualizada. Essa abordagem torna os modelos mais úteis e confiáveis, especialmente para tarefas que envolvem dados em tempo real, cálculos ou ações fora das capacidades internas do modelo.
O que é cadeia de pensamento (CoT) e por que ela é importante em aplicações de IA agênica?
Cadeia de pensamento (CoT) é uma técnica de sugestão que ajuda os modelos de linguagem a dividir problemas complexos em raciocínios passo a passo antes de chegar a uma resposta final. Isso permite que o modelo crie etapas intermediárias de raciocínio, o que melhora a precisão e a transparência, principalmente em tarefas que envolvem lógica, matemática ou tomadas de decisão em várias etapas.
O CoT é muito usado em sistemas de IA com agentes. Por exemplo, quando um modelo está atuando como juiz em uma avaliação, você pode pedir que ele explique sua resposta passo a passo para entender melhor seu processo de decisão. O CoT também é uma técnica central em modelos focados no raciocínio, como o OpenAI o1, onde o modelo primeiro gera tokens de raciocínio antes de usá-los para produzir o resultado final. Esse jeito estruturado de pensar deixa o comportamento dos agentes mais fácil de entender e mais confiável.
O que é rastreamento? O que são spans?
Rastreamento é o processo de registrar e visualizar a sequência de eventos que rolam durante uma única execução ou chamada de um aplicativo. No contexto das aplicações LLM, um rastreamento captura toda a linha do tempo das interações — como várias chamadas de modelo, uso de ferramentas ou pontos de decisão — dentro de um fluxo de execução.
Um intervalo é um único evento ou operação dentro desse rastreamento. Por exemplo, uma chamada de modelo, uma invocação de função ou uma etapa de recuperação seriam registradas como intervalos individuais. Juntas, as extensões ajudam você a entender a estrutura e o comportamento do seu aplicativo.
Rastreamento e intervalos são essenciais para depurar e otimizar sistemas agenticos. Eles facilitam a identificação de falhas, gargalos de latência ou comportamentos indesejados. Ferramentas como o Arize Phoenix e outras oferecem interfaces visuais para dar uma olhada detalhada nos traços e intervalos.
O que são avaliações? Como você avalia o desempenho e a robustez de um sistema de IA agente?
As avaliações são basicamente os testes unitários da engenharia de IA agênica. Eles permitem que os desenvolvedores vejam como o sistema se sai em diferentes cenários e casos extremos. Tem vários tipos de avaliações que a galera usa hoje em dia. Uma abordagem é usar um conjunto de dados de referência criado manualmente para comparar os resultados do modelo com as respostas corretas conhecidas.
Outra abordagem é usar um LLM como juiz para avaliar a qualidade, precisão ou raciocínio por trás das respostas do modelo. Algumas avaliações testam o sucesso geral da tarefa, enquanto outras se concentram em componentes individuais, como uso de ferramentas, planejamento ou consistência. Executá-los regularmente ajuda a identificar regressões, medir melhorias e garantir que o sistema continue confiável à medida que evolui. Pra saber mais, recomendo dar uma olhada nesse guia de avaliação do LLM.
Você pode falar sobre a arquitetura do transformador e sua importância para a IA agênica?
A arquitetura do transformador foi apresentada no influente artigo de 2017 “Attention Is All You Need” (Atenção é tudo o que você precisa). Se você ainda não leu, vale a pena dar uma olhada — ele criou a base para quase todos os grandes modelos de linguagem modernos.
Desde que foi lançado, surgiram várias variações e melhorias, mas a maioria dos modelos usados em sistemas de IA agênica ainda se baseia em alguma forma do transformador.
Uma das principais vantagens do transformador é o seu mecanismo de atenção, que permite que o modelo calcule a relevância de cada token na sequência de entrada para todos os outros tokens, desde que tudo se encaixe na janela de contexto. Isso permite um ótimo desempenho em tarefas que exigem entender dependências de longo prazo ou raciocinar com várias entradas.
Especificamente para a IA agênica, a flexibilidade e o paralelismo do transformador o tornam adequado para lidar com tarefas complexas, como uso de ferramentas, planejamento e diálogo com várias voltas — comportamentos essenciais na maioria dos sistemas agênicos atuais.
O que é observabilidade LLM e por que ela é importante?
A observabilidade LLM é a capacidade de monitorar, analisar e entender o comportamento de sistemas de modelos de linguagem grandes em tempo real. É um termo geral que inclui ferramentas como rastreamentos, spans e avaliações, que ajudam os desenvolvedores a entender melhor como o sistema funciona por dentro.
Como os LLMs são frequentemente vistos como “caixas pretas”, a observabilidade é essencial para depurar, melhorar o desempenho e garantir a confiabilidade. Permite rastrear como os modelos interagem entre si e com ferramentas externas, identificar pontos de falha e detectar comportamentos inesperados antecipadamente. Em sistemas de IA agênicos, onde várias etapas e decisões estão interligadas, a observabilidade é super importante para manter a confiança e o controle.
Você pode explicar o que é ajuste fino e destilação de modelos?
Ajuste fino do modelo é o processo de pegar um modelo pré-treinado e treiná-lo ainda mais em um novo conjunto de dados, geralmente para especializá-lo para um domínio ou tarefa específica. Isso permite que o modelo adapte seu comportamento e respostas com base em conhecimentos mais focados ou atualizados.
A destilação de modelos é uma técnica parecida em que um modelo menor ou menos capaz é treinado com base nos resultados de um modelo maior e mais poderoso. O objetivo é passar o conhecimento e o comportamento do modelo maior para o menor, o que geralmente resulta em modelos mais rápidos e eficientes com desempenho comparável. Por exemplo, desde o lançamento do Deepseek R1, muitos modelos menores foram criados com base em suas respostas e alcançaram uma qualidade impressionante em relação ao seu tamanho.
Qual é a próxima tarefa de previsão de tokens e por que ela é importante? O que são modelos assistentes?
A previsão do próximo token, também conhecida como modelagem de linguagem autoregressiva, é a principal tarefa de treinamento por trás da maioria dos grandes modelos de linguagem. O modelo é treinado para prever o próximo token em uma sequência, considerando todos os tokens anteriores. Esse objetivo simples permite que o modelo aprenda gramática, fatos, padrões de raciocínio e até algumas habilidades de planejamento. O resultado dessa fase inicial de treinamento é chamado demodelo base de aprendizagem automática ( ).
Os modelos auxiliares são modelos básicos que foram ajustados pra serem mais úteis, seguros ou conversativos. Esse ajuste fino geralmente envolve técnicas como ajuste de instrução supervisionada e aprendizado por reforço com feedback humano (RLHF), que orientam o modelo a responder mais como um assistente, em vez de apenas completar o texto.
O que é a abordagem human-in-the-loop (HITL)?
A abordagem human-in-the-loop (HITL) é quando a gente envolve pessoas no treinamento, avaliação ou uso em tempo real de um LLM ou sistema de IA com agência. A intervenção humana pode acontecer em várias etapas — durante o treinamento do modelo (por exemplo, rotulando dados, classificando respostas), durante o ajuste fino (como no RLHF) ou até mesmo durante a execução, onde um humano pode orientar ou aprovar as ações de um agente.
Por exemplo, se um chatbot te pedir para escolher a melhor de duas respostas, você está participando ativamente de um processo HITL. Essa abordagem ajuda a melhorar a qualidade, a segurança e o alinhamento do modelo, incorporando o julgamento humano onde a automação por si só pode ser insuficiente.
Conclusão
Neste artigo, falamos sobre várias perguntas que podem aparecer numa entrevista sobre IA agênica, junto com estratégias para pensar, pesquisar e responder a elas de forma eficaz. Para saber mais, recomendo dar uma olhada nas referências mencionadas ao longo do artigo e conferir os cursos de IA do DataCamp. os cursos de IA do DataCamp sobre o assunto para um aprendizado mais estruturado.
