curso
Las 34 mejores preguntas y respuestas de la entrevista a un ingeniero de la nube en 2025
Si te estás preparando para una entrevista de ingeniería de la nube, has venido al lugar adecuado. Este artículo aborda algunas de las preguntas más frecuentes para ayudarte a practicar y ganar confianza. Tanto si aspiras a un puesto en ingeniería de la nube, DevOps o MLOps, estas preguntas pondrán a prueba tu comprensión de los conceptos, la arquitectura y las mejores prácticas de la nube.
Para que esta guía sea aún más práctica, he incluido ejemplos de servicios de los mayores proveedores de la nube -AWS, Azure y GCP- para que puedas ver cómo enfocan las soluciones en la nube las distintas plataformas. ¡Vamos a sumergirnos!
Preguntas básicas de la entrevista a un ingeniero de la nube
Estas preguntas fundamentales comprueban tu comprensión de los conceptos, servicios y modelos de implantación de la computación en nube. Tu entrevista empezará normalmente con algunas preguntas similares.
1. ¿Cuáles son los distintos tipos de modelos de computación en nube?
Los tres principales modelos de computación en nube son
- Infraestructura como servicio (IaaS): Proporciona recursos informáticos virtualizados a través de Internet (por ejemplo, Amazon EC2, Google Compute Engine).
- Plataforma como Servicio (PaaS): Ofrece un entorno de desarrollo con herramientas, marcos e infraestructura para crear aplicaciones (por ejemplo, AWS Elastic Beanstalk, Google App Engine).
- Software como servicio (SaaS): Ofrece aplicaciones de software a través de Internet mediante suscripción (por ejemplo, Google Workspace, Microsoft 365).
2. ¿Cuáles son las ventajas de utilizar la computación en nube?
Estas son algunas de las ventajas más importantes de la computación en nube:
- Coste reducido: No necesitas hardware local, lo que reduce los costes de infraestructura.
- Escalabilidad: Amplía o reduce fácilmente los recursos en función de la demanda.
- Fiabilidad: Los proveedores de la nube ofrecen alta disponibilidad con múltiples centros de datos.
- Seguridad: Medidas de seguridad avanzadas, encriptación y certificaciones de cumplimiento.
- Accesibilidad: Accede a los recursos desde cualquier lugar con conexión a Internet.
3. ¿Cuáles son los distintos tipos de modelos de implantación de la nube?
Hay cuatro modelos principales:
- Nube pública: Los servicios se comparten entre varias organizaciones y son gestionados por proveedores externos (por ejemplo, AWS, Azure, GCP).
- Nube privada: Exclusivo de una sola organización, que ofrece mayor control y seguridad.
- Nube híbrida: Una mezcla de nubes públicas y privadas, que permite compartir datos y aplicaciones entre ellas.
- Multi-nube: Utiliza múltiples proveedores en la nube para evitar la dependencia de un proveedor y mejorar la resistencia.
Modelos de despliegue en la nube. Imagen del autor.
4. ¿Qué es la virtualización y cómo se relaciona con la computación en nube?
La virtualización es el proceso de crear instancias virtuales de recursos informáticos, como servidores, almacenamiento y redes, en una única máquina física. Hace posible la computación en nube al permitir una asignación eficiente de recursos, multiarrendamiento y escalabilidad.
Tecnologías como Hyper-V, VMware y KVM se utilizan habitualmente para la virtualización en entornos de nube.
5. ¿Qué son las regiones de la nube y las zonas de disponibilidad?
Una región de nube es un área geográficamente distinta donde los proveedores de nube alojan varios centros de datos. Una zona de disponibilidad (AZ) es un centro de datos físicamente separado dentro de una región, diseñado para ofrecer redundancia y alta disponibilidad.
Por ejemplo, AWS tiene varias regiones en todo el mundo, cada una de las cuales contiene dos o más AZ para la recuperación de desastres y la tolerancia a fallos.
6. ¿En qué se diferencia la elasticidad de la nube de la escalabilidad de la nube?
He aquí las distinciones entre estos dos conceptos:
- Escalabilidad: La capacidad de aumentar o disminuir los recursos manual o automáticamente para adaptarse al crecimiento. Puede ser vertical (ampliación/reducción añadiendo más potencia a las instancias existentes) u horizontal (ampliación/reducción añadiendo o eliminando instancias).
- Elasticidad: La capacidad de asignar y desasignar recursos automáticamente en respuesta a los cambios de la demanda en tiempo real. La elasticidad es una característica clave de la informática sin servidor y de los servicios de autoescalado.
Diferencia entre escalabilidad y elasticidad. Imagen del autor.
7. ¿Cuáles son los principales proveedores de servicios en la nube y cómo se comparan?
La siguiente tabla enumera los principales proveedores de nube, sus puntos fuertes y casos de uso:
Proveedor de la nube |
Puntos fuertes |
Casos prácticos |
Servicios web de Amazon (AWS) |
El mayor proveedor de nube con una amplia gama de servicios. |
Computación en la nube de uso general, sin servidor, DevOps. |
Microsoft Azure |
Fuerte en soluciones empresariales y de nube híbrida. |
Aplicaciones empresariales, nube híbrida, integración del ecosistema Microsoft. |
Plataforma en la nube de Google (GCP) |
Especializado en big data, IA/ML y Kubernetes. |
Aprendizaje automático, análisis de datos, orquestación de contenedores. |
Nube de IBM |
Se centra en la IA y las soluciones empresariales en la nube. |
Aplicaciones basadas en IA, transformación de la nube empresarial. |
Nube Oracle |
Fuerte en bases de datos y aplicaciones empresariales. |
Gestión de bases de datos, aplicaciones ERP, cargas de trabajo empresariales. |
8. ¿Qué es la computación sin servidor y cómo funciona?
La computación sin servidor es un modelo de ejecución en la nube en el que el proveedor de la nube gestiona la infraestructura automáticamente, permitiendo a los desarrolladores centrarse en escribir código. Los usuarios sólo pagan por el tiempo de ejecución real, en lugar de aprovisionar recursos fijos. Algunos ejemplos son:
- AWS Lambda
- Funciones Azure
- Funciones de Google Cloud
9. ¿Qué es el almacenamiento de objetos en la nube?
El almacenamiento de objetos es una arquitectura de almacenamiento de datos en la que los archivos se almacenan como objetos discretos dentro de un espacio de nombres plano, en lugar de sistemas de archivos jerárquicos. Es altamente escalable y se utiliza para datos no estructurados, copias de seguridad y almacenamiento multimedia. Algunos ejemplos son:
- Amazon S3 (AWS)
- Azure Blob Storage (Azure)
- Almacenamiento en la nube de Google (GCP)
10. ¿Qué es una red de distribución de contenidos (CDN) en la computación en nube?
Una CDN es una red de servidores distribuidos que almacenan en caché y entregan contenidos (por ejemplo, imágenes, vídeos, páginas web) a los usuarios en función de su ubicación geográfica. Esto reduce la latencia, mejora el rendimiento del sitio web y aumenta la disponibilidad. Las CDN más populares son:
- Amazon CloudFront
- Azure CDN
- Cloudflare
Preguntas de la entrevista al Ingeniero de Nube Intermedio
Estas preguntas profundizan en las redes en la nube, la seguridad, la automatización y la optimización del rendimiento, poniendo a prueba tu capacidad para diseñar, gestionar y solucionar problemas de forma eficaz en entornos en la nube.
11. ¿Qué es una nube privada virtual (VPC) y por qué es importante?
Una nube privada virtual (VPC) es una sección lógicamente aislada de una nube pública que permite a los usuarios lanzar recursos en un entorno de red privada. Proporciona un mayor control sobre las configuraciones de red, las políticas de seguridad y la gestión de accesos.
En una VPC, los usuarios pueden definir rangos de direcciones IP utilizando bloques CIDR. Se pueden crear subredes para separar los recursos públicos de los privados, y los grupos de seguridad y las ACL de red ayudan a aplicar las políticas de acceso a la red.
12. ¿Cómo funciona un equilibrador de carga en la nube?
Los equilibradores de carga distribuyen el tráfico de red entrante entre varios servidores para garantizar una alta disponibilidad, tolerancia a fallos y un mejor rendimiento.
Existen distintos tipos de equilibradores de carga:
- Balanceadores de carga de aplicaciones (ALB): Funcionan en la Capa 7 (HTTP/HTTPS), enrutando el tráfico en función de reglas de contenido.
- Equilibradores de carga de red (NLB): Trabajan en la Capa 4 (TCP/UDP), proporcionando un encaminamiento de latencia ultrabaja.
- Balanceadores de carga clásicos (CLB): Opción heredada para equilibrar entre las Capas 4 y 7.
13. ¿Qué es IAM (gestión de identidades y accesos) y cómo se utiliza?
IAM es un marco que controla quién puede acceder a los recursos de la nube y qué acciones puede realizar. Ayuda a aplicar el principio del menor privilegio y asegura los entornos en nube.
En IAM, los usuarios y los roles definen identidades con permisos específicos, las políticas conceden o deniegan el acceso mediante reglas basadas en JSON, y la autenticación multifactor (MFA) añade una capa de seguridad adicional para las operaciones críticas.
14. ¿Qué son los grupos de seguridad y las ACL de red, y en qué se diferencian?
Los grupos de seguridad y las ACL (listas de control de acceso) de red controlan el tráfico entrante y saliente a los recursos de la nube, pero funcionan a distintos niveles.
- Grupos de seguridad: Actúan como cortafuegos, permitiendo o denegando el tráfico basándose en reglas. Tienen estado, lo que significa que los cambios en las reglas de entrada se reflejan automáticamente en las reglas de salida.
- ACL de red: Controlan el tráfico a nivel de subred y no tienen estado. Requieren reglas explícitas de entrada y salida para el tráfico bidireccional.
Comparar los grupos de seguridad y las ACL de red. Imagen del autor.
15. ¿Qué es un anfitrión bastión y por qué se utiliza?
Un host bastión es un servidor de salto seguro para acceder a los recursos de la nube en una red privada. En lugar de exponer todos los servidores a Internet, actúa como pasarela para conexiones remotas.
Para mejorar la seguridad, debe tener reglas estrictas de cortafuegos, que permitan el acceso SSH o RDP sólo desde IPs de confianza. La autenticación multifactor (MFA) y la autenticación basada en claves deben utilizarse para un acceso seguro, y debe activarse el registro y la supervisión para rastrear los intentos de inicio de sesión no autorizados.
16. ¿Cómo funciona el autoescalado en la nube?
El autoescalado permite a los entornos en nube ajustar dinámicamente los recursos en función de la demanda, garantizando la rentabilidad y el rendimiento. Funciona de dos maneras:
- Escala horizontal (escalar hacia fuera/hacia dentro): Añade o elimina instancias en función de la carga.
- Escala vertical (escala hacia arriba/abajo): Ajusta los recursos (CPU, memoria) de una instancia existente.
Los proveedores de la nube ofrecen grupos de autoescalado, que trabajan con equilibradores de carga para distribuir el tráfico eficazmente.
17. ¿Cómo garantizar la optimización de los costes de la nube?
Gestionar eficazmente los costes de la nube requiere supervisar el uso y seleccionar los modelos de precios adecuados. Las estrategias de optimización de costes incluyen:
- Utilizar instancias reservadas para cargas de trabajo a largo plazo para obtener descuentos.
- Aprovechar las instancias puntuales para cargas de trabajo de corta duración.
- Configurar alertas presupuestarias y herramientas de supervisión de costes como AWS Cost Explorer o Azure Cost Management.
- Dimensionar correctamente las instancias analizando el uso de CPU, memoria y red.
¿Quieres dominar la seguridad de AWS y optimizar los costes de la nube? Consulta el curso de Gestión de Costes y Seguridad de AWS para aprender las mejores prácticas esenciales.
Optimizar los costes de la nube cuatro pilares. Imagen del autor.
18. ¿Cuáles son las diferencias entre Terraform y CloudFormation?
Terraform y AWS CloudFormation son herramientas de infraestructura como código (IaC), pero tienen algunas diferencias:
Función |
Terraforma |
AWS CloudFormation |
Soporte en la nube |
Agnóstico para la nube, compatible con AWS, Azure, GCP y otros. |
Específico de AWS, diseñado exclusivamente para los recursos de AWS. |
Idioma de configuración |
Utiliza el lenguaje de configuración de HashiCorp (HCL). |
Utiliza plantillas JSON/YAML. |
Gestión estatal |
Mantiene un archivo de estado para realizar un seguimiento de los cambios en la infraestructura. |
Utiliza pilas para gestionar y seguir las implantaciones. |
19. ¿Cómo controlas el rendimiento de la nube y solucionas los problemas?
Las herramientas de supervisión ayudan a detectar los cuellos de botella en el rendimiento, las amenazas a la seguridad y el uso excesivo de los recursos. Entre las soluciones de monitorización habituales se incluyen:
- AWS CloudWatch: Controla las métricas, los registros y las alarmas.
- Monitor Azure: Proporciona información sobre aplicaciones e infraestructuras.
- Google Cloud Operations (antes Stackdriver): Ofrece registro y monitorización en tiempo real.
20. ¿Cómo mejora la contenedorización las implantaciones en la nube?
Los contenedores empaquetan aplicaciones con dependencias, haciéndolas ligeras, portátiles y escalables. En comparación con las máquinas virtuales, los contenedores utilizan menos recursos, ya que varios contenedores pueden ejecutarse en un único sistema operativo.
Docker y Kubernetes permiten un despliegue y retroceso más rápidos. Además, escalan fácilmente con herramientas de orquestación como Kubernetes y Amazon ECS/EKS.
¿Quieres perfeccionar tus conocimientos sobre la contenedorización? Tl tema de Containerización y Virtualización abarca Docker, Kubernetes y otros elementos que te ayudarán a crear aplicaciones escalables en la nube.
21. ¿Qué es una malla de servicios y por qué se utiliza en las aplicaciones en la nube?
Una malla de servicios es una capa de infraestructura que gestiona la comunicación entre servicios en aplicaciones en la nube basadas en microservicios. Proporciona:
- Gestión del tráfico: Permite el encaminamiento inteligente y el equilibrio de carga.
- Seguridad: Implementa el cifrado mutuo TLS para una comunicación segura.
- Observabilidad: Rastrea los flujos de peticiones y los registros para la depuración.
Entre las soluciones de malla de servicios más populares están Istio, Linkerd y AWS App Mesh.
22. ¿Qué es una estrategia multicloud y cuándo debe utilizarla una empresa?
Una estrategia multi-nube implica utilizar varios proveedores de nube (AWS, Azure, GCP) para evitar la dependencia de un proveedor y mejorar la resistencia.
Las empresas eligen este enfoque cuando necesitan redundancia geográfica para la recuperación de desastres, quieren aprovechar servicios únicos de distintos proveedores (por ejemplo, AWS para la informática, GCP para la IA), o necesitan cumplir normativas regionales que restringen las opciones de proveedores de la nube.
Pros y contras de la estrategia multi-nube. Imagen del autor.
Preguntas avanzadas de la entrevista a un ingeniero de la nube
Estas preguntas ponen a prueba tu capacidad para diseñar soluciones escalables, gestionar infraestructuras complejas en la nube y manejar escenarios críticos.
23. ¿Cómo se diseña una arquitectura en la nube multirregional y de alta disponibilidad?
Una arquitectura multirregión garantiza un tiempo de inactividad mínimo y la continuidad de la actividad distribuyendo los recursos entre varias ubicaciones geográficas.
Al diseñar una arquitectura de este tipo, hay que tener en cuenta varios factores. Estos son algunos de ellos:
- Replicación de datos: Utiliza bases de datos globales (por ejemplo, Tablas Globales de Amazon DynamoDB, Azure Cosmos DB) para sincronizar datos entre regiones manteniendo lecturas y escrituras de baja latencia.
- Distribución del tráfico: Despliega equilibradores de carga globales (por ejemplo, AWS Global Accelerator, Azure Traffic Manager) para dirigir a los usuarios a la región sana más cercana.
- Estrategia de conmutación por error: Implementa modelos de conmutación por error activo-activo (ambas regiones gestionan el tráfico) o activo-pasivo (una región en espera) con la conmutación por error de DNS de Route 53.
- Aplicaciones con estado frente a aplicaciones sin estado: Para permitir el cambio de región sin problemas, asegúrate de que los datos de sesión se almacenan de forma centralizada (por ejemplo, ElastiCache, Redis o una base de datos compartida) en lugar de en instancias individuales.
- Consideraciones sobre el cumplimiento y la latencia: Evalúa las leyes de soberanía de datos (por ejemplo, GDPR, HIPAA) y optimiza la proximidad al usuario para reducir la latencia.
Ejemplo de arquitectura de aplicación web multirregión de alta disponibilidad. Fuente de la imagen: Microsoft Aprende
24. ¿Cómo se gestiona la seguridad en una aplicación nativa de la nube con un modelo de confianza cero?
El modelo de confianza cero supone que no se debe confiar por defecto en ninguna entidad, ni dentro ni fuera de la red.
Implantar la confianza cero en entornos de nube:
- Verificación de identidad: Aplica una autenticación fuerte utilizando autenticación multifactor (MFA) y proveedores de identidad federados (por ejemplo, Okta, AWS IAM Identity Center).
- Acceso de mínimo privilegio: Aplica el control de acceso basado en roles (RBAC) o el control de acceso basado en atributos (ABAC) para conceder permisos en función de los roles laborales y el contexto en tiempo real.
- Microsegmentación: Utiliza cortafuegos, políticas de red y mallas de servicios (por ejemplo, Istio, Linkerd) para aislar las cargas de trabajo y aplicar reglas de comunicación estrictas.
- Supervisión y auditoría continuas: Implementa soluciones de gestión de eventos e información de seguridad (SIEM) (por ejemplo, AWS GuardDuty, Azure Sentinel) para detectar y responder a las anomalías.
- Cifrado de extremo a extremo: Garantiza el cifrado TLS para todas las comunicaciones e implanta claves gestionadas por el cliente (CMK) para el cifrado de datos en reposo.
25. ¿Cómo implantar una estrategia eficaz de gobernanza de los costes de la nube?
Una estrategia de éxito empieza por asignación y etiquetado de costesEn las organizaciones se aplica un etiquetado estructurado (por ejemplo, departamento, proyecto, propietario) para realizar un seguimiento del gasto en todos los equipos y mejorar la visibilidad financiera.
Alertas de presupuestoautomatizadas deben configurarse utilizando herramientas como AWS Budgets, Azure Cost Management o GCP Billing Alerts para evitar gastos inesperados. Estas soluciones proporcionan supervisión en tiempo real y notificaciones cuando el uso se acerca a umbrales predefinidos.
Otro aspecto es el dimensionamiento y las instancias reservadas. Analizando continuamente las métricas de utilización de las instancias, como la CPU y la memoria, los equipos pueden determinar si las cargas de trabajo deben ajustarse o migrarse a instancias reservadas o instancias puntuales, que ofrecen un importante ahorro de costes.
La aplicación de las mejores prácticas de FinOps mejora aún más la rentabilidad. Las herramientas automatizadas de detección de anomalías en los costes, como Kubecost (para entornos Kubernetes) y AWS Compute Optimizer, ayudan a identificar proactivamente los recursos infrautilizados y a optimizarlos.
Por último, las políticas de apagado automático desempeñan un papel esencial en la reducción de los residuos. Las funciones sin servidor, como AWS Lambda o Azure Functions, pueden apagar automáticamente los recursos infrautilizados fuera del horario laboral, evitando gastos innecesarios.
Pilares de aplicación de la estrategia de gobernanza de los costes de la nube. Imagen del autor.
26. ¿Cómo optimizar el rendimiento del almacenamiento de datos en un lago de datos basado en la nube?
Un lago de datos requiere un almacenamiento, recuperación y procesamiento eficientes de datos a escala de petabytes. Algunas estrategias de optimización son
- Almacenamiento por niveles: Utiliza Amazon S3 Intelligent-Tiering, Azure Blob Storage Tiers para mover los datos a los que se accede con poca frecuencia a clases de almacenamiento rentables.
- Partición e indexación: Implementa particiones al estilo de Hive para acelerar las consultas y aprovecha las particiones de AWS Glue Data Catalog y Google BigQuery para mejorar la indexación.
- Compresión y selección de formato de archivo: Utiliza Parquet u ORC sobre CSV/JSON para un almacenamiento eficiente y un procesamiento analítico más rápido.
- Optimización de las consultas del lago de datos: Utiliza motores de consulta sin servidor comoke Amazon Athena, Google BigQuery o Presto para acceder más rápidamente a los datos sin aprovisionar infraestructura.
27. ¿Cuáles son las consideraciones a tener en cuenta para diseñar un canal CI/CD nativo en la nube?
Uno de los aspectos fundamentalesde un canal CI/CD es el versionado del código y la gestión de repositorios, que permite una colaboración y un seguimiento de los cambios eficientes. Herramientas como GitHub Actions, AWS CodeCommit o Azure Repos ayudan a gestionar el código fuente, aplicar estrategias de ramificación y agilizar los flujos de trabajo de las solicitudes de extracción.
La automatización dela compilación y la gestión de artefactos desempeñan un papel crucial en el mantenimiento de la coherencia y la fiabilidad de las compilaciones de software. Utilizando compilaciones basadas en Docker, JFrog Artifactory o AWS CodeArtifact, los equipos pueden crear compilaciones reproducibles, almacenar artefactos de forma segura y garantizar el control de versiones en todos los entornos de desarrollo.
La seguridad es otra consideración crítica. La integración de las herramientas SAST (pruebas estáticas de seguridad de aplicaciones), como SonarQube o Snyk, permite la detección precoz de vulnerabilidades en la base de código. Además, imponer imágenes de contenedor firmadas garantiza que sólo se desplieguen artefactos verificados y de confianza.
Una sólida estrategia de despliegue en varias fases ayuda a minimizar los riesgos asociados a los lanzamientos de software. Enfoques como el canario, el verde azulado o las implantaciones continuas permiten implantaciones graduales, reduciendo el tiempo de inactividad y permitiendo la supervisión del rendimiento en tiempo real. Utilizando las banderas de características, los equipos pueden controlar qué usuarios experimentan las nuevas características antes de un lanzamiento completo.
Por último, la integración de la Infraestructura como Código (IaC) es esencial para automatizar y estandarizar los entornos en la nube. Utilizando Terraform, AWS CloudFormation o Pulumi, los equipos pueden definir la infraestructura en el código, mantener la coherencia entre las implementaciones y permitir el aprovisionamiento de recursos en la nube.
Implementar un canal CI/CD nativo en la nube. Imagen del autor.
28. ¿Cómo implementar la recuperación ante desastres (DR) para una aplicación en la nube crítica para la empresa?
La recuperación ante desastres (DR) es esencial para garantizar la continuidad de la empresa en caso de interrupciones, ataques o fallos de hardware. Un plan de RD sólido incluye lo siguiente:
- Objetivo de punto de recuperación (RPO) y objetivo de tiempo de recuperación (RTO): Define la pérdida de datos aceptable (RPO) y la duración del tiempo de inactividad (RTO).
- Copia de seguridad y replicación: Utiliza la replicación entre regiones, AWS Backup o Azure Site Recovery para mantener las copias de seguridad actualizadas.
- Estrategias de conmutación por error: Implementa arquitecturas activo-activo (hot standby) o activo-pasivo (warm/cold standby).
- Pruebas y automatización: Prueba regularmente los planes de RD con herramientas de ingeniería del caos como el Simulador de Inyección de Fallos de AWS o Gremlin.
29. ¿Cuáles son los retos de gestionar Kubernetes a escala en un entorno de nube?
La gestión de clústeres Kubernetes (K8s) a gran escala presenta retos operativos y de rendimiento. Las áreas clave que hay que abordar incluyen:
- Autoescalado del clúster: Utiliza Cluster Autoscaler o Karpenter para ajustar dinámicamente el número de nodos en función de las demandas de carga de trabajo.
- Optimización de la carga de trabajo: Implementa el autoescalador horizontal de vainas (HPA) y el autoescalador vertical de vainas (VPA) para una asignación eficiente de recursos.
- Red y malla de servicios: Aprovecha Istio o Linkerd para gestionar la comunicación entre servicios y la seguridad.
- Observabilidad y resolución de problemas: Despliega Prometheus, Grafana y Fluentd para monitorizar registros, métricas y trazas.
- Endurecimiento de la seguridad: Utiliza políticas de seguridad de vainas (PSP), control de acceso basado en roles (RBAC) y escaneo de imágenes de contenedores para mitigar las vulnerabilidades.
Preguntas de la entrevista al ingeniero de la nube basadas en escenarios
Las preguntas basadas en escenarios evalúan tu capacidad para analizar los retos de la nube en el mundo real, solucionar problemas y tomar decisiones arquitectónicas bajo diferentes restricciones.
Tus respuestas deben demostrar experiencia práctica, toma de decisiones y compensaciones a la hora de resolver problemas en la nube. Como no hay respuestas correctas o incorrectas, he incluido algunos ejemplos para guiar tu proceso de pensamiento.
30. Tu empresa está experimentando una alta latencia en una aplicación web alojada en la nube. ¿Cómo diagnosticarías y resolverías el problema?
Ejemplo de respuesta:
La alta latencia de una aplicación en la nube puede deberse a varios factores, como la congestión de la red, las consultas ineficaces a la base de datos, la colocación subóptima de instancias o las configuraciones erróneas del equilibrio de carga.
Para diagnosticar el problema, yo empezaría por aislar el cuello de botella utilizando herramientas de supervisión de la nube. El primer paso sería analizar los tiempos de respuesta de la aplicación y la latencia de la red comprobando los registros, los tiempos de solicitud-respuesta y los códigos de estado HTTP. Si el problema está relacionado con la red, yo utilizaría una prueba traceroute o ping para comprobar si han aumentado los tiempos de ida y vuelta entre los usuarios y la aplicación. Si existe algún problema, habilitar una CDN podría ayudar a almacenar en caché el contenido estático más cerca de los usuarios y reducir la latencia.
Si las consultas a la base de datos están causando retrasos, yo perfilaría las consultas lentasy las optimizaría mediante unadding indexación adecuada o desnormalizando las tablas. Además, si la aplicación tiene mucho tráfico, habilitar el escalado horizontal con grupos de autoescalado o réplicas de lectura puede reducir la carga de la base de datos primaria.
Si persisten los problemas de latencia, yo comprobaría los recursos informáticos de la aplicación, asegurándome de que se ejecuta en la zona de disponibilidad correcta más cercana a los usuarios finales. Si fuera necesario, migraría las cargas de trabajo a una configuración multirregión o utilizaría soluciones informáticas de borde para procesar las peticiones más cerca de la fuente.
31. Tu empresa está planeando migrar una aplicación local heredada a la nube. ¿Qué factores tendrías en cuenta y qué estrategia de migración utilizarías?
Ejemplo de respuesta:
El primer paso es realizar una evaluación de la preparación para la nube, evaluando si la aplicación puede migrarse tal cual o requiere modificaciones. Un enfoque consiste en utilizar las "6 R de la migración a la nube":
- Rehosting (levantar y desplazar)
- Reestructuración
- Recompra
- Refactorización
- Retirada
- Retención
Un enfoque de "levantar y cambiar" sería ideal si el objetivo es una migración rápida con cambios mínimos. Si la optimización del rendimiento y la eficiencia de costes son prioritarias, yo consideraría la posibilidad de re-platforming moviendo la aplicación a contenedores o computación sin servidor, lo que permite una mejor escalabilidad. Para las aplicaciones con arquitecturas monolíticas, puede ser necesaria la refactorización en microservicios para mejorar el rendimiento y la mantenibilidad.
También me centraría en la migración de datos, asegurándome de que las bases de datos se replican a la nube con un tiempo de inactividad mínimo.
La seguridad y el cumplimiento serían otra preocupación importante. Antes de la implantación, me aseguraría de que la aplicación cumple los requisitos normativos (por ejemplo, HIPAA, GDPR) aplicando el cifrado, las políticas IAM y el aislamiento VPC.
Por último, realizaría pruebas y validaciones en un entorno de ensayo antes de pasar al tráfico de producción.
32. Necesitas garantizar la alta disponibilidad de una aplicación de microservicios crítica para el negocio que se ejecuta en Kubernetes. ¿Cómo diseñarías la arquitectura?
Ejemplo de respuesta:
A nivel de infraestructura, desplegaría el clúster Kubernetes en varias zonas de disponibilidad (AZ). Esto garantiza que el tráfico pueda dirigirse a otra zona si una AZ se cae. Yo utilizaría Kubernetes Federation para gestionar despliegues multiclúster para configuraciones on-prem o híbridas.
Dentro del clúster, implementaría la resiliencia a nivel de pod configurando ReplicaSets y autoescaladores horizontales de pods (HPA) para escalar las cargas de trabajo dinámicamente en función de la utilización de CPU/memoria. Además, los presupuestos de interrupción de pods (PDB) garantizarían que un número mínimo de pods permanezca disponible durante las actualizaciones o el mantenimiento.
En cuanto a las redes, utilizaría una malla de servicios para gestionar la comunicación entre servicios, aplicando políticas de reintentos, interrupción de circuitos y modelado del tráfico. Un equilibrador de carga global distribuiría eficazmente el tráfico externo entre varias regiones.
El almacenamiento persistente es otro aspecto crítico. Si los microservicios requieren persistencia de datos, yo utilizaría soluciones de almacenamiento nativas de contenedor. Configuraría copias de seguridad entre regiones y políticas de instantáneas automatizadas para evitar la pérdida de datos.
Por último, la supervisión y el registro son esenciales para mantener una alta disponibilidad. Yo integraría Prometheus y Grafana para monitorizar el rendimiento en tiempo real y utilizaría la pila ELK o los registros de AWS CloudWatch para hacer un seguimiento de la salud de la aplicación y detectar fallos de forma proactiva.
Ejemplo de arquitectura de microservicios utilizando Azure Kubernetes Service (AKS). Fuente de la imagen: Microsoft Aprende
33. Se detecta una brecha de seguridad en tu entorno de nube. ¿Cómo investigarías y mitigarías el impacto?
Ejemplo de respuesta:
Al detectar una brecha de seguridad, mi respuesta inmediata sería contener el incidente, identificar el vector de ataque y evitar que se siga explotando. En primer lugar, aislaría los sistemas afectados para limitar los daños, revocando las credenciales de IAM comprometidas, restringiendo el acceso a los recursos afectados y aplicando las reglas de los grupos de seguridad.
El siguiente paso sería el análisis del registro y la investigación. Los registros de auditoría revelarían actividades sospechosas, como intentos de acceso no autorizados, escaladas de privilegios o llamadas inesperadas a la API. Si un atacante explotara una política de seguridad mal configurada, identificaría y parchearía la vulnerabilidad.
Para mitigar el impacto, yo rotaría las credenciales, revocaría las claves API comprometidas y aplicaría la MFA a todas las cuentas privilegiadas. Si la violación implicara la exfiltración de datos, analizaría los registros para rastrear el movimiento de datos y notificaría a las autoridades pertinentes si el cumplimiento normativo se viera afectado.
Una vez confirmada la contención, llevaría a cabo una revisión posterior al incidente para reforzar las políticas de seguridad.
34. Tu empresa quiere implantar una estrategia multi-nube. ¿Cómo diseñarías y gestionarías una arquitectura así?
Ejemplo de respuesta:
Para diseñar una arquitectura multi-nube, yo empezaría con un marco común de gestión de identidad y acceso (IAM), como Okta, AWS IAM Federation o Azure AD, para garantizar la autenticación en todas las nubes. Esto evitaría el control de acceso en silos y reduciría la dispersión de identidades.
La conexión en red es un reto clave en los entornos multicloud. Utilizaría servicios de interconexión como AWS Transit Gateway, Azure Virtual WAN o Google Cloud Interconnect para facilitar la comunicación segura entre nubes. Además, implantaría una malla de servicios para estandarizar la gestión del tráfico y las políticas de seguridad.
La coherencia de los datos entre nubes es otro factor crítico. Yo garantizaría la replicación entre nubes utilizando bases de datos globales como Spanner, Cosmos DB o AWS Aurora Global Database. Si las aplicaciones sensibles a la latencia requieren localización de datos, utilizaría soluciones de computación de borde para reducir la transferencia de datos entre nubes.
Por último, la supervisión de los costes y la gobernanza serían esenciales para evitar la expansión de la nube. Utilizando herramientas de FinOps como CloudHealth, AWS Cost Explorer y Azure Cost Management, realizaría un seguimiento del gasto, aplicaría límites presupuestarios y optimizaría la asignación de recursos de forma dinámica.
Conclusión
Prepararse para una entrevista de ingeniero de la nube requiere una sólida comprensión de los fundamentos, la arquitectura, la seguridad y las mejores prácticas de la nube. Sigue explorando los servicios en la nube, mantente al día de las tendencias del sector y, lo más importante, adquiere experiencia práctica con AWS, Azure o GCP.
El curso AWS Cloud Practitioner es un buen punto de partida si quieres saber más sobre AWS. Si eres nuevo en Microsoft Azure, el curso Fundamentos de Azure (AZ-900 ) te ayudará a construir una base sólida. Y para quienes deseen sumergirse en Google Cloud Platform (GCP), el curso Introducción a GCP es el punto de partida perfecto.
¡Buena suerte con tu entrevista!
Thalia Barrera es Editora Senior de Ciencia de Datos en DataCamp, con un máster en Informática y más de una década de experiencia en ingeniería de software y datos. Thalia disfruta simplificando conceptos tecnológicos para ingenieros y científicos de datos a través de publicaciones en blogs, tutoriales y cursos en vídeo.
¡Aprende más sobre la computación en nube con estos cursos!
curso
AWS Cloud Technology and Services Concepts
curso
Understanding Microsoft Azure Architecture and Services
blog
30 preguntas de entrevista sobre Azure: De Básico a Avanzado

Josep Ferrer
30 min
blog
Las 20 mejores preguntas y respuestas de la entrevista sobre AWS Lambda para 2024

blog
Las 39 mejores preguntas y respuestas de entrevistas sobre ingeniería de datos en 2025
blog
Las 32 mejores preguntas y respuestas de la entrevista sobre Snowflake para 2024

Nisha Arya Ahmed
20 min

blog