Saltar al contenido principal

Dominar la API de Databricks: Trabajar con canalizaciones de datos a escala

Aprende a utilizar la API REST de Databricks para la automatización de trabajos, la gestión de clusters y las integraciones. Domina las mejores prácticas de seguridad, rendimiento y escalabilidad.
Actualizado 6 mar 2025  · 12 min de lectura

Las API de Databricks permiten la interacción programática con Databricks, permitiendo a los usuarios automatizar flujos de trabajo, gestionar clusters, ejecutar trabajos y acceder a los datos. Estas API admiten la autenticación mediante tokens de acceso personales, OAuth o Azure Active Directory.

En este artículo, te guiaré a través de un viaje práctico y en profundidad por la API REST de Databricks. Tanto si eres nuevo en Databricks como si quieres optimizar tus flujos de trabajo actuales, esta guía te ayudará a dominar las operaciones clave, como la autenticación, la gestión de trabajos y la integración con sistemas externos. 

Al final de este artículo, tendrás un plan claro para:

  • Configurar la autenticación segura de la API utilizando tokens de acceso personales.  
  • Utilizar los puntos finales de la API para crear, actualizar y ejecutar trabajos. 
  • Aplicando las mejores prácticas para mejorar el rendimiento, optimizar los costes y gestionar los errores. 
  • Integrar Databricks con otras plataformas y herramientas de orquestación.

Si eres totalmente nuevo en Databricks y quieres aprenderlo rápidamente, lee nuestra entrada del blog, Cómo aprender Databricks: Guía para principiantes de la Plataforma Unificada de Datos, que te ayudará a comprender las principales características y aplicaciones de Databricks, y también te proporcionará un camino estructurado para iniciar tu aprendizaje.

¿Por qué utilizar la API de Databricks?

La API REST de Databricks desbloquea potentes capacidades para desarrolladores e ingenieros de datos, permitiéndoles gestionar recursos mediante programación y agilizar los flujos de trabajo. He aquí cómo la API de Databricks puede marcar una gran diferencia:

Reducción de la sobrecarga manual en la programación de trabajos y la gestión de clusters

La API de Databricks permite a los usuarios automatizar tareas como la programación de trabajos y la gestión de clusters. Esto reduce el esfuerzo manual necesario para gestionar estos procesos, liberando tiempo para actividades más estratégicas. Al automatizar las tareas repetitivas, las organizaciones pueden mejorar la eficacia y reducir la probabilidad de errores humanos, que pueden provocar costosos errores o tiempos de inactividad.

Integraciones sin fisuras con sistemas externos

La API de Databricks está diseñada para ser flexible y permitir la integración con plataformas externas, como herramientas de orquestación como Apache Airflow o Azure Data Factory.

También puedes utilizar la API de Databricks para sistemas de supervisión y alerta como Prometheus o Datadog. La API de Databricks también se utiliza en canalizaciones de ingestión de datos desde herramientas como Kafka o servicios de datos RESTful. Estas integraciones ayudan a crear flujos de trabajo integrales que unen la ingeniería de datos y la analítica a través de múltiples sistemas.

Escalabilidad para miles de canalizaciones automatizadas

La API de Databricks admite la creación y gestión de miles de canalizaciones automatizadas. Se escala sin esfuerzo para gestionar miles de trabajos que se ejecutan en paralelo y un escalado dinámico del clúster basado en la demanda de cargas de trabajo. Esta escalabilidad garantiza que tu infraestructura se adapte perfectamente a las necesidades del negocio, incluso a escala empresarial.

Operaciones y ejemplos de la API principal

La API REST de Databricks ofrece una amplia gama de operaciones para gestionar trabajos, clusters, archivos y permisos de acceso. A continuación, exploraré las operaciones clave de la API con ejemplos prácticos para ayudarte a construir y automatizar flujos de trabajo sólidos.

Empleo

Los trabajos son la columna vertebral de los flujos de trabajo automatizados en Databricks. La API te permite crear, gestionar y supervisar trabajos sin problemas.

Crear un trabajo

Utiliza el punto final POST /API/2.1/jobs/create para definir un nuevo trabajo. Por ejemplo, la siguiente carga JSON crea un nuevo trabajo Databricks llamado My Job y ejecuta un bloc de notas ubicado en /path/to/notebook. La carga útil utiliza entonces un cluster existente con el ID cluster-id, evitando la necesidad de crear uno nuevo. Si el trabajo falla, la carga útil enviará una notificación por correo electrónico a user@example.com.

{
  "name": "My Job",
  "existing_cluster_id": "cluster-id",
  "notebook_task": {
    "notebook_path": "/path/to/notebook"
  },
  "email_notifications": {
    "on_failure": ["user@example.com"]
  }
}

Listar y obtener detalles del trabajo

Puedes utilizar el punto final GET /api/2.1/jobs/list para recuperar una lista de todos los trabajos de tu espacio de trabajo. Por ejemplo, el siguiente comando de ejemplo listará todos los trabajos:

curl -n -X GET \
https://<databricks-instance>.cloud.databricks.com/api/2.1/jobs/list

Ejecuciones desencadenantes

Utiliza el punto final POST /api/2.1/jobs/run-now para activar la ejecución inmediata de un trabajo.

curl -n -X POST \
https://<databricks-instance>.cloud.databricks.com/api/2.1/jobs/run-now?job_id=123456789

Borrar trabajos y ejecuciones

Aunque la última versión de la API no tiene un punto final directo para eliminar trabajos, puedes gestionar las ejecuciones de trabajos y su ciclo de vida a través de otros puntos finales. Utiliza el punto final Eliminar un trabajo: POST /api/2.1/jobs/delete para eliminar un trabajo y POST /api/2.1/jobs/runs/cancel para cancelar una ejecución.

Monitorización de ejecuciones, gestión de errores y registros

Utiliza GET /api/2.1/jobs/runs/get para controlar el estado de un trabajo. Recupera registros o gestiona errores utilizando el campo run_state.

Agrupaciones

Los clusters proporcionan los recursos informáticos para ejecutar los trabajos. La API simplifica la gestión del ciclo de vida del clúster.

Crear y editar agrupaciones

Crea un clúster con POST /api/2.1/clusters/create. Por ejemplo, puedes tener lo siguiente en el cuerpo de la solicitud.

{
  "cluster_name": "Example Cluster",
  "spark_version": "12.2.x-scala2.12",
  "node_type_id": "i3.xlarge",
  "num_workers": 4
}

A continuación, ejecuta el comando de ejemplo que aparece a continuación para crear este clúster.

curl -n -X POST \
-H 'Content-Type: application/json' \
-d '{"cluster_name": "My Cluster", "spark_version": "7.3.x-scala2.12", "node_type_id": "i3.xlarge", "num_workers": 2}' \
https://<databricks-instance>.cloud.databricks.com/api/2.1/clusters/create

Iniciar, reiniciar, redimensionar y terminar clusters

Utiliza las siguientes API para:

  • Iniciar Clúster: POST /api/2.1/clusters/start

  • Reinicia el Cluster: POST /api/2.1/clusters/restart

  • Redimensiona el Cluster: PATCH /api/2.1/clusters/edit

  • Finaliza el Cluster: POST /api/2.1/clusters/delete

Mejores prácticas para los clústeres efímeros frente a los polivalentes

Considera las siguientes buenas prácticas para:

  • Agrupaciones efímeras: Utilízalo para trabajos que requieran una asignación dinámica de recursos y que se puedan terminar una vez finalizado el trabajo.
  • Racimos Polivalentes: Adecuado para cargas de trabajo continuas en las que los clusters se reutilizan en varios trabajos.

DBFS (Sistema de Archivos Databricks)

DBFS permite almacenar y recuperar archivos en Databricks.

Cargar y descargar archivos

Puedes utilizar la API POST /api/2.1/dbfs/upload para subir archivos a DBFS en trozos (multiparte) o cuando manejes archivos grandes (>1MB). La API GET /api/2.1/dbfs/read se utiliza para descargar archivos.

Listar directorios y manejar operaciones con archivos grandes

Utiliza GET /api/2.1/dbfs/list para explorar directorios y gestionar archivos mediante programación. Para subir archivos grandes, utiliza subidas por trozos con POST /api/2.1/dbfs/put y el parámetro overwrite.

Secretos y autenticación

La API Secretos garantiza el almacenamiento y la recuperación seguros de información sensible.

Almacenar credenciales de forma segura con la API Secretos

Utiliza el punto final POST /api/2.1/secrets/create para crear un nuevo secreto para almacenar información sensible.

Por ejemplo, puedes crear el cuerpo de la petición en JSON de la siguiente manera:

{
  "scope": "my-scope",
  "key": "my-key",
  "string_value": "my-secret-value"
}

A continuación, crea el secreto utilizando el siguiente comando:

curl -n -X POST \
-H 'Content-Type: application/json' \
-d '{"scope": "my-scope", "key": "my-key", "string_value": "my-secret-value"}' \
https://<databricks-instance>.cloud.databricks.com/api/2.1/secrets/create

Recuperar secretos para la integración

Utiliza el punto final GET /API/2.1/secrets/get para recuperar secretos de integraciones externas.

Permisos y controles de acceso

La plataforma Databricks permite un control granular del acceso a los trabajos y recursos.

Establecer y actualizar permisos

Utiliza el punto final POST /api/2.1/permissions/jobs/update para asignar funciones como propietarios o espectadores. Por ejemplo, la siguiente carga útil se utiliza para actualizar los permisos:

{
  "access_control_list": [
    {
      "user_name": "user@example.com",
      "permission_level": "CAN_MANAGE"
    }
  ]
}

Control de acceso basado en roles (RBAC)

Utiliza el control de acceso basado en roles (RBAC) integrado de Databricks para gestionar los permisos de los distintos roles de tu organización.

Límites de velocidad, gestión de errores y resolución de problemas de la API de Databricks

Cuando trabajes con la API REST de Databricks, es importante tener en cuenta los límites de velocidad, gestionar los errores con elegancia y afrontar los retos habituales para garantizar un rendimiento fiable y unas operaciones fluidas. En esta sección, trataré las estrategias para optimizar el uso de la API y solucionar los problemas de forma eficaz.

Límites de tarifa

La API de Databricks aplica límites de tarifa para garantizar un uso justo y mantener la fiabilidad del servicio. 

  • Directrices oficiales sobre la frecuencia de las solicitudes: Este límite restringe el número de llamadas a la API que un usuario puede hacer en un minuto. Superar este límite puede provocar errores HTTP 429. Las Peticiones por Día (RPD) limitan el número total de peticiones que un usuario puede hacer en 24 horas.
  • Estrategias para Manejar 429 Errores y Enfoques de Retroceso: Implementa un mecanismo de reintentos con retrasos exponencialmente crecientes entre reintentos. Esto ayuda a evitar saturar el servidor y reduce la probabilidad de volver a alcanzar el límite de velocidad inmediatamente. Además, supervisa los patrones de solicitud para consolidar las llamadas frecuentes siempre que sea posible, con el fin de reducir el número total de solicitudes.

Problemas comunes y soluciones

A continuación se indican los problemas habituales que puedes experimentar con las API de Databricks y cómo resolverlos.

  • Errores de autenticación: Este error suele producirse debido a tokens no válidos o caducados. Para resolver el problema, asegúrate siempre de que los tokens son válidos y están correctamente configurados. Verifica la validez del testigo y regenéralo si es necesario. Asegúrate de que los principales de servicio están correctamente configurados y se les han concedido los roles adecuados en Azure Databricks.
  • Errores de formato de datos o JSON: Valida siempre los datos JSON antes de enviarlos en las peticiones API. Utiliza bloques try-catch para gestionar los errores de análisis con elegancia. Utilizar herramientas como los validadores JSON para comprobar el formato de los datos antes de enviar las peticiones también ayudará a resolver el error.
  • Depuración de fallos de trabajo: Utiliza la API de Databricks para recuperar registros de trabajos con fines de depuración. Implementa un registro y una supervisión sólidos para identificar y solucionar rápidamente los fallos en los trabajos.

Cuellos de botella en el rendimiento

Si te encuentras con cuellos de botella en el rendimiento, debes considerar las siguientes soluciones:

  • Minimizar la sobrecarga en las llamadas repetidas: Implementa el almacenamiento en caché de los datos a los que se accede con frecuencia para reducir el número de llamadas a la API. Además, utiliza operaciones por lotes para minimizar la sobrecarga combinando varias peticiones en una sola llamada.
  • Utilizar operaciones de caché o por lotes: Almacena los datos a los que se accede con frecuencia en una capa de caché para reducir las llamadas repetidas a la API. También puedes combinar varias solicitudes en una sola llamada a la API para reducir la sobrecarga y mejorar el rendimiento.

Flujos de trabajo avanzados y procesamiento paralelo

La API REST de Databricks es muy versátil, ya que admite tanto flujos de trabajo sencillos de un solo hilo como complejos procesamientos en paralelo. Aprovechando los flujos de trabajo avanzados, puedes optimizar la eficacia e integrarte sin problemas con sistemas externos. Veamos cómo aplicar estas funciones.

Como nota, configura siempre tus variables de entorno utilizando:

  • DATABRICKS_HOST: Esta variable almacena la URL de tu instancia de Databricks, que es necesaria para construir peticiones API.

  • DATABRICKS_TOKEN: Esta variable contiene tu token de acceso, simplificando el proceso de incluirlo en las llamadas a la API.

Caso práctico 1: Ingesta de API de un solo hilo

Llamar secuencialmente a un único punto final de la API es eficaz para tareas más pequeñas o automatizaciones sencillas. A continuación se muestra un ejemplo práctico utilizando la biblioteca requests en Python.

import requests
import os

# Set up environment variables
DATABRICKS_HOST = os.getenv("DATABRICKS_HOST")
DATABRICKS_TOKEN = os.getenv("DATABRICKS_TOKEN")

# API request to list jobs
url = f"{DATABRICKS_HOST}/api/2.1/jobs/list"
headers = {"Authorization": f"Bearer {DATABRICKS_TOKEN}"}

response = requests.get(url, headers=headers)
if response.status_code == 200:
    jobs = response.json().get("jobs", [])
    for job in jobs:
        print(f"Job ID: {job['job_id']}, Name: {job['settings']['name']}")
else:
    print(f"Error: {response.status_code} - {response.text}")

Caso práctico 2: Llamadas a la API paralelas o distribuidas

El procesamiento paralelo puede mejorar significativamente la eficiencia de la ingestión de datos a gran escala o cuando se trata de múltiples puntos finales. El siguiente ejemplo muestra cómo utilizar Apache Spark para distribuir llamadas a la API de forma concurrente.

from pyspark.sql import SparkSession
from pyspark.sql.functions import udf
import requests

# Initialize Spark session
spark = SparkSession.builder.appName("ParallelAPI").getOrCreate()

# Sample data for parallel calls
data = [{"job_id": 123}, {"job_id": 456}, {"job_id": 789}]
df = spark.createDataFrame(data)

# Define API call function
def fetch_job_details(job_id):
    url = f"{DATABRICKS_HOST}/api/2.1/jobs/get"
    headers = {"Authorization": f"Bearer {DATABRICKS_TOKEN}"}
    response = requests.get(url, headers=headers, params={"job_id": job_id})
    if response.status_code == 200:
        return response.json().get("settings", {}).get("name", "Unknown")
    return f"Error: {response.status_code}"

# Register UDF
fetch_job_details_udf = udf(fetch_job_details)

# Apply UDF to DataFrame
results_df = df.withColumn("job_name", fetch_job_details_udf("job_id"))
results_df.show()

Ten en cuenta los siguientes consejos para compensar la escalabilidad y los costes.

  • Escalabilidad: Spark te permite escalar horizontalmente añadiendo más nodos a tu clúster. Esto es especialmente útil para gestionar grandes volúmenes de solicitudes API.
  • Compensación de costes: Aunque el procesamiento paralelo reduce el tiempo de ejecución, aumenta el uso de recursos y los costes. Asegúrate de que la configuración de tu clúster equilibra las necesidades de rendimiento con las limitaciones de costes.
  • Consejos para la configuración del clúster: Elige nodos que equilibren la CPU y la memoria en función de tu carga de trabajo. También debes asegurarte de contar con suficientes trabajadores para gestionar el volumen de peticiones sin saturar el clúster. Optimiza la configuración de Spark, como spark.executor.memory y spark.driver.memory, para evitar problemas de memoria.

Orquestación e integración

Integrar Databricks con orquestadores externos como Airflow o Dagster te permite gestionar flujos de trabajo complejos y automatizar la ejecución de trabajos en distintos sistemas. El siguiente ejemplo muestra cómo utilizar Airflow para activar un trabajo Databricks.

from airflow import DAG
from airflow.providers.databricks.operators.databricks import DatabricksRunNowOperator
from datetime import datetime

# Define default arguments for the DAG
default_args = {
    "owner": "airflow",  # Owner of the DAG
    "depends_on_past": False,  # Do not depend on past DAG runs
    "retries": 1,  # Number of retry attempts in case of failure
}

# Define the DAG
with DAG(
    dag_id="databricks_job_trigger",  # Unique DAG ID
    default_args=default_args,  # Apply default arguments
    schedule_interval=None,  # Manually triggered DAG (no schedule)
    start_date=datetime(2023, 1, 1),  # DAG start date
) as dag:

    # Task to trigger a Databricks job
    run_job = DatabricksRunNowOperator(
        task_id="run_databricks_job",  # Unique task ID
        databricks_conn_id="databricks_default",  # Connection ID for Databricks
        job_id=12345,  # Replace with the actual Databricks job ID
    )

    # Set task dependencies (if needed)
    run_job

Para las canalizaciones CI/CD, herramientas como la integración de Git con Databricks pueden automatizar el despliegue de código y activos en distintos entornos. Esto garantiza que los cambios se prueben y validen antes de pasar a producción.

# Example of using Databricks REST API in a CI/CD pipeline
import requests

def deploy_to_production():
    # Assuming you have a personal access token
    token = "your_token_here"
    headers = {"Authorization": f"Bearer {token}"}
    
    # Update job or cluster configurations as needed
    url = "https://your-databricks-instance.cloud.databricks.com/api/2.1/jobs/update"
    payload = {"job_id": "123456789", "new_settings": {"key": "value"}}
    
    response = requests.post(url, headers=headers, json=payload)
    if response.status_code == 200:
        print("Deployment successful.")
    else:
        print(f"Deployment failed. Status code: {response.status_code}")

Ejemplo práctico: Crear una canalización de varios pasos

Ahora que hemos visto las diferentes aplicaciones de la API de Databricks, déjame que te guíe a través de un ejemplo de canalización automatizada. Esta canalización ingiere datos de una API externa, los transforma en Databricks y, a continuación, escribe los resultados en una tabla de Databricks. Este escenario es un flujo de trabajo típico de principio a fin para las tareas modernas de ingeniería de datos. Si necesitas refrescar tus conocimientos sobre las principales funciones de Databricks, incluida la ingesta de datos, te recomiendo que consultes nuestro tutorial sobre los 7 conceptos que todo especialista en datos debe conocer.

Autenticación mediante un token de acceso personal

Para interactuar con la API REST de Databricks, necesitas autenticarte utilizando un Token de Acceso Personal (PAT). Sigue estos pasos para generar el PAT. 

  • Accede a tu espacio de trabajo Databricks.

Espacio de trabajo Databricks.

Espacio de trabajo Databricks. Imagen del autor.

  • Ve a Configuración > Configuración de Usuario > Tokens de Acceso.

Generar token de acceso en Databricks.

Generar token de acceso en Databricks. Imagen del autor.

  • Genera un nuevo token y guárdalo de forma segura.

Si necesitas refrescar tus conocimientos sobre SQL de Databricks, te recomiendo que leas nuestro tutorial sobre SQL de Databricks para aprender a configurar SQL Warehouse desde la interfaz web de Databricks.

Configura las variables de entorno utilizando una de las siguientes opciones:

Utilizar el terminal

export DATABRICKS_HOST=https://<your-databricks-instance>
export DATABRICKS_TOKEN=<your-access-token>

Utilizar la biblioteca de peticiones de Python para las llamadas a la API

import os
import requests

DATABRICKS_HOST = os.getenv("DATABRICKS_HOST")
DATABRICKS_TOKEN = os.getenv("DATABRICKS_TOKEN")

headers = {"Authorization": f"Bearer {DATABRICKS_TOKEN}"}

Configurar un trabajo Databricks con varias tareas

Un trabajo Databricks puede constar de varias tareas, cada una de las cuales realiza un paso en el pipeline. Para este ejemplo, considera lo siguiente:

  • Tarea 1: Obtén datos de una API externa y escribe en DBFS.
  • Tarea 2: Transforma los datos en un cuaderno Databricks.
  • Tarea 3: Escribe los datos transformados en una tabla Delta.

El siguiente ejemplo utiliza el endpoint POST /api/2.1/jobs/create para crear el trabajo.

{
  "name": "Multi-Step Pipeline",
  "tasks": [
    {
      "task_key": "fetch_data",
      "existing_cluster_id": "your-cluster-id",
      "notebook_task": {
        "notebook_path": "/Users/example_user/fetch_data"
      }
    },
    {
      "task_key": "transform_data",
      "depends_on": [{"task_key": "fetch_data"}],
      "existing_cluster_id": "your-cluster-id",
      "notebook_task": {
        "notebook_path": "/Users/example_user/transform_data"
      }
    },
    {
      "task_key": "write_results",
      "depends_on": [{"task_key": "transform_data"}],
      "existing_cluster_id": "your-cluster-id",
      "notebook_task": {
        "notebook_path": "/Users/example_user/write_results"
      }
    }
  ]
}

Activar el flujo de trabajo y recuperar los resultados/salidas del trabajo

Activa el trabajo con POST /api/2.1/jobs/run-now

curl -n -X POST \
https://$DATABRICKS_HOST/api/2.1/jobs/run-now?job_id=your_job_id

Supervisa el estado del trabajo utilizando GET /api/2.1/jobs/runs/get con el run_id para seguir el progreso.

response = requests.get(f"{DATABRICKS_HOST}/api/2.1/jobs/runs/get", headers=headers, params={"run_id": run_id})
print(response.json())

Accede a los registros de salida, o a los resultados de las tareas utilizando GET /api/2.1/jobs/runs/get-output.

Registro y tratamiento de errores

Para el registro, configura los registros de trabajo para que se escriban en DBFS o en una herramienta de supervisión como Datadog o Splunk. Además, incluye un registro detallado en el cuaderno de cada tarea para una mejor trazabilidad.

Del mismo modo, implementa bloques try-except en los cuadernos para capturar y registrar excepciones. Utiliza la API de trabajos de Databricks para recuperar los registros de trabajos para depurar las ejecuciones fallidas. El siguiente ejemplo muestra el tratamiento de errores en un bloc de notas.

try:
    # Code to fetch data from API
    response = requests.get(api_url)
    # Process data
except Exception as e:
    print(f"An error occurred: {e}")
    # Log error and exit

También puedes integrarlo con notificaciones por correo electrónico o Slack utilizando la API de Alertas de Databricks o herramientas de terceros.

Buenas prácticas y recomendaciones

La aplicación de las mejores prácticas en Databricks puede aumentar significativamente la seguridad, reducir los costes y mejorar la fiabilidad general del sistema. A continuación se indican las estrategias clave que debes tener en cuenta al utilizar la API de Databricks y las áreas críticas.

Seguridad y gobernanza

Evita almacenar fichas simples en código o cuadernos. En su lugar, utiliza Databricks Secret para almacenar información sensible como claves API o credenciales de forma segura utilizando la API Databricks Secrets. Esto garantiza que los datos sensibles no queden expuestos en texto plano dentro del código o de los cuadernos. Utiliza siempre variables de entorno para pasar tokens o secretos a los scripts, pero asegúrate de que estas variables se gestionan de forma segura y no se envían al control de versiones.

Utiliza el Control de Acceso Basado en Funciones (RBAC) para definir los permisos a nivel de espacio de trabajo, clúster y trabajo, y limita el acceso a las API sensibles sólo a los usuarios o cuentas de servicio necesarios.

Gestión de costes

Para una gestión eficaz de los costes, considera la posibilidad de utilizar Clusters de un solo nodo para tareas continuas y de baja carga. Sin embargo, pueden ser rentables si no se utilizan plenamente. Además, los clusters de trabajos efímeros se crean y finalizan automáticamente para los trabajos, garantizando que los recursos no estén ociosos.

Debido a los precios dinámicos de los recursos de la nube, la programación fuera de horas punta puede reducir significativamente los costes. Utiliza la API de Trabajos para definir programaciones de trabajos durante ventanas de tiempo rentables.

Por último, supervisa el uso del clúster comprobando regularmente su utilización para asegurarte de que no se desperdician recursos. Configura los clusters para que finalicen automáticamente tras un tiempo de inactividad especificado, para evitar costes innecesarios.

Pruebas y seguimiento continuos

Para las pruebas automatizadas y las definiciones de trabajo, utiliza pruebas unitarias para implementar pruebas unitarias para la lógica del trabajo, con el fin de detectar errores a tiempo. Supervisa las ejecuciones de los trabajos y registra las métricas de rendimiento para aprovechar la API de Trabajos para realizar un seguimiento programático de las ejecuciones de los trabajos y analizar los datos históricos de las ejecuciones:

Conclusión y próximos pasos

El uso de la API REST de Databricks permite a los equipos automatizar los flujos de trabajo, optimizar los costes e integrarse a la perfección con sistemas externos, transformando el modo en que se gestionan las canalizaciones de datos y los análisis. Te animo a que empieces probando una llamada básica a la API, como crear un trabajo, para coger confianza con la plataforma. También puedes explorar otros temas avanzados como el Catálogo de Unity para una gobernanza detallada o sumergirte en casos de uso de streaming en tiempo real.

Además, te recomiendo que consultes los documentos oficiales de la API REST de Databricks para que te ayuden a responder a las preguntas pendientes, y que explores los repositorios de GitHub sobre la CLI de Databricks y el SDK de Databricks para Python para aprender más sobre el desarrollo optimizado.

Si quieres explorar los conceptos fundamentales de Databricks, te recomiendo encarecidamente que sigas nuestro curso Introducción a Databricks. Este curso te enseña Databricks como solución de almacenamiento de datos para Business Intelligence. También te recomiendo que eches un vistazo a nuestra entrada del blog Certificaciones Dat abricks En 2024 para saber cómo obtener certificaciones Databricks, explorar las ventajas profesionales y elegir la certificación adecuada para tus objetivos profesionales.


Allan Ouko's photo
Author
Allan Ouko
LinkedIn
Creo artículos que simplifican la ciencia de los datos y la analítica, haciéndolos fáciles de entender y accesibles.

Preguntas frecuentes sobre la API de Databricks

¿Qué es la API REST de Databricks?

La API de Databricks permite el acceso programático para gestionar recursos de Databricks como trabajos, clusters, secretos y el espacio de trabajo.

¿Cómo me autentifico con la API de Databricks?

Utiliza Tokens de Acceso Personal (PAT) para una autenticación segura. Evita incrustar tokens en el código; guárdalos en Secretos de Databricks o en variables de entorno.

¿Cuáles son las diferencias entre las versiones de la API (v2.0 vs. v2.1)?

La versión 2.1 introduce funciones mejoradas, incluidas las de gestión de trabajos. Se recomienda migrar a la v2.1.

¿Admite la API flujos de trabajo de varios pasos?

Sí, la API de Trabajos admite flujos de trabajo con tareas dependientes y trabajos multitarea.

Temas

Aprende Cloud con DataCamp

curso

Introduction to Databricks

3 hr
12.1K
Learn about the Databricks Lakehouse platform and how it can modernize data architectures and improve data management processes.
Ver detallesRight Arrow
Comienza el curso
Ver másRight Arrow
Relacionado

blog

Certificaciones Databricks en 2024: La guía completa

Descubre cómo obtener certificaciones Databricks, explora las ventajas profesionales y aprende a elegir la certificación adecuada para tus objetivos en 2024.
Gus Frazer's photo

Gus Frazer

24 min

blog

Azure Synapse frente a Databricks: Comprender las diferencias

Descubre cómo se comparan Azure Synapse y Databricks. Comprende sus características, casos de uso y capacidades de integración, y descubre qué plataforma se adapta mejor a tus necesidades de datos.
Gus Frazer's photo

Gus Frazer

14 min

blog

Contratos de datos desmitificados: Todo lo que necesitas saber

Lograr la escalabilidad en los sistemas de datos distribuidos y reducir los errores.
Mike Shakhomirov's photo

Mike Shakhomirov

24 min

blog

Los 13 mejores proyectos de AWS: De principiante a profesional

Explora 13 proyectos prácticos de AWS para todos los niveles. Mejora tus conocimientos sobre la nube con aplicaciones prácticas del mundo real y la orientación de expertos.
Joleen Bothma's photo

Joleen Bothma

12 min

Top MLOps Tools

blog

25 Herramientas MLOps que debes conocer en 2025

Descubre las mejores herramientas MLOps para el seguimiento de experimentos, la gestión de metadatos de modelos, la orquestación de flujos de trabajo, el versionado de datos y canalizaciones, el despliegue y servicio de modelos, y la supervisión de modelos en producción.
Abid Ali Awan's photo

Abid Ali Awan

15 min

tutorial

Tutorial de Pyspark: Primeros pasos con Pyspark

Descubre qué es Pyspark y cómo se puede utilizar, con ejemplos.
Natassha Selvaraj's photo

Natassha Selvaraj

10 min

Ver másVer más