Saltar al contenido principal

CREAR TABLA en Databricks: Una guía completa para construir y gestionar tablas

Descubre cómo crear tablas en Databricks utilizando el comando CREAR TABLA. Aprende distintos métodos para distintos escenarios, incluyendo cómo crear una tabla a partir de datos existentes y cómo CREAR TABLA como SELECT.
Actualizado 24 ene 2025  · 10 min de lectura

Las tablas Databricks son un componente básico de la plataforma Databricks Lakehouse, diseñada para gestionar el almacenamiento y procesamiento de datos a gran escala. Estas tablas permiten la colaboración entre equipos unificando datos estructurados y no estructurados, al tiempo que soportan cargas de trabajo analíticas.

En este artículo, te guiaré a través de las distintas técnicas para crear tablas en Databricks utilizando el comando CREATE TABLE con diversas variaciones de sintaxis para adaptarse a distintos casos de uso. También ofreceré consejos sobre las mejores prácticas a la hora de crear y gestionar tablas en Databricks para conseguir eficacia y fiabilidad.

Para empezar, te recomiendo encarecidamente que consultes el sitio web de DataCamp Cómo aprender Databricks: Guía para principiantes de la Plataforma Unificada de Datos entrada de blog para ayudarte a comprender las características y aplicaciones básicas de Databricks y proporcionarte un camino estructurado para iniciar tu aprendizaje. También te recomiendo que sigas nuestro curso de Introducción a Databricks. Aunque tengas experiencia en SQL, verás que las cosas pueden parecer diferentes en la plataforma Databricks Lakehouse. Los ejercicios interactivos de nuestro curso te guiarán a través de las consultas SQL, así como de las funciones de la plataforma y las conexiones con sistemas externos.

Introducción a las tablas Databricks

Para empezar, debemos decir que las tablas Databricks son conjuntos de datos estructurados que facilitan la organización y el acceso a los datos dentro del entorno Databricks Lakehouse. Hay dos tipos:

  • Mesas gestionadas: Estas tablas están totalmente controladas por Databricks, que gestiona tanto el almacenamiento como los metadatos. Cuando se crea una tabla gestionada, Databricks se encarga de los archivos de datos subyacentes, y si se elimina la tabla, también se eliminan los datos correspondientes. 
  • Tablas externas: Las tablas externas hacen referencia a datos que residen fuera de Databricks, normalmente en sistemas de almacenamiento en la nube como AWS S3 o Azure Blob Storage. Aunque Databricks gestiona los metadatos de estas tablas, los datos reales permanecen intactos aunque se elimine la tabla. También se conocen como tablas no gestionadas.

Las tablas en Databricks suelen estar por defecto en Delta Lake debido a sus características y optimizaciones avanzadas. Delta Lake proporciona transacciones ACID,escalabilidad,mejoras de rendimiento como optimizaciones como el almacenamiento en caché y la indexación, yprocesamiento unificado de datos por lotes y en flujo.

Como nota, las primeras versiones de Azure Databricks utilizaban las tablas heredadas de "formato Hive", que las modernas tablas Delta han sustituido. En general, las tablas Delta modernas superan a las tablas Hive heredadas en fiabilidad y rendimiento, lo que las convierte en la elección por defecto para los flujos de trabajo de Databricks.

He aquí un resumen que creo que puede ayudarte a ver la diferencia entre ambos:

Función Tabla de formatos de colmena Mesa Delta
Formato de los datos Apache Hive (CSV, Parquet, ORC, etc.) Lago Delta (basado en Parquet con metadatos)
Transacciones Sin soporte ACID (consistencia eventual) Transacciones ACID completas
Gestión de esquemas Aplicación limitada Aplicación estricta del esquema
Optimización del rendimiento Requiere ajuste manual Optimizaciones integradas (caché, compactación)
Viaje en el tiempo No hay soporte integrado para consultas históricas Admite el viaje en el tiempo para consultar versiones anteriores de los datos
Concurrencia Propenso a conflictos durante las actualizaciones o eliminaciones Gestiona eficazmente las operaciones simultáneas

Variaciones de la sintaxis de CREAR TABLA

El comando CREATE TABLE de Databricks admite múltiples variaciones para adaptarse a distintos casos. Cada variación tiene su propósito, con opciones específicas como localización de archivos, clonación y gestión de metadatos . Si necesitas refrescar tus conocimientos sobre Databricks SQL, te recomiendo que leas nuestro tutorial Databricks SQL para aprender, entre otras cosas, a utilizar un Cuaderno en un almacén Databricks SQL.

 A continuación encontrarás los principales estilos sintácticos con ejemplos y explicaciones.

CREAR TABLA [USANDO]

Esta sintaxis crea una tabla nueva con un esquema y un formato de datos especificados. La siguiente consulta crea una tabla llamada sales_data leyendo datos de archivos Parquet almacenados en una ubicación específica.

-- Create a table from files in a specific format
CREATE TABLE sales_data
USING PARQUET
LOCATION '/mnt/data/sales';

CREAR TABLA (formato Colmena)

Esta sintaxis heredada es similar al comando estándar SQL CREATE TABLE, que se utiliza al definir una tabla con metadatos gestionados por Databricks sin necesidad de hacer referencia a archivos externos. La consulta siguiente crea una tabla de estilo Colmena llamada hive_table con un esquema predefinido y propiedades de metadatos adicionales.

-- Hive-style table creation with schema definition
CREATE TABLE hive_table (
    id INT,
    name STRING
)
COMMENT 'Hive format example'
TBLPROPERTIES ('created_by' = 'databricks');

En la consulta anterior, la cláusula COMMENT añade metadatos descriptivos, mientras que TBLPROPERTIES almacena propiedades personalizadas sobre la tabla.

CREAR TABLA COMO

Este comando crea una nueva tabla utilizando el esquema y las propiedades de una tabla existente. Debes utilizar esta sintaxis cuando quieras replicar la estructura de una tabla existente sin copiar sus datos. Esto es útil a efectos de prueba o desarrollo.

-- Create a table with the same schema as another table
CREATE TABLE new_table LIKE existing_table;

CREAR TABLA CLON

Esta sintaxis te permite crear una tabla nueva clonando una tabla Delta Lake existente, ya sea como clon profundo o superficial. Por tanto, debes utilizar la sintaxis CREATE TABLE CLONE cuando necesites una copia independiente de los datos y metadatos de una tabla (clon profundo) o sólo los metadatos haciendo referencia a los datos originales (clon superficial). Piensa en esto para versionar o crear copias de seguridad.

El siguiente ejemplo muestra las consultas para crear tablas de clonación profunda y clonación superficial en Databricks.

 -- Deep clone by default
CREATE TABLE cloned_table CLONE original_table;

-- Shallow clone
CREATE TABLE shallow_clone_table SHALLOW CLONE original_table;  

CREAR O SUSTITUIR TABLA

Este comando único y combinado sustituye una tabla existente por una nueva, manteniendo el mismo nombre de tabla, como una sola operación. Debes utilizar esta sintaxis cuando quieras sobrescribir completamente una tabla existente manteniendo su nombre. Esto es especialmente útil para actualizar la estructura o los datos de una tabla sin necesidad de eliminarla primero.

El ejemplo de consulta que aparece a continuación crea o sustituye la tabla sales por un nuevo esquema.

-- Create or replace a sales table with a new schema
CREATE OR REPLACE TABLE sales (
    sale_id INT,
    amount FLOAT
)
USING DELTA
LOCATION '/mnt/delta/sales';

Hay otras cláusulas relevantes que puedes utilizar con la sintaxis CREATE TABLE en Databricks para gestionar tus tablas según requisitos específicos. A continuación se resume el uso de cada una de estas cláusulas. Ya he utilizado sólo algunos, pero no todos, como ejemplos.

  • IF NOT EXISTS: Evita errores omitiendo la creación de la tabla si ya existe.

  • USING: Especifica el formato del archivo (por ejemplo, Delta, Parquet, CSV).

  • EXTERNAL: Declara una tabla en la que los datos residen fuera del almacenamiento gestionado de Databricks.

  • PARTITIONED BY: Define particiones para optimizar grandes conjuntos de datos.

  • LOCATION: Señala el directorio que contiene los datos de la tabla.

  • TBLPROPERTIES: Añade metadatos para configuraciones y optimizaciones de tablas personalizadas.

Demostraciones paso a paso

En esta sección, te mostraré distintas formas de crear y gestionar tablas en Databricks, con ejemplos concisos y explicaciones de las cláusulas clave. Te recomiendo que consultes nuestro Tutorial Databricks: 7 conceptos imprescindibles para cualquier especialista en datos tutorial para aprender a ejecutar comandos SQL en la plataforma Databricks.

Cómo crear una tabla vacía

Para crear una tabla Delta vacía, define el esquema de la tabla con los nombres de las columnas y los tipos de datos. Utiliza la cláusula USING DELTA para definir el formato de la tabla y COMMENT para añadir metadatos descriptivos.

Esta consulta crea una tabla Delta vacía llamada employees con un esquema predefinido, que incluye columnas para id, name, department y hire_date

-- Create an empty Delta table with a defined schema
CREATE TABLE employees (
    id BIGINT,
    name STRING,
    department STRING,
    hire_date DATE
)
USING DELTA
COMMENT 'Table to store employee information';

Cómo crear una tabla a partir de datos existentes

Para crear una tabla a partir de datos existentes, vincúlala a archivos de datos externos en formatos como CSV, Parquet o JSON. Puedes utilizar la cláusula LOCATION para vincular la tabla a la ruta del archivo y la cláusula USING para especificar el formato de los datos.

Por ejemplo, la siguiente consulta crea una tabla llamada sales_data haciendo referencia a los archivos Parquet almacenados en /mnt/data/sales_data/.

-- Create a table from Parquet files in a specified location
CREATE TABLE sales_data
USING PARQUET
LOCATION '/mnt/data/sales_data/';

Cómo crear una tabla como select (CTAS)

También puedes crear una tabla como select ejecutando una consulta y almacenando el resultado. En este caso, la cláusula AS SELECT rellena la tabla con el resultado de la consulta.

Por ejemplo, la consulta siguiente crea una nueva tabla llamada high_value_sales seleccionando y transformando los datos de la tabla existente sales_data. Filtra las filas en las que total_amount sea mayor que 1000, manteniendo sólo las columnas sale_id, customer_id y total_amount

-- Create a table by selecting and transforming data from another table
CREATE TABLE high_value_sales AS
SELECT
    sale_id,
    customer_id,
    total_amount
FROM sales_data
WHERE total_amount > 1000;

Cómo crear una tabla externa

Crear una tabla externa implica hacer referencia a datos almacenados fuera del almacenamiento gestionado de Databricks. Debes utilizar la cláusula LOCATION para especificar la ubicación externa de los datos.

La siguiente consulta crea una tabla Delta externa llamada external_table haciendo referencia a los datos almacenados en /mnt/external_storage/external_table/.

-- Create an external table referencing data outside Databricks storage
CREATE TABLE external_table
USING DELTA
LOCATION '/mnt/external_storage/external_table/';

Cómo crear una tabla LIKE

Para crear una tabla LIKE, duplica el esquema de una tabla existente sin copiar sus datos. En el ejemplo siguiente, la consulta crea una nueva tabla llamada sales_backup con el mismo esquema que una tabla existente sales.

-- Create a new sales table with the same schema as an existing table
CREATE TABLE sales_backup LIKE sales;

Cómo crear un CLON DE TABLA

Puedes crear un clon de tabla utilizando la cláusula CLONE para crear una copia superficial o profunda de una tabla Delta para copias de seguridad o pruebas.

En el siguiente ejemplo, la consulta crea una nueva tabla, sales_shallow_clone, copiando sólo los metadatos (esquema y propiedades de la tabla).

-- Shallow clone: Copies only metadata (references original data)
CREATE TABLE sales_shallow_clone CLONE sales_data;

El ejemplo siguiente crea una nueva tabla, sales_deep_clone, pero copia tanto los metadatos como los datos reales.

-- Deep clone: Copies both metadata and actual data
CREATE TABLE sales_deep_clone CLONE sales_data DEEP;

Cómo crear una tabla temporal (tabla temp)

Utiliza la cláusula TEMPORARY al crear tablas temporales para asegurarte de que la tabla es específica de la sesión.

La siguiente consulta crea una tabla temporal llamada temp_table que sólo existe para la sesión actual. Selecciona id, name, y sales_amount de sales_data, filtrando las filas en las que region = 'US'.

-- Create a temporary table that exists only in the session
CREATE TEMPORARY TABLE temp_table AS
SELECT
    id,
    name,
    sales_amount
FROM sales_data
WHERE region = 'US';

Cómo sustituir una mesa

Puedes utilizar la cláusula CREATE OR REPLACE para sustituir la definición y el contenido de la tabla. La siguiente consulta sustituye la tabla existente updated_table por un nuevo esquema y datos. Define la tabla con tres columnas (id, name, total_sales).

-- Replace an existing table with a new schema or data
CREATE OR REPLACE TABLE updated_table (
    id BIGINT,
    name STRING,
    total_sales DOUBLE
)
USING DELTA
LOCATION '/mnt/delta/updated_table/';

Temas avanzados

En esta sección, exploraré las características avanzadas de las tablas Databricks que mejoran la funcionalidad, el rendimiento y la seguridad.

Columnas generadas y columnas de identidad

Databricks admite columnas de identidad, que generan automáticamente valores únicos para cada nueva fila. Esta función es útil para crear claves sustitutivas en el almacenamiento de datos.

La consulta siguiente crea una tabla employees con tres columnas: id, name, y department. La columna id es una columna de identidad que se autoincrementa con cada nueva fila.

-- Identity column: auto-incremented value
CREATE TABLE employees (
    id BIGINT GENERATED ALWAYS AS IDENTITY, -- Auto-incremented column
    name STRING,
    department STRING
);

Esta otra consulta crea una tabla sales con tres columnas: sale_id, sale_date, y sale_year. La columna sale_year se genera y se calcula automáticamente a partir de la columna sale_date mediante la función YEAR(sale_date).

-- Generated column: derived from other columns
CREATE TABLE sales (
    sale_id BIGINT,
    sale_date DATE,
    sale_year INT GENERATED ALWAYS AS (YEAR(sale_date)) -- Derived column
);

Partición y agrupación

El particionamiento divide los datos en trozos más pequeños, mejorando el rendimiento de la consulta, mientras que la agrupación organiza los datos dentro de las particiones para una lectura más rápida.

Por ejemplo, la consulta siguiente crea una tabla particionada en la que los datos se dividen en particiones basadas en la columna region, lo que mejora el rendimiento de la consulta al filtrar por regiones.

-- Partitioned table
CREATE TABLE partitioned_table (
    id BIGINT,
    region STRING,
    sales_amount DOUBLE
)
USING DELTA
PARTITIONED BY (region); -- Querying by region will be faster

La consulta siguiente optimiza la tabla particionada agrupando los datos dentro de cada partición en función de la columna sales_amount. Hace que las consultas en sales_amount sean más rápidas, mejorando la disposición de los datos para una lectura eficiente. La cláusula ZORDER BY funciona dentro de las particiones para mejorar el rendimiento de la lectura agrupando los datos dentro de las particiones, no entre ellas.

-- Clustered table
OPTIMIZE partitioned_table
ZORDER BY (sales_amount); -- Clusters data within partitions for efficient reads

Enmascaramiento de columnas y filtros de filas

El enmascaramiento de columnas y los filtros de filas restringen la visibilidad de los datos en función de las funciones o condiciones de los usuarios, protegiendo la información sensible.

Por ejemplo, la consulta siguiente crea una vista enmascarada denominada masked_table basada en la tabla employees. La columna salary se redacta (se sustituye por REDACTED) para todos los usuarios excepto para los que tienen el rol manager. La declaración CASE garantiza que sólo los directivos puedan ver el salario real, mientras que los demás ven los datos enmascarados.

-- Column masking: Redact sensitive data
CREATE MASKED VIEW masked_table AS
SELECT
    id,
    name,
    CASE
        WHEN current_user() = 'manager' THEN salary
        ELSE 'REDACTED'
    END AS salary
FROM employees;

Del mismo modo, la consulta siguiente utiliza filtros de fila para crear o sustituir una vista llamada filtered_table basada en la tabla sales. La vista filtra las filas para incluir sólo los datos en los que region = 'US', restringiendo el acceso sólo a los datos de ventas de EEUU.

-- Row filters: Fine-grained access control
CREATE OR REPLACE VIEW filtered_table AS
SELECT *
FROM sales
WHERE region = 'US'; -- Limit data visibility to a specific region

Evaluación del esquema

Databricks admite la evolución del esquema mediante CREATE OR REPLACE TABLE y alteraciones de las tablas. Debes utilizar la sentencia CREATE OR REPLACE TABLE para sobrescribir el esquema y los datos y la sentencia ALTER TABLE para modificar el esquema de forma incremental sin afectar a los datos.

La siguiente consulta sustituye la tabla employees existente por un nuevo esquema, añadiendo una nueva columna hire_date y manteniendo los datos almacenados en formato Delta.

-- Schema evolution with CREATE OR REPLACE TABLE
CREATE OR REPLACE TABLE employees (
    id BIGINT,
    name STRING,
    department STRING,
    hire_date DATE -- New column added
)
USING DELTA;

Esta otra consulta modifica la tabla employees añadiendo una nueva columna salary al esquema existente.

-- Altering a table schema
ALTER TABLE employees ADD COLUMNS (salary DOUBLE);

Ajuste del rendimiento

Para optimizar el rendimiento de las tablas a gran escala, puedes utilizar varias propiedades y técnicas de tabla, como la autooptimización y el ordenamiento en Z.

En el siguiente ejemplo, la consulta activa la autooptimización en la página delta_table estableciendo propiedades para compactar automáticamente los archivos pequeños y fusionar los archivos durante las escrituras, lo que mejora la eficacia del almacenamiento.

-- Enable automatic optimizations
ALTER TABLE delta_table
SET TBLPROPERTIES (
    'delta.autoOptimize.optimizeWrite' = 'true', -- Automatically compact small files
    'delta.autoOptimize.autoCompact' = 'true'   -- Automatically merge files
);

Del mismo modo, la consulta siguiente optimiza la delta_table agrupando los datos en función de region y sales_date para mejorar el rendimiento de la consulta, especialmente para los filtros sobre estas columnas.

-- Perform clustering for faster query performance
OPTIMIZE delta_table
ZORDER BY (region, sales_date); -- Improves query efficiency for frequent filters

Buenas prácticas y consideraciones

Aquí tienes algunas cosas que debes tener en cuenta al crear tablas en Databricks, para hacer las cosas correctamente:

  • Convenciones para nombrar las tablas: Utiliza siempre nombres claros y coherentes para mejorar la descubribilidad y reducir los errores. Evita los caracteres especiales o los nombres excesivamente largos para evitar problemas de compatibilidad.
  • Seguridad y permisos: Utiliza Unity Catalog para un control de acceso centralizado en todos los activos de datos. Utiliza Listas de Control de Acceso (ACL) para restringir quién puede ver o modificar datos. Además, enmascara los datos sensibles con filtros de columnas o filas.
  • Copia de seguridad y recuperación: Confía en el historial de versiones de Delta Lake para recuperarlas fácilmente y viajar en el tiempo. Controla y gestiona regularmente la conservación de versiones históricas para equilibrar los costes de almacenamiento y las necesidades de recuperación.
  • Tablas gestionadas vs. externas: También es importante entender las tablas gestionadas frente a las externas. En las tablas gestionadas, Databricks maneja tanto los metadatos como los datos. Es ideal para situaciones en las que quieres un control total sobre la gestión del ciclo de vida de los datos. Sin embargo, en las tablas externas, los datos referenciados se almacenan fuera de Databricks. Esto es útil para mantener el control sobre los datos que pueden compartirse en diferentes plataformas o sistemas.

Errores comunes y solución de problemas

Ahora que hemos hablado de las mejores prácticas para gestionar tablas en Databricks, permíteme tratar los problemas frecuentes que puedes encontrarte con las tablas de Databricks, sus mensajes de error típicos y, a continuación, las soluciones.

Errores de ubicación no vacía al utilizar CREAR vs. CREAR O SUSTITUIR

Al utilizar CREATE TABLE con una ubicación especificada (cláusulaLOCATION ), si el directorio no está vacío, puedes encontrarte con un error del tipo

Error: Cannot create table because the location is not empty.

Este error se produce porque el comando CREATE TABLE espera un directorio vacío para la ubicación especificada, pero los archivos o metadatos existentes entran en conflicto con este requisito. 

Para solucionar este error, utiliza la declaración CREATE OR REPLACE TABLE para sobrescribir los datos y metadatos existentes. O bien, limpia manualmente el directorio antes de utilizar la declaración CREATE TABLE.

CREATE OR REPLACE TABLE delta_table
USING DELTA
LOCATION '/mnt/data/delta_table'; -- Overwrites table and files

Desajuste del esquema o problemas con determinados tipos de datos

Al insertar o consultar datos se producen errores de desajuste de esquema como:

Error: Schema mismatch: Expected column type STRING, but found INT.

El error puede deberse a un desajuste entre el esquema de la tabla y los tipos de datos entrantes. Además, las conversiones de tipos de datos no admitidas o ambiguas (p. ej., tipos complejos anidados) podrían provocar desajustes en el esquema. Para solucionar este error, aplica la correspondencia de esquemas para verificar el esquema durante la creación de la tabla o utiliza la aplicación de esquemas en las tablas Delta.

-- Enforce schema matching during table creation
CREATE TABLE schema_table (
    id INT,
    name STRING
)
USING DELTA
TBLPROPERTIES ('delta.schema.enforce' = 'true'); -- Enforces strict schema

Además, debes permitir la evolución del esquema cuando añadas nuevas columnas o modifiques los tipos de datos.

ALTER TABLE schema_table ADD COLUMNS (new_column DOUBLE);

Utilizar la conversión explícita de tipos al insertar datos también debería ayudar a solucionar este tipo de error.

INSERT INTO schema_table SELECT CAST(id AS INT), CAST(name AS STRING) FROM source_table;

Limitaciones de las transacciones simultáneas con columnas de identidad

Cuando utilices columnas de identidad, puedes encontrarte con problemas relacionados con las transacciones concurrentes, como por ejemplo

Error: Concurrent transactions detected on identity column table

Las columnas de identidad son de estado y pueden tener conflictos cuando varias transacciones intentan insertar datos simultáneamente. Para solucionar este error, utiliza claves sustitutivas para sustituir las columnas de identidad por claves sustitutivas deterministas generadas mediante funciones como uuid() o monotonically_increasing_id().

CREATE TABLE better_table AS
SELECT
    monotonically_increasing_id() AS id, -- Replaces identity column
    name, department
FROM source_data;

También puedes utilizar MERGE de Delta Lake para flujos de trabajo complejos de inserción y actualización sin depender de columnas de identidad.

MERGE INTO target_table AS t
USING source_table AS s
ON t.id = s.id
WHEN MATCHED THEN UPDATE SET *
WHEN NOT MATCHED THEN INSERT *;

Conclusión

En Databricks, el comando CREATE TABLE es una herramienta versátil para definir estructuras de datos, enlazar con datos externos y derivar nuevos conjuntos de datos mediante consultas. Es importante comprender las diferentes sintaxis para crear y gestionar tablas en Databricks según tus necesidades específicas. Como has visto, puedes elegir entre varios métodos de creación de tablas.

Si quieres explorar los conceptos fundamentales de Databricks, te recomiendo encarecidamente que sigas el curso Introducción a Databricks de DataCamp para aprender sobre Databricks como solución de almacenamiento de datos para Inteligencia Empresarial (BI). También te recomiendo que eches un vistazo a nuestra entrada del blog Certificaciones de Databricks en 2025 para saber cómo obtener certificaciones de Databricks, explorar las ventajas profesionales y aprender a elegir la certificación adecuada para tus objetivos profesionales.


Allan Ouko's photo
Author
Allan Ouko
LinkedIn
Creo artículos que simplifican la ciencia de los datos y la analítica, haciéndolos fáciles de entender y accesibles.

Preguntas frecuentes sobre CREAR TABLA en Databricks

¿Para qué sirve el comando CREAR TABLA en Databricks?

El comando CREATE TABLE se utiliza para definir una nueva tabla en Databricks, permitiendo a los usuarios especificar el esquema de la tabla, el formato de los datos y la ubicación de almacenamiento.

¿Cuál es la diferencia entre tablas gestionadas y externas?

Las tablas gestionadas almacenan tanto metadatos como datos en Databricks, mientras que las tablas externas sólo almacenan metadatos, dejando los datos en una ubicación externa.

¿Una tabla externa es lo mismo que una tabla no gestionada?

Sí, las tablas externas y las tablas no gestionadas se refieren al mismo concepto en Databricks. Almacenan los metadatos en Databricks, pero mantienen los datos reales en una ubicación externa, lo que te permite gestionar el ciclo de vida de los datos de forma independiente.

¿Qué es un clon superficial frente a uno profundo?

Un clon superficial copia sólo los metadatos, mientras que un clon profundo duplica tanto los datos como los metadatos.

¿Qué son las tablas temporales?

Las tablas temporales sólo existen dentro de la sesión actual y se borran automáticamente al terminar la sesión.

¿Qué es la evolución del esquema en Databricks?

La evolución del esquema te permite modificar el esquema de una tabla existente (por ejemplo, añadiendo o modificando columnas) sin necesidad de volver a crear toda la tabla, lo que resulta especialmente beneficioso para las tablas Delta.

Temas

Aprende Databricks con DataCamp

curso

Introduction to Databricks

3 hr
10.4K
Learn about the Databricks Lakehouse platform and how it can modernize data architectures and improve data management processes.
Ver detallesRight Arrow
Comienza el curso
Ver másRight Arrow
Relacionado

blog

Certificaciones Databricks en 2024: La guía completa

Descubre cómo obtener certificaciones Databricks, explora las ventajas profesionales y aprende a elegir la certificación adecuada para tus objetivos en 2024.
Gus Frazer's photo

Gus Frazer

24 min

blog

Azure Synapse frente a Databricks: Comprender las diferencias

Descubre cómo se comparan Azure Synapse y Databricks. Comprende sus características, casos de uso y capacidades de integración, y descubre qué plataforma se adapta mejor a tus necesidades de datos.
Gus Frazer's photo

Gus Frazer

14 min

tutorial

Creación y personalización de tablas dinámicas en Power BI

Aprende a crear tablas dinámicas personalizables en Power BI con formato condicional avanzado y algunos consejos de optimización.
Joleen Bothma's photo

Joleen Bothma

9 min

tutorial

Tutorial sobre cómo crear tablas de fechas en Power BI

Aprende a crear tablas de fechas en Power BI con este tutorial visual paso a paso.
Kafaru Simileoluwa's photo

Kafaru Simileoluwa

12 min

tutorial

Base de datos Azure SQL: Configuración y gestión paso a paso

Aprende a crear, conectar, gestionar, consultar y proteger tu base de datos Azure SQL. Esta guía paso a paso cubre todo lo esencial para una configuración óptima de la base de datos.
Anneleen Rummens's photo

Anneleen Rummens

25 min

tutorial

Tutorial de Pyspark: Primeros pasos con Pyspark

Descubre qué es Pyspark y cómo se puede utilizar, con ejemplos.
Natassha Selvaraj's photo

Natassha Selvaraj

10 min

Ver másVer más