Top Preguntas y Respuestas en Entrevistas sobre Snowflake [2025]

¿Qué es Snowflake y por qué está revolucionando el análisis de datos?

Snowflake ha cambiado radicalmente la forma en que las empresas almacenan, procesan y analizan grandes volúmenes de datos. Esta plataforma en la nube permite centralizar todos los datos en un solo lugar y analizarlos de forma ágil y escalable, sin los límites tradicionales de los sistemas on-premise.

Una de las ventajas clave de Snowflake es su capacidad para escalar automáticamente los recursos de cómputo. Esto significa que puedes aumentar o reducir la capacidad según la carga de trabajo, optimizando así el rendimiento y los costos. Además, permite crear almacenes virtuales independientes, lo que facilita que distintos equipos accedan a los datos sin competir entre sí por los recursos.

Preguntas frecuentes en entrevistas sobre Snowflake

Si te estás preparando para una entrevista técnica relacionada con esta herramienta, es clave conocer las preguntas más comunes. Aquí las hemos clasificado en cuatro categorías esenciales:

1. ¿Cuáles son las características esenciales de Snowflake?

Snowflake es una moderna plataforma de almacenamiento y análisis de datos en la nube que se ha convertido en una de las favoritas de las empresas por su flexibilidad, escalabilidad y rendimiento.

A diferencia de otras soluciones tradicionales, Snowflake separa el almacenamiento de datos del procesamiento, lo que permite escalar cada uno de manera independiente. Esto significa que puedes aumentar o reducir los recursos según tus necesidades específicas, optimizando tanto el rendimiento como los costos.

Gracias a esta arquitectura única, Snowflake permite manejar grandes volúmenes de datos de forma rápida, eficiente y rentable, lo que lo convierte en una herramienta ideal para organizaciones que necesitan análisis de datos en tiempo real, sin complicaciones técnicas.

Optimización y mantenimiento automático sin complicaciones

Una de las grandes ventajas de Snowflake es que se encarga automáticamente de la optimización del rendimiento, gestionando índices, estadísticas y particiones sin necesidad de intervención manual.

A diferencia de las bases de datos tradicionales, con Snowflake no tienes que preocuparte por tareas de mantenimiento complejas o rutinarias. Todo está diseñado para que el sistema funcione de forma eficiente y fluida, lo que permite a los equipos enfocarse en el análisis de datos, no en la administración técnica.

2. ¿Puedes explicar la arquitectura de Snowflake?

Snowflake tiene una arquitectura única de tres capas desacopladas, todas sobre la nube:

  1. Capa de Almacenamiento
    1. Guarda todos los datos (estructurados y semi-estructurados) en formato columnar.
    1. Comprimido, cifrado y optimizado automáticamente.
  • Capa de Cómputo (Virtual Warehouses)
    • Compuesta por clústeres de cómputo independientes llamados warehouses.
    • Ejecutan consultas y procesos sin afectar a otros usuarios (escalabilidad horizontal).
  • Capa de Servicios (Service Layer)
    • Administra autenticación, control de acceso, planificación de consultas, metadatos y transacciones.
    • Actúa como “cerebro” que coordina el sistema.

3. ¿Qué son las microparticiones en Snowflake y cuál es su contribución a la eficacia del almacenamiento de datos de la plataforma?

Las microparticiones en Snowflake son unidades internas de almacenamiento que dividen automáticamente los datos en fragmentos pequeños (~16 MB comprimidos) organizados por columnas.

¿Por qué son eficaces?

  • Indexación automática: Snowflake mantiene metadatos sobre rangos de valores en cada micropartición.
  • Pruning inteligente: Solo lee microparticiones relevantes para una consulta, reduciendo I/O.
  • Compresión eficiente: Al ser columnar y homogénea, logra alta compresión.
  • Sin mantenimiento manual: Snowflake gestiona su creación y reorganización automáticamente.

Snowflake gestiona de forma automática las microparticiones de datos, eliminando la necesidad de definir manualmente particiones o crear índices, como ocurre en otros sistemas.

Gracias a esta automatización, la plataforma garantiza un almacenamiento eficiente y optimizado, mejorando el rendimiento de las consultas y reduciendo significativamente los costes operativos y de mantenimiento. Esto permite a los equipos centrarse en el análisis y la toma de decisiones, sin preocuparse por tareas técnicas complejas.

4. ¿Puedes explicar cómo afectan los almacenes virtuales a la escalabilidad, el rendimiento y la gestión de costes de las tareas de procesamiento de datos?

Los almacenes virtuales (virtual warehouses) en Snowflake son clústeres de cómputo independientes que ejecutan las consultas y cargas de trabajo. Tienen un impacto directo en la escalabilidad, el rendimiento y la gestión de costes:

Ejemplo práctico:

  • Puedes usar un warehouse Small para consultas de usuarios y un Medium para cargas ETL nocturnas. Cada uno escala y se factura por separado según uso.

5. ¿Puedes comentar cómo influye la compatibilidad de Snowflake con las normas ANSI SQL en las capacidades de consulta y manipulación de datos?

Una de las grandes ventajas de Snowflake es su compatibilidad con SQL estándar. Los usuarios pueden utilizar fácilmente sintaxis y operaciones SQL conocidas, como JOIN, GROUP BY o SELECT, para consultar y trabajar con sus datos.

Esto hace que la transición a Snowflake sea mucho más rápida y sencilla para quienes ya tienen experiencia en bases de datos relacionales tradicionales, ya que no necesitan aprender un nuevo lenguaje desde cero.

La compatibilidad de Snowflake con ANSI SQL tiene un impacto muy positivo en sus capacidades de consulta y manipulación de datos:

Facilidad de uso

  • Usa una sintaxis estándar y familiar para desarrolladores, analistas y científicos de datos.
  • Reduce la curva de aprendizaje y facilita la migración desde otras bases de datos SQL (como Oracle, SQL Server, PostgreSQL).

Potencia de consulta

  • Permite consultas complejas, con subconsultas, CTEs, JOIN, WINDOW FUNCTIONS, etc.
  • Soporta funciones analíticas, agregaciones avanzadas y transformaciones robustas.

Manipulación de datos flexible

  • Total soporte para sentencias DML (INSERT, UPDATE, DELETE, MERGE, etc.).
  • Junto con funciones como TRY_CAST, COALESCE, CASE, facilita transformaciones dentro del SQL mismo.

Integración con herramientas y procesos

  • Las herramientas de BI, ETL y ciencia de datos pueden conectarse fácilmente y usar SQL estándar.
  • Compatible con frameworks como dbt, donde ANSI SQL es la base.

La compatibilidad con ANSI SQL permite a Snowflake ofrecer una experiencia potente, coherente y accesible para manipular y consultar datos sin depender de lenguajes propietarios o extensiones complejas.

6. ¿Qué es la función de Viaje en el Tiempo (Time Travel) de Snowflake y cómo beneficia a los usuarios?

La función Time Travel de Snowflake permite acceder a versiones anteriores de tus datos de forma sencilla, lo que reduce la necesidad de copias de seguridad externas y facilita el control de versiones.

Gracias a esta funcionalidad, puedes recuperar datos eliminados o modificados, realizar análisis retrospectivos y auditar cambios sin salir de la plataforma. Todo está integrado, lo que agiliza los procesos y mejora la seguridad y trazabilidad de la información.

¿Qué permite hacer Time Travel?

  • Recuperar datos borrados accidental o intencionalmente.
  • Deshacer cambios por errores en actualizaciones, inserciones o eliminaciones.
  • Auditar datos históricos para ver cómo lucían en un punto en el tiempo.
  • Reprocesar cargas de datos basadas en estados anteriores.

¿Cómo funciona?

  • Cada objeto (tabla, esquema, base de datos) tiene una retención de historial configurable:
    • Hasta 1 día en ediciones Standard.
    • Hasta 90 días en ediciones Enterprise o superiores.
Beneficios para el usuario
  • Seguridad ante errores humanos sin depender de backups.
  • Menor riesgo en operaciones ETL o tareas automatizadas.
  • Mayor trazabilidad de los datos (muy útil para auditorías y cumplimiento).

7. ¿Cómo funciona el intercambio de datos de Snowflake y cuáles son sus principales ventajas?

El intercambio de datos en Snowflake (Data Sharing) permite compartir datos de forma segura, controlada y en tiempo real entre diferentes cuentas de Snowflake sin mover ni copiar datos.

¿Cómo funciona?
  1. El proveedor de datos crea un Shared Database (base de datos compartida) y define qué objetos compartir (tablas, vistas, etc.).
  2. El consumidor de datos accede a esos datos como si fueran locales, mediante una base de datos virtual (read-only).
  3. Los datos permanecen en el almacenamiento del proveedor, pero son accesibles instantáneamente por los consumidores.
Ventajas principales
💡Sin movimiento de datos
  • No se copian ni exportan datos: se accede a ellos en su ubicación original, lo que reduce duplicación y errores.
💡Acceso en tiempo real
  • Los consumidores ven los datos actualizados al instante, ideal para reportes y análisis dinámicos.
💡Seguridad y control granular
  • Puedes compartir solo columnas o filas específicas usando vistas seguras.
  • Acceso 100% read-only; el consumidor no puede modificar nada.
💡Sin ETL ni integración adicional
  • No hace falta usar pipelines, FTP, APIs ni cargar archivos. Todo se gestiona desde Snowflake.
💡Marketplace de datos
  • Puedes publicar o consumir datasets externos desde el Snowflake Marketplace, incluyendo datos públicos o de proveedores comerciales.
Ejemplo de uso

Una empresa puede compartir ventas en tiempo real con socios o filiales, o una institución puede publicar datasets económicos o científicos para investigación.

8. ¿Qué es la clonación de copia cero en Snowflake y por qué es importante? 

La función de clonación de copia cero de Snowflake permite crear copias instantáneas de bases de datos, esquemas o tablas sin duplicar físicamente los datos. En lugar de copiar todo el contenido, el clon simplemente apunta a los datos originales y solo almacena los cambios que se realicen a partir de ese momento.

Esto se traduce en un gran ahorro en almacenamiento y costes, ya que puedes generar múltiples entornos de desarrollo, pruebas o versiones históricas sin ocupar espacio adicional.

Ideal para equipos que necesitan agilidad y eficiencia en la gestión de datos, esta funcionalidad facilita trabajar con versiones paralelas, realizar pruebas sin riesgos y acelerar los procesos de desarrollo sin afectar al entorno original.

9. ¿Puedes explicar el enfoque de Snowflake sobre la seguridad de los datos y su encriptación siempre activa?

Seguridad de datos en Snowflake: cifrado automático y protección de extremo a extremo

Snowflake está diseñado para ofrecer el máximo nivel de seguridad en la gestión de datos, protegiendo la información en todo momento mediante un sistema de cifrado siempre activo.

Gracias a su encriptación automática, todos los datos desde los datos brutos hasta los metadatos se cifran sin necesidad de configuraciones manuales. Esto permite que los usuarios trabajen con tranquilidad, sabiendo que su información está segura desde el primer momento. Snowflake utiliza algoritmos de cifrado avanzados y un modelo jerárquico de claves, donde una clave maestra protege las demás. Además, el sistema rota las claves regularmente para reforzar aún más la seguridad.

Durante la transferencia de datos, Snowflake implementa TLS (Transport Layer Security), asegurando que toda la información que circula entre la plataforma y los clientes esté cifrada en tránsito. Este enfoque de cifrado de extremo a extremo protege los datos en todas las fases de su ciclo de vida, minimizando el riesgo de filtraciones y accesos no autorizados.

10. ¿Nombrar al menos 5 herramientas ETL compatibles con Snowflake?

5 herramientas ETL/ELT ampliamente compatibles con Snowflake, junto con su enfoque principal:

🔧 1. Fivetran

  • Tipo: ELT automatizado (extracción y carga directa)
  • Ventaja: Conectores preconfigurados, sin necesidad de escribir código.
  • Uso común: Ingesta de datos desde SaaS (Salesforce, HubSpot, etc.).

🛠️ 2. dbt (Data Build Tool)

  • Tipo: ELT (Transformación en Snowflake)
  • Ventaja: Usa SQL + versionado (Git) para transformar datos dentro del warehouse.
  • Uso común: Modelado y transformación de datos en capas (staging, marts, etc.).

⚙️ 3. Apache Airflow

  • Tipo: Orquestador de flujos de trabajo (ETL/ELT)
  • Ventaja: Alta flexibilidad para programar y automatizar pipelines complejos.
  • Uso común: Control de dependencias y ejecución de tareas Snowflake + otros sistemas.

🧩 4. Matillion

  • Tipo: ETL visual para la nube
  • Ventaja: Interfaz gráfica + transformaciones SQL dentro de Snowflake.
  • Uso común: Usuarios que prefieren flujos visuales sobre codificación.

🔄 5. Talend

  • Tipo: ETL/ELT empresarial
  • Ventaja: Conectividad extensa y opciones de calidad de datos.
  • Uso común: Integración de datos a gran escala con validación y limpieza.

11. ¿Explicar cómo se utiliza la función avanzada Snowpipe para la ingestión continua de datos?

Snowpipe permite cargar automáticamente archivos (CSV, JSON, Parquet, etc.) desde un bucket o contenedor en la nube (S3, Azure Blob o GCS) a una tabla de Snowflake en cuanto llegan, sin necesidad de ejecutar manualmente comandos COPY INTO.

⚙️ ¿Cómo funciona Snowpipe?

  1. Se sube un archivo a una ubicación externa (como un bucket S3).
  2. Se dispara un evento (opcional) que notifica a Snowpipe que hay nuevos archivos.
  3. Snowpipe lee los archivos y ejecuta una carga incremental hacia la tabla destino usando los metadatos del stage.

Snowpipe es la solución de ingesta continua de datos de Snowflake, diseñada para que la información esté disponible casi en tiempo real, tan pronto como se genera. Esto permite a las empresas acceder y analizar datos actualizados sin demoras, mejorando la toma de decisiones.

Una de sus mayores ventajas es que funciona con una arquitectura sin servidor (serverless). Esto significa que Snowflake se encarga automáticamente de asignar y escalar los recursos de cómputo necesarios para procesar los datos, sin necesidad de configuración manual. Así, puedes centrarte en lo que realmente importa: obtener valor de tus datos.

Kafka actúa como un intermediario de mensajes de alta velocidad que permite conectar sistemas que generan datos (productores) con sistemas que los consumen (consumidores).

Kafka puede enviar datos directamente a Snowflake usando Snowflake Kafka Connector, lo que permite:

  1. Capturar eventos en tiempo real (ej: clics, transacciones, sensores).
  2. Enviarlos a un topic Kafka.
  3. El conector los transfiere automáticamente a una tabla Snowflake.

Ventajas de Kafka 

  • Alta escalabilidad y rendimiento.
  • Tolerancia a fallos.
  • Almacenamiento de mensajes configurable (puede retener datos por días o semanas).

Ideal para arquitecturas basadas en eventos y microservicios.

12. ¿Cómo funciona la agrupación en clústeres de Snowflake, y cuándo necesitarías utilizar la agrupación en clústeres manual? 

En Snowflake, los datos se organizan automáticamente en microparticiones, lo que permite ejecutar consultas más rápidas y eficientes. Este proceso de agrupación automática es una de las claves del alto rendimiento de la plataforma, ya que optimiza cómo se almacenan y acceden los datos.

Sin embargo, en el caso de tablas muy grandes que siguen un patrón predecible como los datos de series temporales, puede ser útil aplicar una agrupación manual. Esto permite a Snowflake organizar aún mejor la información, mejorando aún más el tiempo de respuesta en las consultas.

Snowflake divide automáticamente los datos en microparticiones, pero no garantiza que estén ordenadas según las columnas más consultadas. Aquí es donde entra la agrupación en clústeres manual (clustered tables):

  • Te permite definir explícitamente una o más columnas de clúster.
  • Snowflake mantiene los datos organizados internamente según esas columnas, mejorando el pruning de microparticiones (lectura selectiva).

Usa esta consulta para obtener métricas sobre cómo están organizados los datos en la tabla:

13. Explica el concepto de a prueba de fallos en Snowflake y en qué se diferencia del Viaje en el Tiempo.

En Snowflake, «A prueba de fallos» (Fail-safe) y «Viaje en el Tiempo» (Time Travel) son dos mecanismos de recuperación de datos, pero con propósitos y comportamientos distintos.

A diferencia de la funcionalidad Time Travel, que permite a los usuarios acceder directamente a versiones anteriores de los datos, la opción Fail-safe (a prueba de fallos) requiere la intervención del equipo de soporte de Snowflake para recuperar la información.

Fail-safe ofrece una capa adicional de protección en caso de pérdida de datos o errores críticos, pero su uso implica costes más elevados. Por eso, está diseñado para ser utilizado solo como último recurso, cuando las opciones de recuperación a través de Time Travel ya no están disponibles.

Resumen:

  • Time Travel es para uso operativo normal, controlado por el usuario.
  • Fail-safe es una última medida de recuperación de emergencia, controlada por Snowflake.

14. ¿Cómo funcionan las vistas materializadas en Snowflake, y cuáles son los casos de uso para utilizarlas? 

Las vistas materializadas en Snowflake son una característica avanzada que permite almacenar físicamente los resultados de una consulta SQL, para que futuras consultas se ejecuten mucho más rápido al evitar recalcular esos resultados cada vez. 

¿Cómo funcionan las vistas materializadas? 

  1. Se define una vista materializada a partir de una consulta SELECT.
  2. Snowflake calcula y almacena los resultados internamente.
  3. Cuando cambian los datos base, Snowflake actualiza automáticamente la vista (de forma incremental, si es posible).
  4. Las consultas sobre la vista leen directamente los datos precalculados, acelerando significativamente el rendimiento.

Aquí tienes una tabla que cubre los casos de uso de las vistas materializadas frente a las vistas estándar en Snowflake:

15. ¿Cuál es la diferencia entre las arquitecturas de disco compartido y las de no compartir nada?

La diferencia entre las arquitecturas de disco compartido (shared-disk) y sin compartir nada (shared-nothing) es fundamental en el diseño de sistemas distribuidos como bases de datos, data warehouses y plataformas como Snowflake.

En una arquitectura de disco compartido, todos los nodos del sistema tienen acceso al mismo almacenamiento. Esto significa que cualquier nodo puede leer o escribir en cualquier disco, lo que garantiza alta disponibilidad: si un nodo falla, los datos siguen estando accesibles desde otros nodos. Además, esta configuración simplifica la gestión, ya que no es necesario dividir ni replicar los datos manualmente entre nodos.

Por otro lado, en una arquitectura “nada compartido” (shared-nothing), cada nodo tiene su propio almacenamiento independiente. Los datos se distribuyen entre los nodos, y cada uno se encarga de una parte específica. Esta arquitectura destaca por su alta escalabilidad, ya que permite añadir nuevos nodos fácilmente, mejorando el rendimiento y la capacidad del sistema de forma horizontal.

Ambos enfoques tienen ventajas clave: el primero es ideal para entornos donde la tolerancia a fallos y la simplicidad operativa son prioritarias, mientras que el segundo es preferido para escenarios que requieren escalabilidad masiva y procesamiento distribuido.

16. Definir «puesta en escena» en Snowflake 

En Snowflake, la «puesta en escena» se refiere al uso de stages (etapas o zonas intermedias de carga) para almacenar archivos de datos temporalmente antes de cargarlos en tablas o después de exportarlos desde Snowflake. 

¿Qué es un stage

Un stage es una ubicación definida en Snowflake donde puedes subir archivos (CSV, JSON, Parquet, etc.) para luego ser usados en operaciones de carga (COPY INTO) o extracción (UNLOAD).

Ventajas de usar Stages

  • Separan el almacenamiento temporal del almacenamiento estructurado en tablas.
  • Permiten validar y transformar datos antes de cargarlos.
  • Son fundamentales para automatización con herramientas como Snowpipe o scripts ETL.

La «puesta en escena» en Snowflake es el proceso de usar áreas temporales llamadas stages para manejar archivos de datos antes o después de cargarlos a las tablas.

17. ¿Cuáles son los distintos tipos de caché en Snowflake? 

En Snowflake, la caché es fundamental para mejorar el rendimiento y reducir costos de cómputo. Snowflake implementa varios niveles de caché, cada uno con un propósito específico. 

🧊 Caché de Resultados de Consultas (Query Result Cache)

  • Nivel: Servicio (Service Layer)
  • Qué almacena: Resultados completos de consultas ya ejecutadas.
  • Duración: Hasta 24 horas, si los datos fuente no han cambiado.
  • Beneficio: La consulta no se vuelve a ejecutar; se devuelve el resultado instantáneamente. 

🧊 Caché Local de Almacenamiento (Data Cache)

  • Nivel: Virtual Warehouse (RAM del clúster de cómputo)
  • Qué almacena: Microparticiones de datos accedidas recientemente.
  • Duración: Mientras el warehouse esté activo.
  • Beneficio: Reduce lecturas desde el almacenamiento remoto.

🧊 Caché de Metadatos

  • Nivel: Servicio (Service Layer)
  • Qué almacena: Información sobre estructuras de tablas, esquemas, particiones, estadísticas, etc.
  • Duración: Administrado internamente por Snowflake.
  • Beneficio: Optimiza planificación de consultas y decisiones de ejecución. 

🧊 Caché Persistente de Resultados Internos (para funciones como COPY, Snowpipe, etc.)

  • Nivel: Interno/Sistema
  • Qué almacena: Resultados intermedios de operaciones internas (por ejemplo, COPY INTO).
  • Uso: Mejora procesos de ingestión y transformaciones internas.

¿Por qué es importante?

  • Snowflake no cobra por resultados obtenidos desde la caché de resultados.
  • Aprovechar la caché puede reducir tiempo de respuesta y costos de warehouse.

Te muestro cómo puedes verificar si una consulta en Snowflake usó caché o si fue ejecutada nuevamente por el warehouse.

Primero ejecuta una consulta simple:

Ejecuta esa misma consulta nuevamente (sin cambiarla). Si los datos no han cambiado y no ha pasado más de 24 horas, es probable que Snowflake reutilice el resultado desde la caché.

Usa esta consulta para ver el historial y determinar si se usó caché:

18. ¿Cómo gestiona Snowflake la distribución y partición de datos dentro de su arquitectura? 

En Snowflake, la distribución y partición de datos se gestiona de forma automática y optimizada internamente, gracias a su arquitectura única basada en microparticiones y almacenamiento columnar

Microparticiones: la base de la distribución en Snowflake 

  • Cuando cargas datos en una tabla, Snowflake los divide automáticamente en microparticiones:
    • Tamaño promedio: entre 16 MB y 512 MB comprimidos.
    • Cada una contiene datos ordenados por columnas.
    • Snowflake guarda metadatos como rangos de valores por columna, número de filas, etc.

🔍 No necesitas definir particiones manuales, como en otras bases de datos. 

¿Cómo se distribuyen internamente? 

  • Las microparticiones se almacenan en el almacenamiento centralizado en la nube.
  • Los warehouses (clústeres de cómputo) leen en paralelo diferentes microparticiones según las necesidades de cada consulta.
  • Snowflake utiliza un proceso llamado automatic partition pruning, que omite microparticiones irrelevantes para acelerar las consultas. 

¿Y qué pasa con la distribución entre nodos (warehouses)?

  • Snowflake implementa un enfoque shared-nothing en su capa de cómputo:
    • Cada virtual warehouse funciona como un clúster independiente.
    • El trabajo se divide entre sus nodos en función de las microparticiones a procesar.

Esto permite paralelismo masivo, sin tener que definir claves de distribución manualmente como en Redshift o Teradata.

19. ¿Cómo funciona la función de suspensión y reanudación automáticas de Snowflake, y por qué es beneficiosa? 

Un virtual warehouse en Snowflake puede configurarse para detenerse automáticamente si no tiene actividad durante un período de tiempo definido.

¿Cómo funciona la reanudación automática? 

Cuando se lanza una nueva consulta que necesita ese warehouse:

  • Si está suspendido, se reactiva automáticamente.
  • El retardo es mínimo (normalmente en segundos).

20. ¿Cómo se construye una tarea Snowflake que llame a un Procedimiento Almacenado? 

Si necesitas automatizar procesos dentro de tu entorno Snowflake, puedes hacerlo fácilmente a través de tareas programadas usando el comando CREATE TASK. Este tipo de tareas te permite ejecutar consultas SQL o procedimientos almacenados en momentos específicos, como parte de tus flujos de trabajo ETL o mantenimiento.

Antes de comenzar, asegúrate de contar con los permisos necesarios para crear tareas en tu cuenta de Snowflake.

Pasos para crear una tarea en Snowflake:

  1. Crea la tarea con el comando CREATE TASK, seguido del nombre que desees asignarle.
  2. Especifica el warehouse que Snowflake utilizará para ejecutar la tarea, usando la cláusula WAREHOUSE.
  3. Define la programación mediante una expresión cron en la opción SCHEDULE. Por ejemplo, para que se ejecute todos los días a la 1:00 AM UTC:
  4. SCHEDULE = ‘USING CRON 0 1 * * * UTC’
  1. Establece la lógica SQL de la tarea con la palabra clave AS, donde puedes definir una consulta o una llamada a un procedimiento.
  2. Llama al procedimiento almacenado (si aplica) usando CALL, para ejecutar la acción deseada.

Ejemplo básico:

Crear el procedimiento almacenado

Crear la tarea (TASK) que llama al procedimiento

21. ¿Cómo se verifica el historial de tareas de una Tarea Snowflake? 

Para verificar el historial de ejecución de una Tarea (TASK) en Snowflake, puedes usar las vistas del sistema que registran información sobre la ejecución, el estado y posibles errores

22. ¿Cómo funciona una tabla temporal en Snowflake? 

Una tabla temporal en Snowflake es una tabla especial que existe solo durante la sesión actual del usuario. Una vez que la sesión finaliza, la tabla se elimina automáticamente, lo que la hace útil para cargas de trabajo temporales, pruebas y transformaciones intermedias. 

Tendrás que utilizar la sentencia ‘CREATE TEMPORARY TABLE’ en Snowflake. Esto creará una tabla específica de la sesión que sólo existirá durante el tiempo establecido por el usuario

23. ¿Cómo se crea un clon de una tabla existente en Snowflake? 

Crear un clon de una tabla existente en Snowflake es muy simple gracias a su funcionalidad de clonación de copia cero (zero-copy cloning). Esta operación crea una copia exacta de la tabla en un punto en el tiempo, sin duplicar físicamente los datos

Sintaxis básica para clonar una tabla

Clonar en un punto del pasado (con Time Travel)

Puedes combinarlo con Time Travel para clonar la tabla como estaba antes:

Esta tabla clonada tendrá los mismos datos y esquema que la original en el momento de la clonación. Cualquier cambio realizado en la tabla clonada después de su creación no afectará a la original.

👍 Comenta y comparte si este contenido te fue útil.

Ricardo A. Huamán Suárez Ofrezco consultoría estratégica, formación especializada y servicios personalizados para empresas que buscan optimizar la gestión de sus datos.

📧 Email 📱 WhatsApp

EasyPAck4You, es un buscador de empresas de paquetería para enviar paquetes a precios baratos. Envío de paquetes a nivel nacional e internacional.

No responses yet

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *