Innovation and technology nurture each other.

We harness the power of data for better decision making within an innovative organizational culture, through our team of Data Architects, Data Scientists and Data Engineers.

This evolves into gigantic volumes of data, which using the tools provided by the cloud allows us not only to improve its analysis but also to implement Machine Learning and AI to increase business intelligence.

Intelligent Forecasting

AI solution that allows the forecasting of business events in advance in order to plan improvements and actions that optimize results.

Data Lakes

Business analysis, manage diverse data sources, and achieve a better understanding of the world through these centralized repositories.

Master Data Optimization

The Master Data Optimization solution uses Machine Learning to automate the creation, remediation and continuous maintenance of master databases.

HealthBot

Virtual health channel that uses cognitive technologies such as artificial intelligence, in order to optimize and speed up the times of health institutions.

Generative AI

Discover the technological disruption that allows you to take your business to a new level and achieve maximum productivity.

Intelligent Automation

Robotic Process Automation (RPA) and Artificial Intelligence that empower a rapid automation of end-to-end business processes and accelerate digital transformation.

Nubiral Cognitive AI Bot

Virtual conversational assistant based on Artificial Intelligence (AI) that enables real-time file processing.

Intelligent Document Processing

An AI solution that allows extracting information from documents and incorporating it into an automatic process, using OCR technology.

Innovative Blockchain solution with Smart Contracts on AWS

The project focuses on implementing a private blockchain platform to improve transparency, security, and efficiency in deployment and development processes.

Read more

Construction of Roadmap for Data Lake modernization on AWS

Evaluating the ZONDA platform: Action plan to strengthen the solution, with special emphasis on improving the observability and monitoring layer.

Read more

Data consumption solution from the Data Lake for business cases

Data Lake evolution and optimization of data consumption: transparent solution with no impact for the Bank.

Read more

Implementation of MongoDB Cluster + Support + Training

The client in the banking industry required the implementation of a robust database solution.

Read more
Blog

Build and scale Generative AI applications with Amazon Bedrock

Organizations that need to build and scale Generative AI applications quickly and efficiently have an ally in the Amazon Bedrock managed service.

Read more
eBooks

Transform your business with the power of Azure OpenAI Service

How to quickly and easily create your own Copilot and Generative AI applications.

Read more
Papers

Trends 2024: Start getting value from generative AI

Over the next 12 months, we will witness an incremental adoption of generative AI, higher levels of maturity and new use cases.

Read more
Whitepapers

Machine learning recommender systems in digital media companies

Advances in machine learning enable digital media companies to improve their recommender systems and optimize user experience.

Read more

Learn about our architecture that combines at least one public and one private cloud to deliver the highest levels of scalability, flexibility, and performance.

Deployment of AWS Control Tower and migration of services to Openshift

A major bank needed to migrate its workloads to the cloud and decided to rely on Nubiral for the initial configuration in AWS.

Read more

Application modernization by migrating to the AWS cloud

Migration to the AWS Cloud at Telecom Argentina, modernizing obsolete applications with a focus on operational excellence.

Read more

Modernization of multimedia content with AWS Migration

Successful migration to AWS cloud to modernize Claro Video’s multimedia content infrastructure.

Read more

Migration to AWS by a major Japanese automobile company

The smooth migration of Toyota to AWS unleashes performance, cost efficiency, and user satisfaction.

Read more
Blog

EC2 & AWS: Powering business in the cloud

A tool that offers flexibility, scalability and efficiency, and could become the keystone to take your business to a new level.

Read more
eBooks

Cloud 4.0: A phenomenon in exponential growth

A tour of the main opportunities that arise from a correct and timely migration of workloads to the cloud, and the trends that are being visualized in the cloud universe.

Read more
Papers
04 October , 2022

Cloud 4.0: A phenomenon in exponential growth

A tour of the main opportunities that arise from a correct and timely migration of workloads to the cloud, and the trends that are being visualized in the cloud universe.

Read more

Application migration, optimization, efficiency, security, analytics and implementation services, with the aim of simplifying and accelerating the adoption of the latest IT trends in the market.

Planning and Consulting

  • Evaluation and Planning
  • Adoption Strategy Consultancy

Test

  • Test Automation

Execution

  • Design and implementation of CI/CD Pipeline
  • Automation and implementation of processes

App Dev

  • Code (JavaScript, Go, Python)

Development to integrate Gala chatbot into the CloudGuru educational platform

The client needed to evolve their Gala chatbot so that end users could consume information from their centralized documentation platform.

Read more

Migration of CI/CD to Github

Important bank in Colombia migrates from GitLab to GitHub Enterprise and trains its staff for efficient adoption.

Read more

Migration of CI/CD to Github

Migration and Configuration of GitHub Enterprise Server for a major financial group, focused on modernizing its on-premise CI/CD structure.

Read more

Telecommunications modernization with AWS technologies

A leading telecommunications company modernizes its applications to respond more quickly and agilely to market changes.

Read more
Blog

GitHub: Features for fintech web application development

This powerful tool constitutes a complete ecosystem that boosts efficiency and collaboration in all aspects of the software development cycle.

Read more
eBooks

Agile & DevOps

A review of the meanings of each of these concepts, how they integrate with each other and what benefits they bring.

Read more

We scale to environments with thousands of items monitored simultaneously.
We also capture data of systems and applications over time to make proactive decisions and to anticipate disruptions in business services.

  • Zabbix Architecture and Implementation
  • Data & Analytics Monitoring

Implementation of monitoring solution with Zabbix

Private bank implements comprehensive Observability solution with Nubiral to optimize and gain greater visibility of its Infrastructure health.

Read more

Implementation of OpenSearch

Improving data observability and security at a major bank with AWS OpenSearch.

Read more

Implementation of OpenSearch

One of the leading banks in Chile utilizes the most advanced AWS services to work on the ingestion, storage, detection, and predictive models of data from cybersecurity intelligence sources.

Read more

Monitoring solution upgrade using Zabbix

Migration of monitoring tool to an automated system for host discovery, dashboards, and scalability over time.

Read more
Blog

How to implement IT observability and track applications?

A strategy to anticipate and prevent technological problems that may impact the business.

Read more
eBooks

Compliance: the evolution of monitoring

A key paradigm for anticipating and solving problems in increasingly complex IT infrastructures.

Read more
Whitepapers

OpenSearch and its log agents

OpenSearch is a comprehensive solution for centralizing and analyzing logs from various sources, ideal for managing complex IT scenarios.

Read more

We help innovate by preparing our clients against current cyber threats.

We fulfill the responsibility of protecting data to maintain trust and comply with regulations.

  • Cloud Assessment & Consulting
  • Security Frameworks & Best Practices
  • Penetration Testing
  • Cloud Security
  • Governance, Risk & Compliance
  • DevSecOps
Blog

Cybersecurity: A key pillar for a 360° digital experience

Mitigating risks linked to cyberattacks and protecting data is essential to survive and lead in the current era of digital transformation.

Read more
Whitepapers

Cybersecurity in your company: The 360º digital solution from Nubiral

How to develop a cybersecurity plan? Which are the main threats? Which are the best and most modern technologies to face these threats?

Read more

Build and scale Generative AI applications with Amazon Bedrock

Organizations that need to build and scale Generative AI applications quickly and efficiently have an ally in the Amazon Bedrock managed service.

Read more

Microsoft Fabric: OneLake Explorer, the One Drive for Data

Microsoft Fabric’s OneLake data lake and OneLake Explorer feature accelerate and simplify extracting value from data projects.

Read more

Cybersecurity: A key pillar for a 360° digital experience

Mitigating risks linked to cyberattacks and protecting data is essential to survive and lead in the current era of digital transformation.

Read more

EC2 & AWS: Powering business in the cloud

A tool that offers flexibility, scalability and efficiency, and could become the keystone to take your business to a new level.

Read more

Transform your business with the power of Azure OpenAI Service

How to quickly and easily create your own Copilot and Generative AI applications.

Read more

GenAI use cases with Amazon Bedrock

Discover the potential of digital transformation with Generative AI.

Read more

MLOps: powering the value of machine learning

A comprehensive guide to MLOps, a key discipline that guarantees the success of Machine Learning (ML) projects in organizations.

Read more

DataOps: everyone plays their own game

Discover how this discipline provides a framework and tools to align the engineering and analytics teams to improve the management of the data ecosystem in the organization.

Read more

Connect+ is a great tool to incorporate knowledge and stay up to date with the latest technological developments.

Access new innovative audiovisual content, quickly and easily. Explore and get to know the technological universe in a different and agile way!

Machine learning recommender systems in digital media companies

Advances in machine learning enable digital media companies to improve their recommender systems and optimize user experience.

Read more

Cybersecurity in your company: The 360º digital solution from Nubiral

How to develop a cybersecurity plan? Which are the main threats? Which are the best and most modern technologies to face these threats?

Read more

Microsoft Fabric Guide: Use case end-to-end Deployment

Banks and financial services companies can benefit in numerous ways by deploying Microsoft Fabric.

Read more

How to Deploy Microsoft Fabric in Multicloud Infrastructures

Microsoft Fabric’s data analytics combined with the power of the multi-cloud architecture, drives decision making and empowers users.

Read more

AWS + Nubiral

As an Advanced Consulting Partner of the AWS Partner Network, we think outside the box, daring to go where no one has gone before.
We constantly challenge ourselves to be better, providing your company with AWS solutions in a holistic and tailored way.

Microsoft + Nubiral

As Cloud Gold Partner, we work together with Microsoft every day to offer our clients the most innovative solutions based on the different microservices and capabilities that the Azure cloud offers.
Our team is constantly training and certifying on Azure’s services.

Zabbix + Nubiral

We scale to environments with thousands of items monitored simultaneously.
We also capture data of systems and applications over time to make proactive decisions and to anticipate disruptions in business services.

Diligent + Nubiral

Nubiral and Diligent join to present a revolutionary solution that will transform the way organizations manage their GRC (Governance, Risk, and Compliance) processes.

Data
& Innovation

General Info

Innovation and technology nurture each other.

We harness the power of data for better decision making within an innovative organizational culture, through our team of Data Architects, Data Scientists and Data Engineers.

This evolves into gigantic volumes of data, which using the tools provided by the cloud allows us not only to improve its analysis but also to implement Machine Learning and AI to increase business intelligence.

Solutions

Intelligent Forecasting

AI solution that allows the forecasting of business events in advance in order to plan improvements and actions that optimize results.

Data Lakes

Business analysis, manage diverse data sources, and achieve a better understanding of the world through these centralized repositories.

Master Data Optimization

The Master Data Optimization solution uses Machine Learning to automate the creation, remediation and continuous maintenance of master databases.

HealthBot

Virtual health channel that uses cognitive technologies such as artificial intelligence, in order to optimize and speed up the times of health institutions.

Generative AI

Discover the technological disruption that allows you to take your business to a new level and achieve maximum productivity.

Intelligent Automation

Robotic Process Automation (RPA) and Artificial Intelligence that empower a rapid automation of end-to-end business processes and accelerate digital transformation.

Nubiral Cognitive AI Bot

Virtual conversational assistant based on Artificial Intelligence (AI) that enables real-time file processing.

Intelligent Document Processing

An AI solution that allows extracting information from documents and incorporating it into an automatic process, using OCR technology.

Success Stories

Innovative Blockchain solution with Smart Contracts on AWS

The project focuses on implementing a private blockchain platform to improve transparency, security, and efficiency in deployment and development processes.

Read more

Construction of Roadmap for Data Lake modernization on AWS

Evaluating the ZONDA platform: Action plan to strengthen the solution, with special emphasis on improving the observability and monitoring layer.

Read more

Data consumption solution from the Data Lake for business cases

Data Lake evolution and optimization of data consumption: transparent solution with no impact for the Bank.

Read more

Implementation of MongoDB Cluster + Support + Training

The client in the banking industry required the implementation of a robust database solution.

Read more

Connect

Blog

Build and scale Generative AI applications with Amazon Bedrock

Organizations that need to build and scale Generative AI applications quickly and efficiently have an ally in the Amazon Bedrock managed service.

Read more
eBooks

Transform your business with the power of Azure OpenAI Service

How to quickly and easily create your own Copilot and Generative AI applications.

Read more
Papers

Trends 2024: Start getting value from generative AI

Over the next 12 months, we will witness an incremental adoption of generative AI, higher levels of maturity and new use cases.

Read more
Whitepapers

Machine learning recommender systems in digital media companies

Advances in machine learning enable digital media companies to improve their recommender systems and optimize user experience.

Read more

Hybrid
Multi Cloud

General Info

Learn about our architecture that combines at least one public and one private cloud to deliver the highest levels of scalability, flexibility, and performance.

Success Stories

Deployment of AWS Control Tower and migration of services to Openshift

A major bank needed to migrate its workloads to the cloud and decided to rely on Nubiral for the initial configuration in AWS.

Read more

Application modernization by migrating to the AWS cloud

Migration to the AWS Cloud at Telecom Argentina, modernizing obsolete applications with a focus on operational excellence.

Read more

Modernization of multimedia content with AWS Migration

Successful migration to AWS cloud to modernize Claro Video’s multimedia content infrastructure.

Read more

Migration to AWS by a major Japanese automobile company

The smooth migration of Toyota to AWS unleashes performance, cost efficiency, and user satisfaction.

Read more

Connect

Blog

EC2 & AWS: Powering business in the cloud

A tool that offers flexibility, scalability and efficiency, and could become the keystone to take your business to a new level.

Read more
eBooks

Cloud 4.0: A phenomenon in exponential growth

A tour of the main opportunities that arise from a correct and timely migration of workloads to the cloud, and the trends that are being visualized in the cloud universe.

Read more
Papers
04 October , 2022

Cloud 4.0: A phenomenon in exponential growth

A tour of the main opportunities that arise from a correct and timely migration of workloads to the cloud, and the trends that are being visualized in the cloud universe.

Read more

DevOps
& App Evolution

General Info

Application migration, optimization, efficiency, security, analytics and implementation services, with the aim of simplifying and accelerating the adoption of the latest IT trends in the market.

Solutions

Planning and Consulting

  • Evaluation and Planning
  • Adoption Strategy Consultancy

Test

  • Test Automation

Execution

  • Design and implementation of CI/CD Pipeline
  • Automation and implementation of processes

App Dev

  • Code (JavaScript, Go, Python)

Success Stories

Development to integrate Gala chatbot into the CloudGuru educational platform

The client needed to evolve their Gala chatbot so that end users could consume information from their centralized documentation platform.

Read more

Migration of CI/CD to Github

Important bank in Colombia migrates from GitLab to GitHub Enterprise and trains its staff for efficient adoption.

Read more

Migration of CI/CD to Github

Migration and Configuration of GitHub Enterprise Server for a major financial group, focused on modernizing its on-premise CI/CD structure.

Read more

Telecommunications modernization with AWS technologies

A leading telecommunications company modernizes its applications to respond more quickly and agilely to market changes.

Read more

Connect

Blog

GitHub: Features for fintech web application development

This powerful tool constitutes a complete ecosystem that boosts efficiency and collaboration in all aspects of the software development cycle.

Read more
eBooks

Agile & DevOps

A review of the meanings of each of these concepts, how they integrate with each other and what benefits they bring.

Read more

Monitoring
& Intelligence

General Info

We scale to environments with thousands of items monitored simultaneously.
We also capture data of systems and applications over time to make proactive decisions and to anticipate disruptions in business services.

Solutions

  • Zabbix Architecture and Implementation
  • Data & Analytics Monitoring

Success Stories

Implementation of monitoring solution with Zabbix

Private bank implements comprehensive Observability solution with Nubiral to optimize and gain greater visibility of its Infrastructure health.

Read more

Implementation of OpenSearch

Improving data observability and security at a major bank with AWS OpenSearch.

Read more

Implementation of OpenSearch

One of the leading banks in Chile utilizes the most advanced AWS services to work on the ingestion, storage, detection, and predictive models of data from cybersecurity intelligence sources.

Read more

Monitoring solution upgrade using Zabbix

Migration of monitoring tool to an automated system for host discovery, dashboards, and scalability over time.

Read more

Connect

Blog

How to implement IT observability and track applications?

A strategy to anticipate and prevent technological problems that may impact the business.

Read more
eBooks

Compliance: the evolution of monitoring

A key paradigm for anticipating and solving problems in increasingly complex IT infrastructures.

Read more
Whitepapers

OpenSearch and its log agents

OpenSearch is a comprehensive solution for centralizing and analyzing logs from various sources, ideal for managing complex IT scenarios.

Read more

Cybersecurity

General Info

We help innovate by preparing our clients against current cyber threats.

We fulfill the responsibility of protecting data to maintain trust and comply with regulations.

Solutions

  • Cloud Assessment & Consulting
  • Security Frameworks & Best Practices
  • Penetration Testing
  • Cloud Security
  • Governance, Risk & Compliance
  • DevSecOps

Connect

Blog

Cybersecurity: A key pillar for a 360° digital experience

Mitigating risks linked to cyberattacks and protecting data is essential to survive and lead in the current era of digital transformation.

Read more
Whitepapers

Cybersecurity in your company: The 360º digital solution from Nubiral

How to develop a cybersecurity plan? Which are the main threats? Which are the best and most modern technologies to face these threats?

Read more

Partners

Solutions

AWS + Nubiral

As an Advanced Consulting Partner of the AWS Partner Network, we think outside the box, daring to go where no one has gone before.
We constantly challenge ourselves to be better, providing your company with AWS solutions in a holistic and tailored way.

Microsoft + Nubiral

As Cloud Gold Partner, we work together with Microsoft every day to offer our clients the most innovative solutions based on the different microservices and capabilities that the Azure cloud offers.
Our team is constantly training and certifying on Azure’s services.

Zabbix + Nubiral

We scale to environments with thousands of items monitored simultaneously.
We also capture data of systems and applications over time to make proactive decisions and to anticipate disruptions in business services.

Diligent + Nubiral

Nubiral and Diligent join to present a revolutionary solution that will transform the way organizations manage their GRC (Governance, Risk, and Compliance) processes.

Success Stories

Innovative Blockchain solution with Smart Contracts on AWS

The project focuses on implementing a private blockchain platform to improve transparency, security, and efficiency in deployment and development processes.

Read more

A medical center implements a chatbot and cognitive services

Improvement in patient care times and reduction in administrative staff dedication costs for routine tasks.

Read more

Implementation of monitoring solution with Zabbix

Private bank implements comprehensive Observability solution with Nubiral to optimize and gain greater visibility of its Infrastructure health.

Read more

Connect

Blog

Build and scale Generative AI applications with Amazon Bedrock

Organizations that need to build and scale Generative AI applications quickly and efficiently have an ally in the Amazon Bedrock managed service.

Read more

Microsoft Fabric: OneLake Explorer, the One Drive for Data

Microsoft Fabric’s OneLake data lake and OneLake Explorer feature accelerate and simplify extracting value from data projects.

Read more

Cybersecurity: A key pillar for a 360° digital experience

Mitigating risks linked to cyberattacks and protecting data is essential to survive and lead in the current era of digital transformation.

Read more

EC2 & AWS: Powering business in the cloud

A tool that offers flexibility, scalability and efficiency, and could become the keystone to take your business to a new level.

Read more

eBooks & Papers

Transform your business with the power of Azure OpenAI Service

How to quickly and easily create your own Copilot and Generative AI applications.

Read more

GenAI use cases with Amazon Bedrock

Discover the potential of digital transformation with Generative AI.

Read more

MLOps: powering the value of machine learning

A comprehensive guide to MLOps, a key discipline that guarantees the success of Machine Learning (ML) projects in organizations.

Read more

DataOps: everyone plays their own game

Discover how this discipline provides a framework and tools to align the engineering and analytics teams to improve the management of the data ecosystem in the organization.

Read more

Connect+

Connect+ is a great tool to incorporate knowledge and stay up to date with the latest technological developments.

Access new innovative audiovisual content, quickly and easily. Explore and get to know the technological universe in a different and agile way!

Whitepapers

Machine learning recommender systems in digital media companies

Advances in machine learning enable digital media companies to improve their recommender systems and optimize user experience.

Read more

Cybersecurity in your company: The 360º digital solution from Nubiral

How to develop a cybersecurity plan? Which are the main threats? Which are the best and most modern technologies to face these threats?

Read more

Microsoft Fabric Guide: Use case end-to-end Deployment

Banks and financial services companies can benefit in numerous ways by deploying Microsoft Fabric.

Read more

How to Deploy Microsoft Fabric in Multicloud Infrastructures

Microsoft Fabric’s data analytics combined with the power of the multi-cloud architecture, drives decision making and empowers users.

Read more
Guías Técnicas

Cómo agilizar los procesos ETL con Microsoft Fabric

El poder de Microsoft Fabric permite a los analistas, ingenieros y científicos de datos realizar ETLs con una curva de aprendizaje menor.

Home / Guía técnica: Cómo agilizar los procesos ETL con Microsoft Fabric

1. Introducción

Los datos se multiplican en volumen, en orígenes, en formato. La capacidad de las empresas de combinarlos, gestionarlos, almacenarlos y accederlos de manera adecuada hace la diferencia en este contexto de negocios digitales.

El proceso de “extracción, transformación y carga” (ETL, por sus siglas en inglés) permite afrontar este desafío. Es un proceso  que se usa para recopilar datos de varios orígenes, transformarlos según las reglas del negocio y cargarlos en un almacén de destino. En medio, los datos se filtran, se ordenan, se combinan, se limpian y se validan.

Esta guía explica cómo Microsoft Fabric ayuda a agilizar los procesos ETL, un paso clave para las empresas que quieran convertirse en una compañía data driven.

2. Lo que hay que saber sobre Fabric en procesos ETL

Los ETLs en Microsoft Fabric se apoyan y combinan tecnologías ya conocidas como DataFactory de Azure y PowerQuery de PowerBI. Esto significa que si el responsable tiene experiencia en alguna de ellas, el pasaje a Fabric debería ser inmediato.

Microsoft Fabric hace énfasis en las mencionadas herramientas low code/no code (de baja o nula codificación). Esto significa que, además, brinda herramientas visuales que hacen que todo sea más accesible. Dicho de otra manera, los analistas de datos pueden realizar ETLs más complejos con una curva de aprendizaje menor. Esta facilidad de uso amplía la posibilidad de que estas tareas las desempeñen ya no sólo los ingenieros de datos, sino también otros roles, como analistas de datos y científicos de datos.

Por otra parte, Microsoft Fabric cuenta con una amplia gama de conectores con diferentes herramientas y tecnologías (Incluso las que no son cloud o de fabricantes diferentes de Microsoft). Esto habilita a lograr extracciones de una extensa lista de orígenes de datos.

3. ¿Cómo agilizar los procesos ETL con Microsoft Fabric?

Más allá de lo mencionado, Microsoft Fabric incorpora varias funcionalidades y facilidades para que sea más simple y más accesible el desarrollo de ETLs. Esto incluye:

– Más de 200 conectores  a una gran variedad de fuentes de datos tanto on premise como SaaS y otros proveedores de nube.

– Fabric Copilot como herramienta de asistencia en la generación de ETL con las herramientas visuales e incluso en la generación de código, si el caso fuese necesario.

– Herramientas visuales para desarrollo de queries (consultas / transformaciones sobre la información recopilada).

Data Activator, herramienta no-code para ejecutar acciones cuando ciertos eventos ocurren. Por ejemplo, cuando establecemos una métrica sobre una campaña de marketing como las ventas de un producto, si está por debajo de un límite preestablecido podemos detonar acciones (enviar correos, dar un aviso por Microsoft Teams y muchas más).

Templates de soluciones de Fabric para industrias específicas como Fabric for Retail.

 

4. ¿Cómo implementar Microsoft Fabric?

La implementación de Microsoft Fabric debe comenzar por cuál es la pregunta de negocios que queremos responder. Una vez identificada, para responderla, debemos trabajar hacia atrás para entender los modelos de datos, las transformaciones, el procesamiento y las fuentes de datos a considerar.

El siguiente paso es definir si el proceso de ingesta será en batch (es decir, en unas ventanas de tiempo preestablecidas) o si se requiere un tratamiento especial real time o near real time. Luego, mapear el tipo de información a extraer, identificar que tipo de conectividad que necesitamos dependiendo de todo lo anterior. Por último, definir la tecnología de ETL (nos concentraremos en Dataflow y Pipeline).

Los pasos de la implementación son:

Trazar los objetivos y alcance del proyecto

Es un paso fundamental en la implementación de cualquier iniciativa en una organización, incluyendo por supuesto la de Fabric.

Implica una identificación de los logros esperados y de los límites del proyecto. Entre otras cosas, debe decidirse:

– Cuáles son los datos a mover/extraer.

– Con qué frecuencia se actualizan.

– Qué sistemas dependen de ellos.

Así, se obtiene un contexto que debe combinarse con otros aspectos, como el presupuesto asignado, los beneficios anticipados y los posibles riesgos de la implementación.

También es esencial que todas las partes interesadas comprendan los objetivos y los límites del proyecto. La comunicación transparente y la alineación efectiva con los involucrados garantizan el respaldo necesario a lo largo del proceso.

Configuración inicial

Microsoft Fabric no obliga a lidiar con configuraciones iniciales complejas.

Parte de su secreto reside en su simpleza. Un par de clics bastan para comenzar a aprovechar al máximo esta potente herramienta de análisis y gestión de datos.

Para habilitar las funcionalidades es necesario cumplir con dos prerrequisitos:

– Un inquilino o tenant a nivel organizacional en el entorno de Microsoft.

– Algún rol de administrador en Microsoft 365, Power Platform o Fabric.

Luego, el proceso de configuración inicial es sencillo. Consiste simplemente en acceder a la configuración del inquilino (tenant settings) y habilitar Microsoft Fabric para toda la organización o para un grupo específico de usuarios.

Orígenes de datos

Este paso permite comprender la complejidad de los datos que deben transferirse entre entornos de nube. Así, garantiza una migración exitosa.

Para llevar a cabo esta tarea de manera efectiva hay que llevar a cabo:

– Inventario de fuentes de datos de la infraestructura actual. Incluye bases de datos, sistemas de archivos, aplicaciones, servicios web y cualquier otro repositorio de datos.

– Clasificación de datos. Se realiza en función de su importancia y criticidad para el negocio. Algunos pueden ser esenciales y otros, menos relevantes. Ayuda a priorizar el orden en el que se involucrarán los datos a los procesos de datos.

– Análisis de dependencias entre diferentes conjuntos de datos y aplicaciones. Algunos pueden ser interdependientes y deben migrarse juntos para evitar problemas de coherencia.

– Evaluación de calidad de datos en cada fuente. Incluye la precisión, la integridad y la consistencia de los datos. Los de baja calidad pueden requerir limpieza antes de poder ser usados.

– Mapeo de datos detallado que indica de dónde provienen, cómo se utilizan y dónde deben residir en el entorno multicloud de destino (En este caso, Microsoft Fabric). Incluye definir estructuras de datos, formatos y esquemas.

Dataflow vs Pipeline

La ingestión y la preparación de datos son fundamentales para las empresas que quieran basar sus decisiones en datos.

Microsoft Fabric ofrece dos poderosas herramientas: Pipelines y Dataflows, que simplifican estos procesos cruciales y brindan ventajas excepcionales al unificar datos de múltiples nubes.

Ambas permiten ingresar información desde diferentes nubes (Azure, AWS, GCP, entre otras) con conectores nativos que se configuran con unos pocos parámetros básicos. Es tan simple que hasta pueden hacerlo usuarios sin experiencia técnica.

Pipelines constituye una solución completa y versátil para la ingestión de datos. Conectar una variedad de fuentes, desde bases de datos locales hasta nubes y aplicaciones de terceros, por lo que es ideal para consolidar datos dispersos.

Dataflow proveniente de Power BI, por su parte, facilita la preparación de datos de manera ágil y potente para la etapa de transformación. Permite crear procesos ETL en una interfaz intuitiva de tipo “arrastrar y soltar”. También permite aplicar filtros, limpiar datos, realizar agregaciones y combinar múltiples fuentes sin necesidad de codificación compleja.

Dataflow tiene como ventaja la reutilización. Los flujos de trabajo de transformación creados pueden ser compartidos y utilizados en diversos procesos posteriores como lo pueden ser los informes y paneles de Power BI (dentro de Microsoft Fabric). Esto ahorra tiempo y asegura la coherencia en los análisis.

En cualquiera de los casos, los datos van a ser tratados, depurados y transformados. También se les aplicarán las reglas del negocio para su posterior explotación. En los casos en que sea posible, se incluirán transformaciones que permitan por sí mismas agregar valor al negocio.

Almacenamiento adecuado

Dependiendo de los requerimientos iniciales, del tipo de datos y de las consultas a realizar, podremos optar entre un Data Warehouse o un Lakehouse (disponibles ambos en Microsoft Fabric).

Lakehouse-end-to-end-architecture

Data-warehouse-architecture

5. Conclusiones

Microsoft Fabric ofrece numerosas ventajas para agilizar los procesos ETL:

– Aporta una experiencia end to end para la realización de las ETL. Esto implica que se simplifica la administración de plataformas para esta tarea tan importante.

– Se apoya en tecnologías reconocidas en el mercado, por lo que hay muchos usuarios con experiencia en algunas de ellas, lo que facilita la transición hacia Fabric.

– Incluye numerosas herramientas low code/no code para hacer reducir la curva de aprendizaje de los analistas de datos que realizan ETL, aún cuando se trate de los más complejos.

– Ofrece conectores para lograr extracciones de una extensa lista de orígenes de datos.

– Brinda el asistente de generador de código y flujos Fabric Copilot y templates para industrias específicas.

– Su implementación es sencilla y no genera fricciones ni complicaciones.

– De esta manera, garantiza la obtención de valor de los datos.

En Nubiral tenemos los especialistas, la experiencia y el conocimiento para ayudarte a tener éxito en este proceso. ¡Agenda tu reunión!

Guía técnica: Cómo agilizar los procesos ETL con Microsoft Fabric


 

  1. Introducción

Los datos se multiplican en volumen, en orígenes, en formato. La capacidad de las empresas de combinarlos, gestionarlos, almacenarlos y accederlos de manera adecuada hace la diferencia en este contexto de negocios digitales.

El proceso de “extracción, transformación y carga” (ETL, por sus siglas en inglés) permite afrontar este desafío. Es un proceso  que se usa para recopilar datos de varios orígenes, transformarlos según las reglas del negocio y cargarlos en un almacén de destino. En medio, los datos se filtran, se ordenan, se combinan, se limpian y se validan.

Esta guía explica cómo Microsoft Fabric ayuda a agilizar los procesos ETL, un paso clave para las empresas que quieran convertirse en una compañía data driven.

 

  1. Lo que hay que saber sobre Fabric en procesos ETL

Los ETLs en Microsoft Fabric se apoyan y combinan tecnologías ya conocidas como DataFactory de Azure y PowerQuery de PowerBI. Esto significa que si el responsable tiene experiencia en alguna de ellas, el pasaje a Fabric debería ser inmediato.

Microsoft Fabric hace énfasis en las mencionadas herramientas low code/no code (de baja o nula codificación). Esto significa que, además, brinda herramientas visuales que hacen que todo sea más accesible. Dicho de otra manera, los analistas de datos pueden realizar ETLs más complejos con una curva de aprendizaje menor. Esta facilidad de uso amplía la posibilidad de que estas tareas las desempeñen ya no sólo los ingenieros de datos, sino también otros roles, como analistas de datos y científicos de datos.

Por otra parte, Microsoft Fabric cuenta con una amplia gama de conectores con diferentes herramientas y tecnologías (Incluso las que no son cloud o de fabricantes diferentes de Microsoft). Esto habilita a lograr extracciones de una extensa lista de orígenes de datos.

 

  1. ¿Cómo agilizar los procesos ETL con Microsoft Fabric?

Más allá de lo mencionado, Microsoft Fabric incorpora varias funcionalidades y facilidades para que sea más simple y más accesible el desarrollo de ETLs. Esto incluye:

– Más de 200 conectores  a una gran variedad de fuentes de datos tanto on premise como SaaS y otros proveedores de nube.

– Fabric Copilot como herramienta de asistencia en la generación de ETL con las herramientas visuales e incluso en la generación de código, si el caso fuese necesario.

– Herramientas visuales para desarrollo de queries (consultas / transformaciones sobre la información recopilada).

Data Activator, herramienta no-code para ejecutar acciones cuando ciertos eventos ocurren. Por ejemplo, cuando establecemos una métrica sobre una campaña de marketing como las ventas de un producto, si está por debajo de un límite preestablecido podemos detonar acciones (enviar correos, dar un aviso por Microsoft Teams y muchas más).

Templates de soluciones de Fabric para industrias específicas como Fabric for Retail.

 

  1. ¿Cómo implementar Microsoft Fabric?

La implementación de Microsoft Fabric debe comenzar por cuál es la pregunta de negocios que queremos responder. Una vez identificada, para responderla, debemos trabajar hacia atrás para entender los modelos de datos, las transformaciones, el procesamiento y las fuentes de datos a considerar.

El siguiente paso es definir si el proceso de ingesta será en batch (es decir, en unas ventanas de tiempo preestablecidas) o si se requiere un tratamiento especial real time o near real time. Luego, mapear el tipo de información a extraer, identificar que tipo de conectividad que necesitamos dependiendo de todo lo anterior. Por último, definir la tecnología de ETL (nos concentraremos en Dataflow y Pipeline).

Los pasos de la implementación son:

Trazar los objetivos y alcance del proyecto

Es un paso fundamental en la implementación de cualquier iniciativa en una organización, incluyendo por supuesto la de Fabric.

Implica una identificación de los logros esperados y de los límites del proyecto. Entre otras cosas, debe decidirse:

– Cuáles son los datos a mover/extraer.

– Con qué frecuencia se actualizan.

– Qué sistemas dependen de ellos.

Así, se obtiene un contexto que debe combinarse con otros aspectos, como el presupuesto asignado, los beneficios anticipados y los posibles riesgos de la implementación.

También es esencial que todas las partes interesadas comprendan los objetivos y los límites del proyecto. La comunicación transparente y la alineación efectiva con los involucrados garantizan el respaldo necesario a lo largo del proceso.

Configuración inicial

Microsoft Fabric no obliga a lidiar con configuraciones iniciales complejas.

Parte de su secreto reside en su simpleza. Un par de clics bastan para comenzar a aprovechar al máximo esta potente herramienta de análisis y gestión de datos.

Para habilitar las funcionalidades es necesario cumplir con dos prerrequisitos:

– Un inquilino o tenant a nivel organizacional en el entorno de Microsoft.

– Algún rol de administrador en Microsoft 365, Power Platform o Fabric.

Luego, el proceso de configuración inicial es sencillo. Consiste simplemente en acceder a la configuración del inquilino (tenant settings) y habilitar Microsoft Fabric para toda la organización o para un grupo específico de usuarios.

Orígenes de datos

Este paso permite comprender la complejidad de los datos que deben transferirse entre entornos de nube. Así, garantiza una migración exitosa.

Para llevar a cabo esta tarea de manera efectiva hay que llevar a cabo:

– Inventario de fuentes de datos de la infraestructura actual. Incluye bases de datos, sistemas de archivos, aplicaciones, servicios web y cualquier otro repositorio de datos.

– Clasificación de datos. Se realiza en función de su importancia y criticidad para el negocio. Algunos pueden ser esenciales y otros, menos relevantes. Ayuda a priorizar el orden en el que se involucrarán los datos a los procesos de datos.

– Análisis de dependencias entre diferentes conjuntos de datos y aplicaciones. Algunos pueden ser interdependientes y deben migrarse juntos para evitar problemas de coherencia.

– Evaluación de calidad de datos en cada fuente. Incluye la precisión, la integridad y la consistencia de los datos. Los de baja calidad pueden requerir limpieza antes de poder ser usados.

– Mapeo de datos detallado que indica de dónde provienen, cómo se utilizan y dónde deben residir en el entorno multicloud de destino (En este caso, Microsoft Fabric). Incluye definir estructuras de datos, formatos y esquemas.

Dataflow vs Pipeline

La ingestión y la preparación de datos son fundamentales para las empresas que quieran basar sus decisiones en datos.

Microsoft Fabric ofrece dos poderosas herramientas: Pipelines y Dataflows, que simplifican estos procesos cruciales y brindan ventajas excepcionales al unificar datos de múltiples nubes.

Ambas permiten ingresar información desde diferentes nubes (Azure, AWS, GCP, entre otras) con conectores nativos que se configuran con unos pocos parámetros básicos. Es tan simple que hasta pueden hacerlo usuarios sin experiencia técnica.

Pipelines constituye una solución completa y versátil para la ingestión de datos. Conectar una variedad de fuentes, desde bases de datos locales hasta nubes y aplicaciones de terceros, por lo que es ideal para consolidar datos dispersos.

Dataflow proveniente de Power BI, por su parte, facilita la preparación de datos de manera ágil y potente para la etapa de transformación. Permite crear procesos ETL en una interfaz intuitiva de tipo “arrastrar y soltar”. También permite aplicar filtros, limpiar datos, realizar agregaciones y combinar múltiples fuentes sin necesidad de codificación compleja.

Dataflow tiene como ventaja la reutilización. Los flujos de trabajo de transformación creados pueden ser compartidos y utilizados en diversos procesos posteriores como lo pueden ser los informes y paneles de Power BI (dentro de Microsoft Fabric). Esto ahorra tiempo y asegura la coherencia en los análisis.

En cualquiera de los casos, los datos van a ser tratados, depurados y transformados. También se les aplicarán las reglas del negocio para su posterior explotación. En los casos en que sea posible, se incluirán transformaciones que permitan por sí mismas agregar valor al negocio.

Almacenamiento adecuado

Dependiendo de los requerimientos iniciales, del tipo de datos y de las consultas a realizar, podremos optar entre un Data Warehouse o un Lakehouse (disponibles ambos en Microsoft Fabric)

Lakehouse-end-to-end-architecture

 

Data-warehouse-architecture 

Conclusiones:

Microsoft Fabric ofrece numerosas ventajas para agilizar los procesos ETL:

– Aporta una experiencia end to end para la realización de las ETL. Esto implica que se simplifica la administración de plataformas para esta tarea tan importante.

– Se apoya en tecnologías reconocidas en el mercado, por lo que hay muchos usuarios con experiencia en algunas de ellas, lo que facilita la transición hacia Fabric.

– Incluye numerosas herramientas low code/no code para hacer reducir la curva de aprendizaje de los analistas de datos que realizan ETL, aún cuando se trate de los más complejos.

– Ofrece conectores para lograr extracciones de una extensa lista de orígenes de datos.

– Brinda el asistente de generador de código y flujos Fabric Copilot y templates para industrias específicas.

– Su implementación es sencilla y no genera fricciones ni complicaciones.

– De esta manera, garantiza la obtención de valor de los datos.

En Nubiral tenemos los especialistas, la experiencia y el conocimiento para ayudarte a tener éxito en este proceso. ¡Agenda tu reunión!

Completa el formulario y contáctate con nuestros expertos.

Analía Laura Enrique

About Analía Laura Enrique