- Consulting services
Microsoft Fabric Fundamentals: 1,5 day workshop
La formazione base abilitante alla progettazione e implementazione di soluzioni Microsoft Fabric. Impara come utilizzare Microsoft Fabric per implementare e pubblicare soluzioni analitiche aziendali.
Il workshop destinato a tutte quelle figure aziendali che si occupano di gestire e analizzare i dati: Data Engineers, Data Science e Data Analyst.
Il workshop è strutturato in 3 sessioni che coprono le fasi di progettazione e implementazione dei workload analitici • Overview della piattaforma Fabric • Abilitazione e ambiente Fabric • One Lake Fabric Workspaces • Prepare, Transform and Enrichment • Data Factory workflows: Pipeline e Dataflow Gen2 • Data Engineering workflows: Fabric Lakehouse, Spark e Notebook • Business intelligence, data warehousing e modelli dati • Data Warehouse workflows: Fabric Warehouse • Integrazione Git e client • Sicurezza e Monitoraggio
Ogni sessione di 4h prevede le seguenti fasi
Sessione 1 • Prima di Fabric: Discussione sulla frammentazione dei servizi classica. • Overview della piattaforma Fabric: Introduzione alla piattaforma. • Componenti aggiuntive di Fabric: Data Science, Real-Time Analytics, Power BI, Data Activator. • Abilitazione Fabric: Processo di attivazione. • One Lake: Concetto di archiviazione unificata. • Fabric Home: Panoramica dei workflow ed esperienze. • Data Factory e Data Engineering workflows: Ruolo di Data Factory e flussi di lavoro di Data Engineering. • Fabric Workspaces: Spazi di lavoro all’interno di Fabric. • Data Engineering/Factory Lakehouse: Dettagli sulle operazioni di Data Ingestion, Shortcuts, Best Practices, Dataflow, Pipelines, limiti, Sql Endpoint, Explorer & App, Delta Format Tables, gestione e passaggi nel workflow.
Sessione 2 • Prepare, Transform and Enrichment: Concetti di preparazione dei dati. • Dataflow: Creazione, interfaccia utente, destinazione, pianificazione, trasformazioni (cambio di tipo di dato, rimozione colonne, ordinamento, filtraggio, creazione di nuove colonne, merge, aggregazione). • Monitoraggio Dataflow e Pipeline: Controllo delle operazioni. • Spark: Utilizzo di Spark. • Notebook: Creazione, lettura e scrittura di dataset, frammenti di codice, modalità di alta concorrenza, gestione di dati Spark e Pandas, trasformazioni. • Integrazione Git e VS code.
Sessione 3 • Business intelligence e data warehousing: Concetti di base. • Slowly changing dimension (scd): Gestione dei cambiamenti nei dati. • Star schema/snowflake schema: Modelli di dati. • Multilayer (medallion) architecture: Architettura a più livelli. • Data Warehouse: Panoramica, creazione, interfaccia utente, editor di query visuale, editor di query SQL, endpoint, confronto delle offerte, modello semantico, recupero dati, sicurezza, monitoraggio e capacità.