- Vue d'ensemble : 32 features en un mois
- Adaptive Performance Tuning — le tuning automatique
- Dataflow Gen2 Modern Engine passe en GA
- Just-in-Time Publishing — fini le bouton Publish
- ODBC Driver pour Fabric Data Engineering
- Notebooks : %run, Full Size Mode et CMK
- Data Factory : Incremental Copy CDF et CSV parallele
- Relative References — le CI/CD simplifie
- Recapitulatif complet
Chaque mois, Microsoft pousse des mises a jour sur Fabric. Certaines sont cosmetiques, d'autres changent fondamentalement notre facon de travailler. La mise a jour de fevrier 2026 fait clairement partie de la deuxieme categorie.
Avec 32 nouveautes reparties sur tous les workloads — Data Engineering, Data Factory, Data Warehouse, Real-Time Intelligence — cette release apporte des avancees majeures en termes de performance, productivite et CI/CD. Voici mon analyse des features qui comptent le plus pour nous, Data Engineers.
01. Vue d'ensemble : 32 features en un mois
Avant de plonger dans le detail, voici la repartition des nouveautes par workload :
| Workload | Nb features | Highlights |
|---|---|---|
| Data Factory | 12 | Adaptive Perf Tuning, Modern Engine GA, JIT Publishing |
| Data Engineering | 8 | ODBC Driver, %run, CMK Notebooks, GraphQL CI/CD |
| Fabric Platform | 4 | OneLake Catalog Apps, Identity Limits x10 |
| Real-Time Intelligence | 3 | Dashboards 10x plus rapides, Private Network Eventstream |
| Data Warehouse | 2 | SQL Pool Insights, Export Migration Summary |
| Data Science | 2 | Semantic Link 0.13.0, Monitoring Scoring Endpoints |
| Developer Tools | 1 | VS Code Extension + Fabric MCP Server |
Data Factory domine ce mois-ci avec 12 features. C'est logique : Microsoft investit massivement dans l'experience d'integration de donnees. Voyons les features les plus impactantes.
02. Adaptive Performance Tuning — le tuning automatique
C'est LA feature star de cette release. Adaptive Performance Tuning est un mecanisme intelligent qui optimise automatiquement les performances de deplacement de donnees en fonction du contexte d'execution.
Fini le tuning manuel des DIU (Data Integration Units), du parallelisme et des tailles de batch. Fabric s'adapte seul en analysant la configuration de la source, de la destination et le contexte runtime.
Pourquoi c'est un game changer ?
Jusqu'a present, optimiser les performances d'un pipeline de copie dans Data Factory necessitait de l'expertise : ajuster les DIU, configurer le parallelisme, tester differentes tailles de batch... Un processus iteratif et chronophage.
Avec Adaptive Performance Tuning, le service :
- Analyse la source et la destination de vos donnees
- Evalue le contexte runtime (volume, reseau, capacite disponible)
- Ajuste automatiquement les parametres de copie en temps reel
- Ne necessite aucune intervention manuelle
En clair : vous creez votre pipeline, et Fabric se charge d'optimiser les performances. C'est exactement le type d'intelligence qu'on attend d'une plateforme cloud moderne.
La feature est en Preview. Testez-la sur vos pipelines de copie existants et comparez les temps d'execution. Si les resultats sont probants, activez-la progressivement sur vos workloads de production.
03. Dataflow Gen2 Modern Engine passe en GA
Le Modern Query Evaluation Engine de Dataflow Gen2 est desormais en disponibilite generale (GA). Ce nouveau moteur, construit sur .NET 8, remplace l'ancien moteur et supporte desormais plus de 80 connecteurs.
Ce que ca change concretement
- Performances accrues — le moteur .NET 8 est significativement plus rapide que l'ancien
- 80+ connecteurs — incluant Azure Data Explorer, Salesforce, Google Analytics et bien d'autres
- Meilleure efficacite memoire — moins de timeouts sur les gros volumes
- Pareil pour la fiabilite — moins d'erreurs intermittentes en production
Si vous utilisez Dataflow Gen2 en production, vos dataflows beneficient automatiquement du nouveau moteur. Aucune action requise — mais attendez-vous a des gains de performance mesurables.
04. Just-in-Time Publishing — fini le bouton Publish
Vous connaissez ce moment frustrant ou votre Dataflow Gen2 echoue au refresh parce que vous avez oublie de cliquer sur Publish ? C'est termine.
Le Just-in-Time Publishing detecte automatiquement les changements non publies lors d'un Run ou d'un Refresh, et lance la publication avant d'executer le dataflow. Plus besoin de penser au bouton Publish.
Impact sur le CI/CD
Cette feature est particulierement precieuse dans les workflows CI/CD. Quand un Dataflow est deploye via un pipeline de deploiement, il n'y a plus de risque d'oublier l'etape de publication manuelle. Le dataflow est toujours a jour au moment de l'execution.
Combinez JIT Publishing avec les Relative References (section 8) pour un CI/CD Dataflow Gen2 completement fluide et sans friction.
05. ODBC Driver pour Fabric Data Engineering
Microsoft lance un driver ODBC dedie pour Fabric Data Engineering (en Preview). Ce driver fournit une connectivite Spark SQL de niveau entreprise pour les applications .NET, Python et tout outil compatible ODBC.
Pourquoi c'est strategique
Jusqu'a present, pour interroger des tables Lakehouse depuis une application externe, il fallait passer par le SQL Analytics Endpoint (T-SQL). Desormais, avec ce driver ODBC, vous pouvez vous connecter directement au moteur Spark via les Livy APIs.
Cas d'usage concrets :
- Applications .NET ou Python qui interrogent directement les tables Delta du Lakehouse
- Outils BI tiers (Tableau, Qlik, etc.) connectes au moteur Spark
- Scripts d'automatisation qui executent du Spark SQL a distance
- Data Quality checks depuis des pipelines externes
# Exemple de connexion via le driver ODBC Fabric
import pyodbc
# Connection string (Preview)
conn_str = (
"Driver={Microsoft ODBC Driver for Fabric};"
"Server=<your-workspace>.datawarehouse.fabric.microsoft.com;"
"Database=<your-lakehouse>;"
"Authentication=ActiveDirectoryInteractive;"
)
conn = pyodbc.connect(conn_str)
cursor = conn.cursor()
# Spark SQL directement sur vos tables Delta
cursor.execute("SELECT * FROM silver.dim_customers LIMIT 10")
rows = cursor.fetchall()
for row in rows:
print(row)
Le driver est en Preview. Ne l'utilisez pas encore en production critique. Mais c'est le bon moment pour le tester sur vos environnements de dev et remonter vos retours a Microsoft.
06. Notebooks : %run, Full Size Mode et CMK
Trois ameliorations majeures pour les notebooks Fabric ce mois-ci :
Python %run — la modularite enfin possible
Les notebooks Python supportent desormais la commande %run. Vous pouvez appeler un notebook depuis un autre pour executer des modules de code partages. C'est essentiel pour organiser du code reutilisable — fonctions utilitaires, configs partagees, helpers de transformation.
# Appeler un notebook de fonctions utilitaires
%run /utils/common_functions
# Les fonctions definies dans common_functions sont disponibles
df_clean = clean_dataframe(df_raw)
df_typed = apply_schema(df_clean, schema_config)
Full Size Mode — edition plein ecran
Le mode plein ecran par cellule permet de travailler sur du code complexe sans distraction. L'interface UI environnante disparait et vous pouvez naviguer entre les cellules adjacentes sans quitter le mode.
CMK pour les Notebooks — securite entreprise
Les notebooks fonctionnent desormais dans les workspaces avec Customer Managed Keys (CMK). Le contenu, les metadonnees et les pieces jointes sont chiffres avec les cles Azure Key Vault de votre organisation. Un prerequis pour de nombreuses entreprises reglementees.
07. Data Factory : Incremental Copy CDF et CSV parallele
Incremental Copy avec Change Data Feed
La copie incrementale depuis un Lakehouse supporte maintenant deux approches :
- Change Data Feed (CDF) — capture les changements Delta (insert, update, delete) de facon native
- Watermark — copie incrementale basee sur une colonne de timestamp
Le CDF est la methode ideale pour les tables Delta avec des operations de type SCD. Vous capturez les vrais changements au lieu de recharger toute la table ou de vous baser sur un simple timestamp.
CDF : tables Delta avec MERGE/UPDATE/DELETE frequents, besoin de capturer les suppressions. Watermark : tables append-only avec colonne de date fiable, sources non-Delta.
Lecture parallele pour les gros CSV
Data Factory peut maintenant lire les fichiers CSV volumineux en parallele. Quand la configuration multiline le permet, le fichier est partitionne et traite par plusieurs threads simultanement. Resultat : un gain de debit significatif sur les fichiers de plusieurs Go.
Autres ameliorations Data Factory notables :
- Column mapping en CDC — transformation du schema pendant la replication
- Rowversion pour SQL Server — detection incrementale via le type Rowversion
- Service Principal et Workspace Identity — authentification etendue pour les Copy Jobs
- SAP Datasphere vers S3 et GCS — replication CDC multi-cloud
08. Relative References — le CI/CD simplifie
Les Relative References dans les connecteurs Fabric pour Dataflow Gen2 permettent de referencer les items (tables, fichiers) par leur nom au lieu de leur ID unique.
Le probleme qu'elles resolvent
Avant, quand vous deployiez un Dataflow d'un workspace Dev vers un workspace Prod, les references aux tables Lakehouse pointaient vers des IDs specifiques au workspace source. Il fallait modifier les scripts manuellement ou utiliser des parametres.
Avec les Relative References et le contexte Current Workspace, vos dataflows s'adaptent automatiquement au workspace ou ils s'executent. Zero modification de code entre les environnements.
Relative References + JIT Publishing + Deployment Pipelines = un workflow CI/CD Dataflow Gen2 completement automatise et sans friction. C'est exactement ce qu'il manquait a Fabric pour concurrencer les solutions de CI/CD matures.
Σ Recapitulatif complet
Voici un resume des features les plus impactantes pour les Data Engineers :
| Feature | Workload | Statut | Impact |
|---|---|---|---|
| Adaptive Performance Tuning | Data Factory | PREVIEW | Tuning auto des pipelines de copie |
| Modern Query Engine GA | Data Factory | GA | 80+ connecteurs, .NET 8, performances |
| Just-in-Time Publishing | Data Factory | GA | Publication auto au refresh |
| Relative References | Data Factory | GA | CI/CD simplifie par nom |
| ODBC Driver Fabric DE | Data Engineering | PREVIEW | Spark SQL depuis apps externes |
| Python %run | Data Engineering | GA | Notebooks modulaires |
| CMK Notebooks | Data Engineering | GA | Chiffrement cles client |
| Incremental Copy CDF | Data Factory | GA | Change Data Feed natif |
| Parallel CSV Read | Data Factory | GA | Debit CSV x2-5 |
| CI/CD GraphQL API | Data Engineering | GA | Git + pipelines pour APIs |
Cette mise a jour de fevrier 2026 est l'une des plus riches depuis le lancement de Fabric. L'accent mis sur le CI/CD (Relative References, JIT Publishing, GraphQL CI/CD) et la performance (Adaptive Tuning, Modern Engine, Parallel CSV) montre que Microsoft ecoute les retours des Data Engineers.
Mon conseil : profitez de la semaine pour tester Adaptive Performance Tuning sur un pipeline existant et mesurez la difference. Et si vous n'avez pas encore adopte les Relative References pour vos Dataflows, c'est le moment.
Rendez-vous la semaine prochaine pour un nouveau sujet Fabric. En attendant, FabCon + SQLCon 2026 arrive du 16 au 20 mars a Atlanta — attendez-vous a un deluge d'annonces !
Des questions ? Retrouvez-moi sur LinkedIn.