Accueil A propos Tech Stack Projets Blog Tracker
Retour au Blog

Fabric February 2026 Update :
Les Features qui Changent la Donne

32 nouveautes ce mois-ci. Adaptive Performance Tuning, Dataflow Gen2 Modern Engine en GA, ODBC Driver, Just-in-Time Publishing... Voici les features qui comptent vraiment pour les Data Engineers.

Sommaire
  1. Vue d'ensemble : 32 features en un mois
  2. Adaptive Performance Tuning — le tuning automatique
  3. Dataflow Gen2 Modern Engine passe en GA
  4. Just-in-Time Publishing — fini le bouton Publish
  5. ODBC Driver pour Fabric Data Engineering
  6. Notebooks : %run, Full Size Mode et CMK
  7. Data Factory : Incremental Copy CDF et CSV parallele
  8. Relative References — le CI/CD simplifie
  9. Recapitulatif complet

Chaque mois, Microsoft pousse des mises a jour sur Fabric. Certaines sont cosmetiques, d'autres changent fondamentalement notre facon de travailler. La mise a jour de fevrier 2026 fait clairement partie de la deuxieme categorie.

Avec 32 nouveautes reparties sur tous les workloads — Data Engineering, Data Factory, Data Warehouse, Real-Time Intelligence — cette release apporte des avancees majeures en termes de performance, productivite et CI/CD. Voici mon analyse des features qui comptent le plus pour nous, Data Engineers.

01. Vue d'ensemble : 32 features en un mois

Avant de plonger dans le detail, voici la repartition des nouveautes par workload :

Workload Nb features Highlights
Data Factory 12 Adaptive Perf Tuning, Modern Engine GA, JIT Publishing
Data Engineering 8 ODBC Driver, %run, CMK Notebooks, GraphQL CI/CD
Fabric Platform 4 OneLake Catalog Apps, Identity Limits x10
Real-Time Intelligence 3 Dashboards 10x plus rapides, Private Network Eventstream
Data Warehouse 2 SQL Pool Insights, Export Migration Summary
Data Science 2 Semantic Link 0.13.0, Monitoring Scoring Endpoints
Developer Tools 1 VS Code Extension + Fabric MCP Server

Data Factory domine ce mois-ci avec 12 features. C'est logique : Microsoft investit massivement dans l'experience d'integration de donnees. Voyons les features les plus impactantes.

02. Adaptive Performance Tuning — le tuning automatique

C'est LA feature star de cette release. Adaptive Performance Tuning est un mecanisme intelligent qui optimise automatiquement les performances de deplacement de donnees en fonction du contexte d'execution.

Preview — Game Changer

Fini le tuning manuel des DIU (Data Integration Units), du parallelisme et des tailles de batch. Fabric s'adapte seul en analysant la configuration de la source, de la destination et le contexte runtime.

Pourquoi c'est un game changer ?

Jusqu'a present, optimiser les performances d'un pipeline de copie dans Data Factory necessitait de l'expertise : ajuster les DIU, configurer le parallelisme, tester differentes tailles de batch... Un processus iteratif et chronophage.

Avec Adaptive Performance Tuning, le service :

  • Analyse la source et la destination de vos donnees
  • Evalue le contexte runtime (volume, reseau, capacite disponible)
  • Ajuste automatiquement les parametres de copie en temps reel
  • Ne necessite aucune intervention manuelle

En clair : vous creez votre pipeline, et Fabric se charge d'optimiser les performances. C'est exactement le type d'intelligence qu'on attend d'une plateforme cloud moderne.

Mon conseil

La feature est en Preview. Testez-la sur vos pipelines de copie existants et comparez les temps d'execution. Si les resultats sont probants, activez-la progressivement sur vos workloads de production.

03. Dataflow Gen2 Modern Engine passe en GA

Le Modern Query Evaluation Engine de Dataflow Gen2 est desormais en disponibilite generale (GA). Ce nouveau moteur, construit sur .NET 8, remplace l'ancien moteur et supporte desormais plus de 80 connecteurs.

Ce que ca change concretement

  • Performances accrues — le moteur .NET 8 est significativement plus rapide que l'ancien
  • 80+ connecteurs — incluant Azure Data Explorer, Salesforce, Google Analytics et bien d'autres
  • Meilleure efficacite memoire — moins de timeouts sur les gros volumes
  • Pareil pour la fiabilite — moins d'erreurs intermittentes en production
Pourquoi c'est important

Si vous utilisez Dataflow Gen2 en production, vos dataflows beneficient automatiquement du nouveau moteur. Aucune action requise — mais attendez-vous a des gains de performance mesurables.

04. Just-in-Time Publishing — fini le bouton Publish

Vous connaissez ce moment frustrant ou votre Dataflow Gen2 echoue au refresh parce que vous avez oublie de cliquer sur Publish ? C'est termine.

Le Just-in-Time Publishing detecte automatiquement les changements non publies lors d'un Run ou d'un Refresh, et lance la publication avant d'executer le dataflow. Plus besoin de penser au bouton Publish.

Impact sur le CI/CD

Cette feature est particulierement precieuse dans les workflows CI/CD. Quand un Dataflow est deploye via un pipeline de deploiement, il n'y a plus de risque d'oublier l'etape de publication manuelle. Le dataflow est toujours a jour au moment de l'execution.

En pratique

Combinez JIT Publishing avec les Relative References (section 8) pour un CI/CD Dataflow Gen2 completement fluide et sans friction.

05. ODBC Driver pour Fabric Data Engineering

Microsoft lance un driver ODBC dedie pour Fabric Data Engineering (en Preview). Ce driver fournit une connectivite Spark SQL de niveau entreprise pour les applications .NET, Python et tout outil compatible ODBC.

Pourquoi c'est strategique

Jusqu'a present, pour interroger des tables Lakehouse depuis une application externe, il fallait passer par le SQL Analytics Endpoint (T-SQL). Desormais, avec ce driver ODBC, vous pouvez vous connecter directement au moteur Spark via les Livy APIs.

Cas d'usage concrets :

  • Applications .NET ou Python qui interrogent directement les tables Delta du Lakehouse
  • Outils BI tiers (Tableau, Qlik, etc.) connectes au moteur Spark
  • Scripts d'automatisation qui executent du Spark SQL a distance
  • Data Quality checks depuis des pipelines externes
PYTHON odbc_fabric_connection.py
# Exemple de connexion via le driver ODBC Fabric
import pyodbc

# Connection string (Preview)
conn_str = (
    "Driver={Microsoft ODBC Driver for Fabric};"
    "Server=<your-workspace>.datawarehouse.fabric.microsoft.com;"
    "Database=<your-lakehouse>;"
    "Authentication=ActiveDirectoryInteractive;"
)

conn = pyodbc.connect(conn_str)
cursor = conn.cursor()

# Spark SQL directement sur vos tables Delta
cursor.execute("SELECT * FROM silver.dim_customers LIMIT 10")
rows = cursor.fetchall()

for row in rows:
    print(row)
Preview

Le driver est en Preview. Ne l'utilisez pas encore en production critique. Mais c'est le bon moment pour le tester sur vos environnements de dev et remonter vos retours a Microsoft.

06. Notebooks : %run, Full Size Mode et CMK

Trois ameliorations majeures pour les notebooks Fabric ce mois-ci :

Python %run — la modularite enfin possible

Les notebooks Python supportent desormais la commande %run. Vous pouvez appeler un notebook depuis un autre pour executer des modules de code partages. C'est essentiel pour organiser du code reutilisable — fonctions utilitaires, configs partagees, helpers de transformation.

PYTHON main_notebook.py
# Appeler un notebook de fonctions utilitaires
%run /utils/common_functions

# Les fonctions definies dans common_functions sont disponibles
df_clean = clean_dataframe(df_raw)
df_typed = apply_schema(df_clean, schema_config)

Full Size Mode — edition plein ecran

Le mode plein ecran par cellule permet de travailler sur du code complexe sans distraction. L'interface UI environnante disparait et vous pouvez naviguer entre les cellules adjacentes sans quitter le mode.

CMK pour les Notebooks — securite entreprise

Les notebooks fonctionnent desormais dans les workspaces avec Customer Managed Keys (CMK). Le contenu, les metadonnees et les pieces jointes sont chiffres avec les cles Azure Key Vault de votre organisation. Un prerequis pour de nombreuses entreprises reglementees.

07. Data Factory : Incremental Copy CDF et CSV parallele

Incremental Copy avec Change Data Feed

La copie incrementale depuis un Lakehouse supporte maintenant deux approches :

  • Change Data Feed (CDF) — capture les changements Delta (insert, update, delete) de facon native
  • Watermark — copie incrementale basee sur une colonne de timestamp

Le CDF est la methode ideale pour les tables Delta avec des operations de type SCD. Vous capturez les vrais changements au lieu de recharger toute la table ou de vous baser sur un simple timestamp.

Quand utiliser CDF vs Watermark ?

CDF : tables Delta avec MERGE/UPDATE/DELETE frequents, besoin de capturer les suppressions. Watermark : tables append-only avec colonne de date fiable, sources non-Delta.

Lecture parallele pour les gros CSV

Data Factory peut maintenant lire les fichiers CSV volumineux en parallele. Quand la configuration multiline le permet, le fichier est partitionne et traite par plusieurs threads simultanement. Resultat : un gain de debit significatif sur les fichiers de plusieurs Go.

Autres ameliorations Data Factory notables :

  • Column mapping en CDC — transformation du schema pendant la replication
  • Rowversion pour SQL Server — detection incrementale via le type Rowversion
  • Service Principal et Workspace Identity — authentification etendue pour les Copy Jobs
  • SAP Datasphere vers S3 et GCS — replication CDC multi-cloud

08. Relative References — le CI/CD simplifie

Les Relative References dans les connecteurs Fabric pour Dataflow Gen2 permettent de referencer les items (tables, fichiers) par leur nom au lieu de leur ID unique.

Le probleme qu'elles resolvent

Avant, quand vous deployiez un Dataflow d'un workspace Dev vers un workspace Prod, les references aux tables Lakehouse pointaient vers des IDs specifiques au workspace source. Il fallait modifier les scripts manuellement ou utiliser des parametres.

Avec les Relative References et le contexte Current Workspace, vos dataflows s'adaptent automatiquement au workspace ou ils s'executent. Zero modification de code entre les environnements.

Impact CI/CD

Relative References + JIT Publishing + Deployment Pipelines = un workflow CI/CD Dataflow Gen2 completement automatise et sans friction. C'est exactement ce qu'il manquait a Fabric pour concurrencer les solutions de CI/CD matures.

Σ Recapitulatif complet

Voici un resume des features les plus impactantes pour les Data Engineers :

Feature Workload Statut Impact
Adaptive Performance Tuning Data Factory PREVIEW Tuning auto des pipelines de copie
Modern Query Engine GA Data Factory GA 80+ connecteurs, .NET 8, performances
Just-in-Time Publishing Data Factory GA Publication auto au refresh
Relative References Data Factory GA CI/CD simplifie par nom
ODBC Driver Fabric DE Data Engineering PREVIEW Spark SQL depuis apps externes
Python %run Data Engineering GA Notebooks modulaires
CMK Notebooks Data Engineering GA Chiffrement cles client
Incremental Copy CDF Data Factory GA Change Data Feed natif
Parallel CSV Read Data Factory GA Debit CSV x2-5
CI/CD GraphQL API Data Engineering GA Git + pipelines pour APIs

Cette mise a jour de fevrier 2026 est l'une des plus riches depuis le lancement de Fabric. L'accent mis sur le CI/CD (Relative References, JIT Publishing, GraphQL CI/CD) et la performance (Adaptive Tuning, Modern Engine, Parallel CSV) montre que Microsoft ecoute les retours des Data Engineers.

Mon conseil : profitez de la semaine pour tester Adaptive Performance Tuning sur un pipeline existant et mesurez la difference. Et si vous n'avez pas encore adopte les Relative References pour vos Dataflows, c'est le moment.

Rendez-vous la semaine prochaine pour un nouveau sujet Fabric. En attendant, FabCon + SQLCon 2026 arrive du 16 au 20 mars a Atlanta — attendez-vous a un deluge d'annonces !

Des questions ? Retrouvez-moi sur LinkedIn.

Sources & References