Tags
AI, almacen-de-datos, Analytics, Artificial Intelligence, Bill Inmon, blog, cloud, data mesh, Data Warehouse, data-lakehouse, espanol, francais, france, french, ia, Inmon, inteligencia-artificial, italiano, libri, llm, medallion-architecture, non-classe, senza-categoria, technology
Martyn Rhisiart Jones
Segovia 20th December 2025

L’entrepôt de données est mort. Vive l’entrepôt de données !
En 1992, Bill Inmon a inventé le terme « entrepôt de données » et a défini quatre règles d’or : orienté sujet, intégré, non volatil et temporel. C’était le modèle d’une forteresse de vérité, coûteuse, sur site, fonctionnant par lots et absolument indispensable. Trente ans plus tard, cette forteresse a laissé place à une plateforme cloud hyperscale. Cette plateforme peut exécuter simultanément vos modèles d’IA et le tableau de bord de votre PDG. Bienvenue dans l’entreposage de données de 2025.
La transformation a été radicale. Ce qui était autrefois des baies de serveurs bourdonnant dans un sous-sol est désormais une plateforme sans serveur et entièrement gérée. Elle fait évoluer la puissance de calcul et le stockage indépendamment. Ces plateformes ne vous facturent que ce que vous utilisez réellement. Elles vous permettent d’ingérer des pétaoctets de données en flux continu sans effort. Snowflake, Google BigQuery, Amazon Redshift, Microsoft Fabric : voici les nouveaux acteurs du marché. Ils redéfinissent les règles. Pendant ce temps, les anciennes versions sont discrètement préservées.
Le volume des données a explosé. La moitié des données est au format JSON ou Parquet semi-structuré. L’autre moitié est de plus en plus non structurée et nécessite impérativement des représentations vectorielles. Les dirigeants n’attendent plus le lendemain matin pour connaître les chiffres de la veille ; ils veulent des informations exploitables avant même que le café ne soit froid. Le cloud computing a transformé l’infrastructure à coût fixe en un service modulable, à la demande.
Il en résulte un entrepôt de données moderne. Son apparence diffère sensiblement de la vision initiale d’Inmon. Cependant, il respecte toujours ses principes fondamentaux.
Il reste orienté sujet. Les données sont organisées autour de domaines métiers tels que les clients, les ventes et les stocks. Cette organisation utilise des schémas en étoile, en flocon de neige ou des couches sémantiques. Ces couches sont construites avec des outils comme dbt et Looker.
Il reste intégré. Les pipelines ETL/ELT, les catalogues de données et les cadres de gouvernance garantissent que les sources disparates convergent vers une source unique de vérité. Snowflake Horizon et BigQuery Data Catalogue en sont des exemples.
Les données restent dépendantes du temps. Les tables horodatées et les dimensions à évolution lente de type 2 en sont des exemples. Des fonctionnalités comme TIME TRAVEL de Snowflake ou SYSTEM_TIME de BigQuery permettent de se demander : « Que savions-nous le 15 mars ?»
Et elles restent non volatiles, du moins en grande partie. Les transactions ACID permettent désormais des mises à jour et des suppressions contrôlées (coucou, RGPD !). Cependant, le noyau analytique reste en mode ajout uniquement ou avec suivi des modifications. L’historique est préservé avec la même rigueur qu’auparavant. Ce sont les adaptations qui font la différence. Le streaming en temps réel (connecteurs Kafka, Snowflake Streams, BigQuery Streaming) remplace les traitements par lots nocturnes. L’apprentissage automatique et la recherche vectorielle intégrés à la base de données alimentent les applications d’IA sans déplacer les données. Les couches sémantiques en libre-service permettent aux utilisateurs métier d’explorer les données sans avoir à solliciter le service informatique pour un nouveau rapport. Le stockage et le calcul sont découplés. On peut stocker des exaoctets à moindre coût. On peut exécuter des milliers de requêtes simultanées sans revoir le budget.
Alors, l’entrepôt de données moderne respecte-t-il toujours les principes d’Inmon ? Oui. Sans aucun doute. L’esprit perdure, même si le système a été entièrement repensé.
Le hic, c’est que cette évolution rend le choix de la plateforme plus crucial que jamais. Un mauvais choix vous rendra dépendant d’un seul fournisseur de cloud. Vous risquez alors de faire face à des coûts imprévisibles. Vous pourriez également vous retrouver avec un système incapable de gérer les charges de travail d’IA de demain. En choisissant la bonne plateforme, vous bénéficiez de performances de niveau entreprise. Elle offre une gouvernance à toute épreuve et une tarification prévisible. Elle reste accessible à tous, des ingénieurs de données à l’équipe marketing.
En 2025/2026, l’entrepôt de données n’est pas mort. Il renaît simplement sous une forme plus rapide, moins chère et bien plus puissante qu’Inmon n’aurait pu l’imaginer. Les anciennes règles restent valables. Les nouvelles sont simplement beaucoup plus intéressantes.
Merci de votre lecture.
The 100 most recent articles on goodstrat