Alles über Microsoft Fabric
Was ist Microsoft Fabric?
Microsoft Fabric ist ein cloudbasiertes SaaS-Angebot, das verschiedene Tools für das End-to-End-Datenmanagement wie Azure Data Factory, Azure Synapse Analytics und Power BI mit Echtzeit- und Co-Pilot-Funktionen in einem einheitlichen Plattform- und Kapazitätslizenzmodell vereint.
Abgedeckt werden die Bereiche Datenintegration, Data Engineering, Business Intelligence, Data Science und Real-Time Analytics.
Die Grundlage, auf der alle Microsoft Fabric-Dienste basieren, ist der Data Lake. In Microsoft Fabric wird er als OneLake bezeichnet. Er ist in den Fabric-Dienst integriert und ist die zentrale Quelle für die Datenverwaltung. Sämtliche Daten werden dort im offenen Parquet/Delta-Format abgespeichert, sodass sie auch außerhalb von Fabric mit anderen Tools genutzt werden können.
Das Hauptziel von Microsoft Fabric besteht darin, sowohl Geschäfts- als auch Datenexperten zu befähigen, das bisher ungenutzte Potenzial ihrer Datensätze in der Ära der künstlichen Intelligenz zu erschließen.
Die Zukunft der Datenanalyse
Marcus erklärt die vielseitigen Funktionen und Vorteile
In diesem Video erläutert Marcus die umfangreichen Funktionen von Microsoft Fabric, der erweiterten Datenanalyseplattform, die weit über den Vorgänger Power BI hinausgeht. Erfahren Sie, wie Microsoft Fabric nahtlose Datenintegration, tiefgehende Data Science und maschinelles Lernen sowie Echtzeitanalysen ermöglicht.
Sehen Sie sich das Video an und entdecken Sie, wie Microsoft Fabric Ihre Datenanalyse revolutionieren kann!
OneLake und serverlose Endpunkte
Wie hat sich Microsoft Fabric entwickelt?
Überblick über Microsoft SQL Server
Der 1989 eingeführte Microsoft SQL Server war eines der ersten relationalen Datenbankmanagementsysteme (RDBMS), das SQL nutzte. Es arbeitet mit einem Client-Server-Modell, bei dem der Server die Datenbank hostet und die Clients sich mit dem Server verbinden, um auf die Daten zuzugreifen und mit ihnen zu interagieren.
Die Architektur von SQL Server ist robust und vielschichtig. Sie umfasst mehrere Komponenten wie die Datenbank-Engine, die Daten speichert, verarbeitet und sichert; SQL Server Integration Services (SSIS), eine Plattform für den Aufbau von Datenintegrations- und Datenumwandlungslösungen auf Unternehmensebene; SQL Server Analysis Services (SSAS), die analytische Daten für Business Intelligence-Anwendungen bereitstellen; und SQL Server Reporting Services (SSRS), eine Berichtsplattform für die Erstellung von Berichten aus SQL Server-Datenbanken.
Entwicklungen und Innovationen
Im Laufe der Zeit hat sich der SQL Server kontinuierlich weiterentwickelt. So wurde beispielsweise mit SQL Server 2005 die Integration des .NET Frameworks eingeführt, wodurch gespeicherte Prozeduren und Funktionen in jeder .NET-Sprache geschrieben werden können. Mit SQL Server 2016 wurde Always Encrypted eingeführt, eine Funktion zum Schutz sensibler Daten wie Kreditkartennummern die in Azure SQL Database oder SQL Server-Datenbanken gespeichert sind.
Mit dem exponentiellen Wachstum des Datenvolumens und der Datenvielfalt wurden die Grenzen von On-Premises-Lösungen in Bezug auf Skalierbarkeit, Kosten und Sicherheit immer deutlicher. Um diese Herausforderungen zu bewältigen, führte Microsoft zwischen 2009 und 2015 das Azure SQL Data Warehouse ein und markierte damit einen bedeutenden Wechsel von On-Premises- zu Cloud-basiertem Data Warehousing.
Azure SQL Data Warehouse nutzt die Leistung von Massively Parallel Processing (MPP), um komplexe Abfragen über Petabytes von Daten schnell auszuführen. Bei MPP verwendet ein Computersystem viele Prozessoren (oder Computer), um gleichzeitig Berechnungen durchzuführen. In Azure SQL Data Warehouse werden die Daten in Abschnitte (Distributionen) aufgeteilt und auf verschiedenen Rechenknoten gespeichert. Dadurch kann das System große Datenmengen schnell verarbeiten, da die Arbeit auf mehrere Knoten verteilt und parallel ausgeführt wird.
Die Cloud-Ära und Microsoft Fabric
Ein wesentliches Merkmal von Azure SQL Data Warehouse war die Trennung von Rechen- und Speicherressourcen. Dies ermöglichte eine unabhängige Skalierung je nach Arbeitslastanforderungen und damit eine kostengünstige und skalierbare Lösung.
Der Übergang zu Azure SQL Data Warehouse bedeutete eine erhebliche Veränderung der Data Warehousing-Funktionen. Die Plattform basiert auf einem Platform-as-a-Service (PaaS)-Modell, wodurch sich die traditionellen lokalen Komponenten erheblich veränderten:
Azure AD
Der Active Directory Server wurde in Azure AD umgewandelt und bietet nun einen cloudbasierten Identitätsverwaltungsdienst.
Datenbanken und SQL-Server
Die Datenquellen wurden erweitert und umfassen nun nicht nur lokale Datenbanken, sondern auch SQL-Server auf virtuellen Maschinen und andere Datenbanken.
Azure Data Factory
Die SQL Server Integration Services entwickelten sich zu Azure Data Factory, einem Cloud-basierten Datenintegrationsdienst, der die Bewegung und Umwandlung von Daten orchestriert und automatisiert.
Data Warehouse
Der traditionelle Data Warehouse Server wurde durch Azure SQL Data Warehouse ersetzt, eine vollständig verwaltete, leistungsstarke und sichere Analyseplattform.
Azure Analysis Services
SQL Server Analysis Services wurde in Azure Analysis Services umgewandelt und bietet erweiterte Analysen und Datenmodellierung in der Cloud.
Power BI
SQL Server Reporting Services wurde in Power BI umgewandelt, eine Suite von Business-Analyse-Tools zur Visualisierung von Daten und zur gemeinsamen Nutzung von Erkenntnissen.
Diese Verlagerung in die Cloud hat die Skalierbarkeit, Sicherheit und Kosteneffizienz von Data Warehousing erheblich verbessert und den Weg für die nächste Evolution in Microsofts Datenreise geebnet.
Mit Azure Synapse Analytics entstand 2019 ein einheitlicher und integrierter Service, der die Lücke zwischen Big Data und Data Warehousing überbrückt. Azure Synapse Analytics lässt sich mit verschiedenen Datenquellen integrieren, darunter relationale und nicht-relationale Datenbanken, und bietet Tools für die Datenaufbereitung wie Azure Data Factory für ETL-Prozesse, Azure Databricks für Big Data-Analysen und Azure Machine Learning für erweiterte Analysen.
Mit der wachsenden Verbreitung von Daten wuchsen auch die Anforderungen an Zusammenarbeit und Interaktivität. Um diesen Anforderungen gerecht zu werden, führte Microsoft im Jahr 2023 Microsoft Fabric ein. Diese einheitliche Analyseplattform vereint verschiedene Tools für das End-to-End-Datenmanagement wie Azure Data Factory, Azure Synapse Analytics und Power BI sowie Echtzeit- und Co-Pilot-Funktionen in einem einheitlichen Plattform- und Kapazitätslizenzmodell.
ONELAKE UND SERVERLOSE ENDPUNKTE
Was ist der wesentliche Unterschied zu existierenden Datenplattformen?
Der wesentliche Unterschied von Microsoft Fabric im Vergleich zu anderen Datenplattformen liegt in einer neuen Speicherarchitektur, die die Speicherung (Storage) und Berechnung (Compute) stärker entkoppelt als andere Plattformen. Eine große Veränderung ist die Einführung von OneLake, einem neuen vollständig verwalteten Speicher. Er basiert auf Azure Data Lake Storage Gen2 und macht die zugrunde liegende Infrastruktursicherheit quasi unsichtbar.
Das bedeutet, dass Nutzer nur die Berechtigungen für Fabric-Ressourcen verwalten müssen, ohne sich um die Speicherebene kümmern zu müssen. Ein weiterer wichtiger Unterschied ist die Aufteilung der Berechnungsressourcen in serverlose Endpunkte. Diese Endpunkte sind mit verschiedenen "Warehouse" oder "Lakehouse" verbunden und ermöglichen eine bessere Skalierung, die Isolierung von Workloads und die gemeinsame Nutzung von Ressourcen.
Microsoft Fabric im Detail
Was sind die Komponenten und Funktionen von Microsoft Fabric
Die Microsoft Fabric-Architektur besteht aus sieben Workloads, die auf OneLake als zentralem Speicher für die einfache Datenverwaltung laufen:
Unternehmenslösungen mit Microsoft Fabric
Anwendungsfälle für Unternehmen
Microsoft Fabric eignet sich für eine breite Palette von Use Cases in Bezug auf Datenintegration und -management.
Beispiele sind
- Hybride Datenintegration
- Datenpipelines und ETL-Prozesse
- Echtzeit-Analytik
- Data Lakes und Data Warehousing
- IoT-Datenmanagement
Microsoft Fabric im Podcast
Ein Gespräch mit unserem Senior Solution Architect
Vertiefen Sie Ihr Wissen
Weitere Einblicke in Microsoft Fabric
Auf unserer Webseite bieten wir Ihnen umfassende Möglichkeiten, Ihr Wissen über Microsoft Fabric zu vertiefen.
Wenn Sie bereits über grundlegende Kenntnisse verfügen und sich weiter in das Thema einarbeiten möchten, finden Sie bei uns die passenden Inhalte:
Microsoft Fabric im Fokus
Häufig gestellte Fragen
Ist es möglich Microsoft Fabric kostenfrei zu nutzen?
Es gibt eine kostenfreie Testversion für 60 Tage. Danach wird es kostenpflichtig.
Wie unterscheidet sich Microsoft Fabric von Power BI in Funktion und Anwendung?
Power BI ist ein Teil der Microsoft Fabric und umfasst sowohl die Ebene der Datenhaltung als auch die Ebene der Datenintegration.
Gibt es spezielle Schulungen für die effiziente Nutzung von Microsoft Fabric?
Ja gibt es. Unter anderem können die Trainer unserer akquinet academy bereits für eine Schulung für MS Fabric zur Verfügung stehen. Sprechen Sie uns einfach direkt an oder schauen Sie direkt bei unserem Workshop zu Microsoft Fabric vorbei.
Welcher Data Lake Anbieter bietet die besten Funktionen und Leistungen für meine Bedürfnisse?
OneLake bietet nicht nur einen Data Lake, sondern auch ein Lake House und ein DWH. Beliebig viele Data Lakes, Lake Houses und DWHs können miteinander verbunden werden.
Data Lake House vs. Data Warehouse: Was sind die grundlegenden Unterschiede zwischen einem Data Lake House und einem Data Warehouse?
In einem Data Warehouse werden die Daten in strukturierten Tabellen gehalten, in einem Data Lake House ebenfalls, aber zusätzlich können auch Dateien enthalten sein.
Eignet sich ein Data Lake für fortgeschrittene Datenanalysen?
Für fortgeschrittene Analysen, wie z.B. Machine Learning, werden unstrukturierte Daten benötigt. Und genau das bietet der Data Lake. Er ist der perfekte Datenspeicher für unstrukturierte Daten.
Ist Microsoft Fabric eine Data Fabric?
Nein, hier besteht eine große Verwechslungsgefahr. Data Fabric verwaltet sich selbst durch künstliche Intelligenz. In Microsoft Fabric ist das bis zu einem gewissen Grad auch möglich, aber die Möglichkeiten reichen nicht aus und es ist auch nicht die Intention.
Ansprechpartner
Mehr als gut beraten
Wir unterstützen Sie dabei den Einsatz von MS Fabric zu verifizieren, konzeptionell abzusichern und übernehmen die Umsetzung, wenn Sie sich dafür entscheiden.