top of page

Aufbau einer Echtzeit-IoT-Simulation mit Microsoft Fabric

  • Michelle Schulz
  • vor 24 Stunden
  • 6 Min. Lesezeit

Echtzeit-Datenverarbeitung wird zunehmend zu einem zentralen Bestandteil moderner Datenplattformen. Anstatt Daten zunächst zu sammeln und später zu analysieren, müssen Unternehmen immer häufiger unmittelbar reagieren, sobald Ereignisse auftreten.

Milka Kutseva

Senior Data Engineer


Dieser Wandel wird durch die steigende Nachfrage nach schnelleren Erkenntnissen und reaktionsfähigeren Systemen getrieben. In vielen Szenarien können bereits kurze Verzögerungen den Wert von Daten reduzieren oder kritische Entscheidungsprozesse beeinträchtigen. Echtzeitverarbeitung ist insbesondere in Bereichen wie IoT-Monitoring, Systemüberwachung und Anomalieerkennung relevant, in denen kontinuierlich Daten erzeugt werden und ohne Verzögerung interpretiert werden müssen.

Dieser Blogbeitrag erläutert die Grundlagen von Echtzeit-Datenströmen und demonstriert diese anhand einer einfachen IoT-Simulation in Microsoft Fabric.


Von Batch zu Echtzeit-Denken

Viele traditionelle Systeme basieren auf Batch-Verarbeitung, bei der Daten in bestimmten Intervallen gesammelt und verarbeitet werden – beispielsweise stündlich oder einmal täglich.

Dieser Ansatz eignet sich gut für historische Analysen, führt jedoch zu Verzögerungen zwischen Datenerzeugung und Erkenntnisgewinn. In dynamischen Umgebungen kann genau diese Verzögerung zum Problem werden.

Echtzeitsysteme verfolgen einen anderen Ansatz:

  • Daten werden kontinuierlich erzeugt

  • Ereignisse werden sofort verarbeitet, sobald sie eintreffen

  • Erkenntnisse stehen nahezu in Echtzeit zur Verfügung

Dadurch können Unternehmen von einem reaktiven zu einem proaktiven Verhalten übergehen. Anstatt zu analysieren, was bereits passiert ist, können sie reagieren, während Ereignisse noch stattfinden.

Gleichzeitig erfordern Echtzeitsysteme ein Umdenken, da Daten nicht mehr statisch sind – sie verändern sich kontinuierlich.



Echtzeit Architektur in Microsoft Fabric


Real-Time Intelligence architecture in Microsoft Fabric
Real-Time Intelligence architecture in Microsoft Fabric

Architekturverständnis

Die oben dargestellte Architektur zeigt, wie Echtzeitdaten durch Microsoft Fabric fließen und wie die einzelnen Komponenten zusammenwirken, um eine vollständige Streaming-Lösung zu ermöglichen.

Der Prozess lässt sich in drei Hauptphasen unterteilen:

1) Ingest & Process

Daten werden aus verschiedenen Quellen wie APIs, Datenbanken oder Streaming-Systemen erfasst. Eventstream übernimmt die Aufgabe, diese Daten zu empfangen und als kontinuierlichen Datenstrom zu verarbeiten.

In dieser Phase stehen Zuverlässigkeit und Geschwindigkeit im Fokus, um sicherzustellen, dass Ereignisse ohne Verzögerung und ohne Datenverlust aufgenommen werden.

2) Analyze & Transform

Nach der Aufnahme können die Daten im Eventhouse gespeichert und analysiert werden, das für die schnelle Verarbeitung von Streaming-Daten optimiert ist.

Hier wird aus Rohdaten ein nutzbarer Datenbestand: Daten können gefiltert, strukturiert oder angereichert werden – je nach Anforderung der Lösung.

3) Visualize & Act

Die verarbeiteten Daten werden anschließend genutzt für:

  • Dashboards mit Live-Daten

  • Reports für tiefergehende Analysen

  • Automatisierte Aktionen, die durch bestimmte Bedingungen ausgelöst werden

Dadurch wird nicht nur Beobachtung, sondern auch Automatisierung ermöglicht – ein zentraler Vorteil von Echtzeitsystemen.

Die Grundlage dieser Architektur bildet OneLake, das eine einheitliche Speicherschicht bereitstellt und das nahtlose Zusammenspiel aller Komponenten ermöglicht.


Funktionsweise von Echtzeit-Datenpipelines

Eine Echtzeit-Datenpipeline folgt einem einfachen, aber leistungsstarken Prinzip: Daten fließen kontinuierlich durch das System, anstatt in großen Batches verarbeitet zu werden.

Die zentralen Schritte sind:


  1. Daten werden erzeugt (z. B. durch Geräte oder Anwendungen)

  2. Sie werden über eine Ingestion-Schicht in die Plattform eingespeist

  3. Sie werden beim Eintreffen verarbeitet oder transformiert

  4. Sie werden für Analysen oder weitere Nutzung gespeichert

  5. Sie werden visualisiert oder lösen Aktionen aus


Jedes Ereignis ist Teil eines fortlaufenden Datenstroms, und das System aktualisiert seinen Zustand kontinuierlich auf Basis neuer Informationen.

Dieser Ansatz ermöglicht nahezu Echtzeit-Einblicke, erfordert jedoch eine sorgfältige Architektur, um Stabilität und Performance sicherzustellen.


Möglichkeiten zur Datenaufnahme in Fabric

Microsoft Fabric bietet verschiedene Möglichkeiten zur Aufnahme von Streaming-Daten, abhängig von der Komplexität des Szenarios:


API / Custom Endpoint

Eine einfache und flexible Option, häufig für Tests und Simulationen genutzt. Daten können direkt aus Skripten oder Anwendungen gesendet werden.


Event Hubs oder Kafka

Fortgeschrittene Optionen für produktive Umgebungen, in denen große Datenmengen zuverlässig und skalierbar verarbeitet werden müssen.


Power Automate

Eine Low-Code-Alternative, mit der sich ereignisgesteuerte Prozesse ohne Programmierung erstellen lassen – besonders geeignet für Fachanwender.


Use Case: IoT Monitoring

Zur Veranschaulichung wurde ein einfaches IoT-Szenario umgesetzt.

Dabei werden Sensoren in verschiedenen Räumen simuliert, die folgende Werte senden:


  • Temperatur

  • Luftfeuchtigkeit

  • CO₂-Werte

  • Zeitstempel


Ziel ist es, diese Werte kontinuierlich zu überwachen, ungewöhnliche Situationen zu erkennen und bei Bedarf zu reagieren.

Solche Szenarien sind typisch für reale Anwendungen wie Smart Buildings, industrielle Überwachung oder Umweltmonitoring.


Datensimulation mit Python

Anstatt reale Geräte anzubinden, wurden die Daten über ein Python-Skript generiert.

Das Skript erzeugt zufällige Werte und sendet diese in regelmäßigen Abständen, wodurch ein Live-Datenstrom simuliert wird.

Dieser Ansatz ist besonders für Demonstrationen geeignet, da er volle Kontrolle über die Daten ermöglicht und das Testen unterschiedlicher Szenarien – inklusive Anomalien – erleichtert.


Simulated IoT data generated with Python 
Simulated IoT data generated with Python 

Eventstream: Echtzeit-Datenaufnahme

Eventstream ist verantwortlich für den Empfang der eingehenden Daten und deren Weiterleitung an die entsprechenden Zielsysteme.

Es fungiert als zentrale Komponente, die Datenquellen mit Speicher- und Analyseebenen verbindet.


Zusätzlich ermöglicht Eventstream grundlegende Verarbeitungsschritte wie:

  • Filtern von Ereignissen

  • Anpassen von Feldern

  • Vorbereitung der Daten vor der Speicherung


In diesem Beispiel waren die Daten bereits strukturiert, sodass nur minimale Transformationen erforderlich waren. In realen Szenarien ist dieser Schritt jedoch oft entscheidend, um Datenkonsistenz sicherzustellen.


Eventstream pipeline setup
Eventstream pipeline setup

Eventhouse und Speicheroptionen

Die eingehenden Daten werden im Eventhouse gespeichert, das für Echtzeitanalysen und schnelle Abfragen von Streaming-Daten optimiert ist. Es ermöglicht einen effizienten Zugriff auf kontinuierlich ingestierte Ereignisse und unterstützt interaktive Analysen mit minimaler Latenz.

Im Kern von Eventhouse steht die KQL-Datenbank. KQL steht für Kusto Query Language, eine Abfragesprache, die ursprünglich für die Azure Data Explorer (Kusto) Engine entwickelt wurde, welche speziell für großskalige Log- und Telemetrieanalysen konzipiert ist.

Im Gegensatz zu klassischen relationalen Datenbanken ist die KQL-Datenbank für High-Ingestion- und Append-only-Workloads ausgelegt. Neue Ereignisse werden kontinuierlich in das System geschrieben, während bestehende Datensätze nur selten aktualisiert werden. Dieses Design macht sie besonders effizient für Szenarien wie IoT-Daten, Monitoring und Event-Tracking.

Die Daten werden in Tabellen mit einem vordefinierten Schema gespeichert, wobei jedes eingehende Ereignis als neue Zeile erfasst wird. Da die Ingestion schema-basiert erfolgt, müssen Spaltennamen und Datentypen mit der Definition der Zieltabelle übereinstimmen, um eine korrekte Verarbeitung sicherzustellen.

Die KQL-Engine ist für spaltenbasierte Speicherung und Abfrageausführung optimiert, wodurch große Datenmengen sehr schnell gescannt und aggregiert werden können. Anstatt sich auf transaktionale Operationen zu konzentrieren, ist sie für analytische Workloads ausgelegt, bei denen es darum geht, Daten zu explorieren und zusammenzufassen, anstatt sie zu verändern.

Ein weiteres zentrales Merkmal ist die starke Unterstützung für zeitbasierte Daten. Da die meisten Streaming-Daten Zeitstempel enthalten, ist die Engine darauf optimiert, Daten über Zeitintervalle zu filtern, zu gruppieren und zu analysieren. Dadurch eignet sie sich besonders gut zur Erkennung von Trends, zur Identifikation von Anomalien und zum Abrufen des aktuellen Systemzustands.

Zusätzlich bietet KQL integrierte Funktionen für Aggregationen, Windowing und Echtzeit-Filterung, die schnelle und ausdrucksstarke Analysen ohne komplexe Abfragelogik ermöglichen. Dadurch ist sie besonders gut geeignet für Monitoring-Dashboards und Near-Real-Time-Analytics-Szenarien.


Weitere Speicheroptionen in Fabric

Eventhouse ist nur ein Bestandteil der Plattform. Je nach Anwendungsfall können auch andere Speicheroptionen genutzt werden:


Eventhouse (KQL-Datenbank)

Am besten geeignet für Echtzeitszenarien und schnelle Abfragen von Streaming-Daten. Optimiert für Zeitreihenanalysen, Monitoring und Anomalieerkennung. Liefert Near-Real-Time-Insights und unterstützt ereignisgetriebene Architekturen.


Lakehouse

Wird für die Speicherung großer Mengen historischer Daten verwendet, typischerweise in Formaten wie Delta oder Parquet. Besonders geeignet für Data Engineering, Batch-Verarbeitung und Advanced Analytics.


Warehouse

Konzipiert für strukturierte Daten und klassische Reporting-Anwendungsfälle. Unterstützt SQL-basierte Abfragen und wird häufig in Business-Intelligence-Szenarien eingesetzt.



Eventhouse showing real-time ingestion and KQL database activity 
Eventhouse showing real-time ingestion and KQL database activity 

Echtzeit-Alerts mit Activator

Ein wesentlicher Vorteil von Echtzeitsystemen ist die Möglichkeit, automatisch auf Ereignisse zu reagieren.

Mit Activator können Regeln definiert werden, z. B.:Wenn die Temperatur einen bestimmten Schwellenwert überschreitet, wird ein Alert ausgelöst.

Benachrichtigungen können z. B. per E-Mail versendet werden, sodass Nutzer nicht permanent Dashboards überwachen müssen.

Damit wird aus passivem Monitoring ein aktives, automatisiertes System.



Real-time alert configuration 
Real-time alert configuration 

Visualisierung

Streaming-Daten können je nach Ziel unterschiedlich visualisiert werden:

  • Echtzeit-Dashboards für aktuelle Werte

  • Reporting-Tools wie Power BI für tiefere Analysen

Visualisierung ist entscheidend, da sie Rohdaten in verständliche Informationen übersetzt.


Real-time dashboard 
Real-time dashboard 

Kosten

Die Nutzung von Eventstreams erfordert eine kostenpflichtige Microsoft-Fabric-Kapazität.

Das geeignete Kapazitätsniveau hängt von mehreren Faktoren ab, darunter das Volumen der eingehenden Daten, wie häufig Ereignisse verarbeitet werden und wie lange die Streaming-Pipelines ausgeführt werden.

Für kleinere Workloads können niedrigere Kapazitätsstufen ausreichend sein, während komplexere oder datenintensive Szenarien höhere Kapazitäten erfordern.

Weitere Informationen zu den Preisen finden Sie hier.

Es ist außerdem wichtig zu überwachen, wie Ressourcen genutzt werden – insbesondere in Echtzeitszenarien, in denen die Verarbeitung kontinuierlich erfolgt. Hinweise zur Überwachung der Kapazitätsauslastung finden Sie hier.

Zur Kostenoptimierung können Eventstreams pausiert oder deaktiviert werden, wenn sie nicht benötigt werden. Dadurch wird unnötige Last reduziert und die Effizienz der Umgebung erhöht.


Fazit

Echtzeit-Datenverarbeitung ermöglicht es Unternehmen, über klassische Batch-Systeme hinauszugehen und unmittelbar auf Ereignisse zu reagieren, sobald diese auftreten.

Mit Microsoft Fabric lässt sich eine vollständige Echtzeit-Datenpipeline mit vergleichsweise geringem Setup aufbauen, indem Ingestion, Verarbeitung, Speicherung und Visualisierung in einer Plattform kombiniert werden.

Selbst anhand einer einfachen Simulation wird deutlich, wie Daten kontinuierlich fließen, nahezu in Echtzeit analysiert werden können und Systeme automatisch reagieren, sobald definierte Bedingungen erfüllt sind.

 
 
 

Kommentare


bottom of page