Eine Event-Streaming-Plattform als zentrales Nervensystem
Durch neue Technologien und datenbasierte Geschäftsmodelle müssen Unternehmen unter Druck auf plötzliche Marktveränderungen reagieren, sowie ihre Geschwindigkeit und Wettbewerbsfähigkeit durch neue Produkte und Services steigern. Ob Connected Car, Industrie 4.0 oder Customer 360 – all diese Themen benötigen schnelle Kommunikation, effiziente Vernetzung und die Verarbeitung von enormen Datenmengen in Echtzeit.
Für die Schaffung agiler Prozesse und Dienstleistungen in Zeiten der digitalen Transformation bedarf es einer Event-Streaming-Architektur, die die zunehmende Vernetzung vorantreibt und alte wie neue Geschäfts- und IT Abläufe in einem zentralen Nervensystem verbindet.
Unsere ausführliche Fachpublikation zu Eventstreaming in der Automotive IT können Sie hier
kostenlos downloadenAltsysteminfrastrukturen sind nicht auf Daten in Echtzeit ausgelegt
Aktuell verwendete Systeme wickeln mit Applikationen, Datenbanken, Datawarehouses und Schnittstellen Transaktionen, Interaktionen und Auswertungen ab und stützen sich dabei auf eine Umgebung, die über mehrere Datacenter und Clouds verteilt ist.
Das Problem liegt jedoch darin, dass diese Systeme, wie ELT-Tools, Messaging-Systeme und ESB (Enterprise Service Bus), nicht dazu ausgelegt sind, Daten in Echtzeit zu verarbeiten. Damit die Datenverarbeitung aber reibungslos und in hoher Geschwindigkeit auf allen Ebenen verläuft, werden neue digitale Speicherplattformen benötigt.
Eventstreaming-Plattformen als Lösung
Typische Anwendungsgebiete der Plattform sind die Übermittlung von Fahrzeugdaten oder zur Abwicklung von Bestellungen und Auslieferungen neuer Fahrzeug-Features. ES-Plattformen können aber auch extern, z.B. für die Sammlung und Bereitstellung von Fahrzeugnutzungsprofilen für Versicherungspartner, dienen, sowie als Übermittlung von Fahrzeugdaten für Karten, Wetter oder Partnerservices wie Restaurants oder Tankstellen. Für all diese Aufgaben ist auch die ES-Plattform “Apache Kafka” ausgelegt.
Eventstreaming Plattform “Apache Kafka”
Die Plattform Apache Kafka der Firma Confluent ist im Kern ein verteilter, fehlertoleranter Commitlog, der Nachrichten thematisch zu Topics zusammenfasst und unveränderlich speichert. Consumer eines Topics können die Daten als Strom lesen. Durch dieses Publish/Subscribe-Prinzip werden Datastreams generiert, die in Kombination mit einer dauerhaften Speicherung den Consumer selbst entscheiden lassen, wann, wie oft und in welcher Geschwindigkeit er sie lesen möchte.
Bestehen schon Datenintegrationslösungen auf Basis von MQ, ESB, SOA und ETL, stehen diese nicht in Konkurrenz zu Kafka. Auf Grund seiner offenen Architektur und der Vielzahl existierender Konnektoren und API’s lassen sich ESB- und ETL-Prozesse mit Kafka koppeln.
Confluents Streaming-Plattform funktioniert als zentrales Nervensystem eines Unternehmens und zeichnet sich besonders durch eine einfache und schnelle Handhabung aus. Kafka ist speziell auf große Datenmengen ausgelegt und bei der Verarbeitung in Echtzeit weniger fehleranfällig. Die Plattform reagiert schnell und flexibel auf plötzlich auftretende Ereignisse, sowie technische Veränderungen.
Die Eventstreaming-Plattform wird eingesetzt, um die Produktion und Maschinen zu steuern und zu überwachen, Logistikabläufe zu optimieren und Arbeitsschritte an einem Fahrzeug besser nachzuvollziehen. Die Vernetzung und Dokumentation der Arbeitsschritte werden durch eine schnelle Verarbeitung von Daten ermöglicht. Dadurch werden Kunden und Fahrer an die Marke gebunden und der Umsatz wird gesteigert. Gleichzeitig wächst die unternehmerische Geschwindigkeit, sodass Automobilhersteller und –Zulieferer weiterhin hohe Standards verwirklichen können und somit auf der Überholspur bleiben.
Das Whitepaper „Wie Eventstreaming der Automobilbranche zu agilen Prozessen und Produkten verhilft“ knüpft thematisch an diesen Artikel an. Sie können es hier
kostenlos downloaden1 Whitepaper mit 12 Seiten – Diese Inhalte erwarten Sie:
- Status Quo der Automotive IT
- Funktionsweise von Event-Streaming
- Aufbau und Struktur einer Event-Streaming-Plattform
- Anwendungsfälle n der Automobilindustrie
- Apache Kafka als führende Streaming-Plattform
Leseprobe: Im Kern geht es um ein Um-Denken von isolierten Datenbeständen hin zu einer Ereignis-bezogenen Sichtweise: Unternehmen, ihre Prozesse und Handlungen können als eine Serie von Ereignissen (Events) betrachtet werden. Ob eine Bestellung eintrifft, ein ABS bei Glatteis anschlägt oder eine Produktionsanlage einen Fehler meldet – alles ist eine Nachricht über ein Ereignis. Der entscheidende Unterschied zum Denken und Handeln in Datensilos: In einer Event-getriebenen Architektur stellt ein Event eine Information dar, welche von mehreren Empfängern entgegengenommen werden kann, ohne dass dem oder den Produzenten des Ereignisses bekannt sein muss, wer der oder die Empfänger sind. Es ist zudem dem Empfänger einer Ereignis-Information überlassen, wie und wann er darauf reagieren will.
Foto: shutterstock.com/jamesteohart