Home |  ENGLISH |  Kontakt |  Impressum |  Anmelden |  KIT

Dominik Riemer2

Aus Aifbportal

Wechseln zu: Navigation, Suche

Methodik und Tools zur Entwicklung verteilter Echtzeit-Verarbeitungspipelines

Veranstaltungsart:
Graduiertenkolloquium



Die Erfassung und Verarbeitung von Ereignissen aus Sensorquellen oder Unternehmensanwendungen in Echtzeit ist wesentlicher Bestandteil vieler Anwendungsdomänen wie dem Internet der Dinge oder Industrie 4.0 und bietet dabei Anwendern den Vorteil, kontinuierlich über Leistungsdaten und aufkommende Probleme unterrichtet zu werden (Situational Awareness) oder Wartungsprozesse zustandsabhängig zu optimieren (Condition-based Maintenance). Derartige Einsatzgebiete verlangen aufgrund der Vielzahl, Frequenz sowie des Bedarfs nach echtzeitnaher Auswertung häufig den Einsatz verteilter Systeme. Technologisch existieren bereits Systeme, die in der Lage sind, komplexe Ereignismuster auf Basis räumlicher, zeitlicher oder kausa-ler Zusammenhänge auf Datenströmen zur erkennen (Complex Event Processing) und dabei die Rechenlast auf ein Cluster aus Verarbeitungsknoten verteilen (Distributed Stream Processing). Gleichzeitig sind heute verfügbare Systeme jedoch statisch, da die Erstellung und Anpassung der zu erkennenden Situationen auf-grund der technischen Komplexität der zugrundeliegenden Sprachen eine Entwicklungs- und Bereitstellungs-phase verlangt, was zu langsamen Entwicklungszyklen führt. Gerade diese Anwendungen weisen allerdings häufig eine hohe Dynamik in Bezug auf Veränderungen von Anforderungen der zu erkennenden Situationen, aber auch der zugrundeliegenden Sensordaten hinsichtlich Syntax und Semantik auf.

In diesem Vortrag präsentieren wir eine neuartige Methodik, welche die Entwicklung echtzeitfähiger Anwen-dungen durch Fachanwender erleichtert. Diese beinhaltet eine semantische Beschreibungsebene, welche es Entwicklern ermöglicht, Ereignisproduzenten, Verarbeitungsknoten und Ereigniskonsumenten in Hinblick auf Schema-, Qualitäts- und Protokollinformationen sowie deren Ein- und Ausgabeanforderungen abstrakt zu beschreiben. Die Ebene wird in eine Systemarchitektur eingebettet, die es Fachanwendern schließlich erlaubt, Verarbeitungspipelines aus heterogenen Ereignisverarbeitungsknoten zu erstellen und automatisiert auszuführen. Die entwickelte Methodik wurde anhand mehrerer Fallbeispiele bei einem Automobilzulieferer sowie einem Dienstleister aus der Ölbranche implementiert und evaluiert.

(Dominik Riemer)




Start: 29. Januar 2016 um 14:30
Ende: 29. Januar 2016 um 15:30


Im Gebäude 11.40, Raum: 231

Veranstaltung vormerken: (iCal)


Veranstalter: Forschungsgruppe(n) Web Science und Wissensmanagement
Information: Media:Riemer 29-01-2016.pdf

-->