Vorlage:Infobox column=Veranstaltungen=
Vortrag
Termin: 29 Oktober 2020 13:00:00
Children are using the Internet from a very young age and need to be taught how to use it safely and securely. I'm going to talk about the challenges and present some ideas for teaching them the right password principles in an age-appropriate way.
2. STI Germany Industrietag2010-06-15T09:30:000In Vorträgen und Software-Demonstrationen informieren Referenten aus Wissenschaft und Industrie in diesem Jahr über grundlegende technische Ansätze, aktuelle Trends, Geschäftsmodelle und erfolgreiche Anwendungen zum Thema Linked Open Data (LOD). Als LOD wird die Verknüpfung frei verfügbarer und über URIs (Uniform Ressource Identifier) eindeutig referenzierter Daten im World Wide Web verstanden, die wiederum ebenfalls per URI auf andere Daten verweisen. Hierfür werden Semantic Web Standards verwendet. Die miteinander verknüpften Daten ergeben ein weltweites Netz, die Linked Open Data Cloud.
Weitere Informationen sind unter http://www.stigermany.de/index.php/STI_Industrietag_2010 verfügbar.
sonstige Veranstalltung
Termin: 15 Juni 2010 09:30:00
In Vorträgen und Software-Demonstrationen informieren Referenten aus Wissenschaft und Industrie in diesem Jahr über grundlegende technische Ansätze, aktuelle Trends, Geschäftsmodelle und erfolgreiche Anwendungen zum Thema Linked Open Data (LOD). Als LOD wird die Verknüpfung frei verfügbarer und über URIs (Uniform Ressource Identifier) eindeutig referenzierter Daten im World Wide Web verstanden, die wiederum ebenfalls per URI auf andere Daten verweisen. Hierfür werden Semantic Web Standards verwendet. Die miteinander verknüpften Daten ergeben ein weltweites Netz, die Linked Open Data Cloud.
Weitere Informationen sind unter http://www.stigermany.de/index.php/STI_Industrietag_2010 verfügbar.
23. AIK Symposium2009-04-24T00:30:000Web 3.0
AIK-Symposium
Termin: 24 April 2009 00:30:00
Web 3.0
24. AIK-Symposium2009-10-23T14:00:00024. AIK-Symposium - Cloud Computing
Pressemitteilung zum 24. AIK Symposium
AIK-Symposium
Termin: 23 Oktober 2009 14:00:00
24. AIK-Symposium - Cloud Computing
Pressemitteilung zum 24. AIK Symposium
25. AIK-Symposium2010-04-30T14:00:000Green Software - IT-gestütztes Nachhaltigkeitsmanagement
AIK-Symposium
Termin: 30 April 2010 14:00:00
Green Software - IT-gestütztes Nachhaltigkeitsmanagement
26. AIK-Symposium2010-10-22T14:00:000Effiziente Algorithmen
Festsymposium anlässlich des 60. Geburtstags von Prof. Dr. Hartmut Schmeck
AIK-Symposium
Termin: 22 Oktober 2010 14:00:00
Effiziente Algorithmen
Festsymposium anlässlich des 60. Geburtstags von Prof. Dr. Hartmut Schmeck
27. AIK-Symposium2011-07-22T14:00:000Karlsruhe, 22. Juli 2011 - Intelligente Methoden zur Unterstützung des Wissensmanagements in Unternehmen sowie die Realisierung der Vision des „Semantic Web“ sind seit vielen Jahren die Schwerpunkte der Forschung und Lehre von Rudi Studer. Anlässlich seines 60. Geburtstags widmet sich das 27. AIK-Symposium dem Thema Wissensmanagement. Weitere Informationen und die Möglichkeit
zur Anmeldung finden sich unter [1].
AIK-Symposium
Termin: 22 Juli 2011 14:00:00
Karlsruhe, 22. Juli 2011 - Intelligente Methoden zur Unterstützung des Wissensmanagements in Unternehmen sowie die Realisierung der Vision des „Semantic Web“ sind seit vielen Jahren die Schwerpunkte der Forschung und Lehre von Rudi Studer. Anlässlich seines 60. Geburtstags widmet sich das 27. AIK-Symposium dem Thema Wissensmanagement. Weitere Informationen und die Möglichkeit
zur Anmeldung finden sich unter [2].
28. AIK-Symposium "40 Jahre Institut AIFB"2012-02-17T14:00:000Am 17.02.2012 veranstalten das Institut AIFB und der Verein AIK e.V. das 28. AIK-Symposium als Festveranstaltung zum 40-jährigen Jubiläum des Instituts AIFB. Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 17 Februar 2012 14:00:00
Am 17.02.2012 veranstalten das Institut AIFB und der Verein AIK e.V. das 28. AIK-Symposium als Festveranstaltung zum 40-jährigen Jubiläum des Instituts AIFB. Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
29. AIK-Symposium "Smart BPM"2013-10-25T14:00:000Am 25.10.2013 veranstalten das Institut AIFB und der Verein AIK e.V. das 29. AIK-Symposium zum Thema "Smart BPM". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 25 Oktober 2013 14:00:00
Am 25.10.2013 veranstalten das Institut AIFB und der Verein AIK e.V. das 29. AIK-Symposium zum Thema "Smart BPM". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
30. AIK-Symposium "Semantik in Big Data"2014-10-31T14:15:000Am 31.10.2014 veranstalten das Institut AIFB und der Verein AIK e.V. das 30. AIK-Symposium zum Thema "Semantik in Big Data". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 31 Oktober 2014 14:15:00
Am 31.10.2014 veranstalten das Institut AIFB und der Verein AIK e.V. das 30. AIK-Symposium zum Thema "Semantik in Big Data". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
31. AIK-Symposium "Smart Energy"2015-10-23T14:15:000Am 23.10.2015 veranstalten das Institut AIFB und der Verein AIK e.V. das 31. AIK-Symposium zum Thema "Smart Energy". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 23 Oktober 2015 14:15:00
Am 23.10.2015 veranstalten das Institut AIFB und der Verein AIK e.V. das 31. AIK-Symposium zum Thema "Smart Energy". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
32. AIK-Symposium "Sicherheit und Vertrauen in der vernetzten Welt"2016-10-28T14:15:000Am 28.10.2016 veranstalten das Institut AIFB und der Verein AIK e.V. das 32. AIK-Symposium zum Thema "Sicherheit und Vertrauen in der vernetzten Welt". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
Termin: 28 Oktober 2016 14:15:00
Am 28.10.2016 veranstalten das Institut AIFB und der Verein AIK e.V. das 32. AIK-Symposium zum Thema "Sicherheit und Vertrauen in der vernetzten Welt". Informationen zu Programm und Anmeldung finden Sie auf der Veranstaltungswebseite.
33. AIK-Symposium "Von Wissensmanagement zu Web Science"2017-03-24T14:15:000Am 24.03.2017 veranstalten das Institut AIFB und der Verein AIK e.V. das 33. AIK-Symposium zum Thema "Von Wissensmanagement zu Web Science". Weitere Informationen finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 24 März 2017 14:15:00
Am 24.03.2017 veranstalten das Institut AIFB und der Verein AIK e.V. das 33. AIK-Symposium zum Thema "Von Wissensmanagement zu Web Science". Weitere Informationen finden Sie auf der Veranstaltungswebseite.
34. AIK-Symposium "Gute Algorithmen"2018-02-16T14:00:000Am 16.02.2018 veranstalten das Institut AIFB und der Verein AIK e.V. das 34. AIK-Symposium zum Thema "Gute Algorithmen". Weitere Informationen finden Sie in unserem AIFB Themenheft 2018 sowie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 16 Februar 2018 14:00:00
Am 16.02.2018 veranstalten das Institut AIFB und der Verein AIK e.V. das 34. AIK-Symposium zum Thema "Gute Algorithmen". Weitere Informationen finden Sie in unserem AIFB Themenheft 2018 sowie auf der Veranstaltungswebseite.
35. AIK-Symposium "Blockchain – Proof-of-Worth"2019-10-25T14:00:000Am 25.10.2019 veranstalten das Institut AIFB und der Verein AIK e.V. das 35. AIK-Symposium zum Thema "Blockchain – Proof-of-Worth". Weitere Informationen finden Sie auf der Veranstaltungswebseite.
AIK-Symposium
Termin: 25 Oktober 2019 14:00:00
Am 25.10.2019 veranstalten das Institut AIFB und der Verein AIK e.V. das 35. AIK-Symposium zum Thema "Blockchain – Proof-of-Worth". Weitere Informationen finden Sie auf der Veranstaltungswebseite.
9te Konferenz Professionelles Wissensmanagement (WM2017)2017-04-05T00:00:0005.-7. April 2017 - Der Schwerpunkt der Tagung WM2017 liegt auf “Wissensmanagement im digitalen Wandel”. Die zweijährlich ausgerichtete Konferenz bringt Vertreter/-innen aus Forschung und Praxis in eingeladenen Vorträgen, Workshops, Tutorials und einer begleitenden Industrieausstellung zusammen, um Erfahrungen, professionelle Anwendungen und Visionen zu diskutieren.
Konferenz
Termin: 5 April 2017 00:00:00
5.-7. April 2017 - Der Schwerpunkt der Tagung WM2017 liegt auf “Wissensmanagement im digitalen Wandel”. Die zweijährlich ausgerichtete Konferenz bringt Vertreter/-innen aus Forschung und Praxis in eingeladenen Vorträgen, Workshops, Tutorials und einer begleitenden Industrieausstellung zusammen, um Erfahrungen, professionelle Anwendungen und Visionen zu diskutieren.
A Semantic Wiki-based Integration Platform for IT Service Management22013-04-03T15:45:000IT Service Management (ITSM) ist als Managementdisziplin für die strukturierte und effiziente Erbringung von Information Technology (IT)-Diensten zuständig. Das derzeit am weitesten verbreitete ITSM-Rahmenwerk ist die IT Infrastructure Library (ITIL).
Wikis erlauben das kollaborative Erstellen, Lesen und Bearbeiten von Informationen mit Hilfe einer webbasierten Oberfläche. Semantische Wikis nutzen aus dem Semantic Web bekannte Ansätze, um die ansonsten nur für Texte ausgelegten Wikis auch für strukturierte Inhalte einsetzbar zu machen, was die maschinenbasierte Verarbeitung der gespeicherten Informationen ermöglicht.
In diesem Vortrag wird eine Plattform für Semantic Wiki-basiertes IT Service Management für IT-Administrations-Teams innerhalb von KMUs vorgestellt. Dieses baut auf Funktionen von Semantic MediaWiki auf, erweitert dieses aber zusätzlich um die folgenden ITSM-spezifischen Funktionalitäten: (1) automatische Erfassung von Konfigurationsinformationen und deren Import in das Semantic Wiki-basierte Configuration Management System; (2) Integration einer Systemmonitoring-Software; (3) Anbindung einer Intrusion Detection-Lösung; (4) Assistent für das Finden von Ursachen von Problemen; (5) Anbindung an virtuelle Maschinen und IaaS-Instanzen.
Graduiertenkolloquium
Termin: 3 April 2013 15:45:00
IT Service Management (ITSM) ist als Managementdisziplin für die strukturierte und effiziente Erbringung von Information Technology (IT)-Diensten zuständig. Das derzeit am weitesten verbreitete ITSM-Rahmenwerk ist die IT Infrastructure Library (ITIL).
Wikis erlauben das kollaborative Erstellen, Lesen und Bearbeiten von Informationen mit Hilfe einer webbasierten Oberfläche. Semantische Wikis nutzen aus dem Semantic Web bekannte Ansätze, um die ansonsten nur für Texte ausgelegten Wikis auch für strukturierte Inhalte einsetzbar zu machen, was die maschinenbasierte Verarbeitung der gespeicherten Informationen ermöglicht.
In diesem Vortrag wird eine Plattform für Semantic Wiki-basiertes IT Service Management für IT-Administrations-Teams innerhalb von KMUs vorgestellt. Dieses baut auf Funktionen von Semantic MediaWiki auf, erweitert dieses aber zusätzlich um die folgenden ITSM-spezifischen Funktionalitäten: (1) automatische Erfassung von Konfigurationsinformationen und deren Import in das Semantic Wiki-basierte Configuration Management System; (2) Integration einer Systemmonitoring-Software; (3) Anbindung einer Intrusion Detection-Lösung; (4) Assistent für das Finden von Ursachen von Problemen; (5) Anbindung an virtuelle Maschinen und IaaS-Instanzen.
Abschlußpräsentationen "Linked Open Data Applications"2010-02-02T15:30:000In den letzten Jahren wurden über 4,5 Milliarden Fakten als Linked Open
Data veröffentlicht. Dies ist die Keimzelle des Semantic Web, oft auch
Web 3.0 genannt. Dabei werden viele verschiedene Themen von Musik und
Film über Geographie bis zu Chemie und Genetik abgedeckt. Doch wie
können diese Daten genutzt werden?
Diese Frage beantworten vier Gruppen von Studenten, die dieses Semester jeweils eine Linked Open Data Anwendung entwickelt haben. Neben einer Erläuterung und Einführung der Anwendungen wird es auch kurze Demos zu sehen geben.
Ausgehend von den Zwischenpräsentationen kann man nur sagen, es lohnt sich zu kommen. Es wird spannend!
sonstige Veranstalltung
Termin: 2 Februar 2010 15:30:00
In den letzten Jahren wurden über 4,5 Milliarden Fakten als Linked Open
Data veröffentlicht. Dies ist die Keimzelle des Semantic Web, oft auch
Web 3.0 genannt. Dabei werden viele verschiedene Themen von Musik und
Film über Geographie bis zu Chemie und Genetik abgedeckt. Doch wie
können diese Daten genutzt werden?
Diese Frage beantworten vier Gruppen von Studenten, die dieses Semester jeweils eine Linked Open Data Anwendung entwickelt haben. Neben einer Erläuterung und Einführung der Anwendungen wird es auch kurze Demos zu sehen geben.
Ausgehend von den Zwischenpräsentationen kann man nur sagen, es lohnt sich zu kommen. Es wird spannend!
Activity Tree Harvesting2009-07-24T09:45:000Activity Tree Harvesting
Graduiertenkolloquium
Termin: 24 Juli 2009 09:45:00
Activity Tree Harvesting
Adaptive and Reactive Rich Internet Applications2009-12-11T14:00:000Rich Internet Applications significantly raise the user experience compared to conventional web applications by providing highly responsive user interfaces. Although, this is already a tremendous advance in usability, it does not solve the usability issues of one-size-fits-all web user interfaces. So far, research on adaptive hypermedia came up with server-side solutions for adapting web applications to the individual user. However, these approaches do not take into account the new opportunities Rich Internet Applications offer for personalization.
In this talk the client-side approach of Adaptive and Reactive Rich Internet Applications is presented, as the main result of my research into how to bring real-time adaptivity to Rich Internet Applications. A holistic framework covering the design-time as well as the run-time aspects of Adaptive and Reactive Rich Internet Applications is presented, focusing especially on the run-time aspects. As part of the design-time framework I propose the application of semantic web usage mining to semantically enriched web server access log files in order to discover behavioral patterns common to a group of users. These patters serve as a basis for modeling adaptation rules.
At run-time the adaptation rules are processed by an Adaptation Engine directly on the client. I detail the basic principles of the Adaptation Engine, and show how it facilitates the personalization of Rich Internet Applications. Instructed by declarative adaptation rules the Adaptation Engine tracks the browsing behavior of an individual user and reacts to predefined behavioral patterns by adapting the user interface of a web application. The Adaptation Engine combines a graph-based algorithm for the detection of complex events with an efficient pattern matching algorithm for executing declarative production rules.
The universal applicability of Adaptive and Reactive Rich Internet Applications is demonstrated on a use case specific scenario: personalized e-Government. The results of a comprehensive user-driven usability test are discussed in which the user experience of an adaptive versus a non-adaptive e-Government portal is analyzed. Finally, a number of promising areas for future research are identified.
Graduiertenkolloquium
Termin: 11 Dezember 2009 14:00:00
Rich Internet Applications significantly raise the user experience compared to conventional web applications by providing highly responsive user interfaces. Although, this is already a tremendous advance in usability, it does not solve the usability issues of one-size-fits-all web user interfaces. So far, research on adaptive hypermedia came up with server-side solutions for adapting web applications to the individual user. However, these approaches do not take into account the new opportunities Rich Internet Applications offer for personalization.
In this talk the client-side approach of Adaptive and Reactive Rich Internet Applications is presented, as the main result of my research into how to bring real-time adaptivity to Rich Internet Applications. A holistic framework covering the design-time as well as the run-time aspects of Adaptive and Reactive Rich Internet Applications is presented, focusing especially on the run-time aspects. As part of the design-time framework I propose the application of semantic web usage mining to semantically enriched web server access log files in order to discover behavioral patterns common to a group of users. These patters serve as a basis for modeling adaptation rules.
At run-time the adaptation rules are processed by an Adaptation Engine directly on the client. I detail the basic principles of the Adaptation Engine, and show how it facilitates the personalization of Rich Internet Applications. Instructed by declarative adaptation rules the Adaptation Engine tracks the browsing behavior of an individual user and reacts to predefined behavioral patterns by adapting the user interface of a web application. The Adaptation Engine combines a graph-based algorithm for the detection of complex events with an efficient pattern matching algorithm for executing declarative production rules.
The universal applicability of Adaptive and Reactive Rich Internet Applications is demonstrated on a use case specific scenario: personalized e-Government. The results of a comprehensive user-driven usability test are discussed in which the user experience of an adaptive versus a non-adaptive e-Government portal is analyzed. Finally, a number of promising areas for future research are identified.
Addressing the Dilemma of Insecure Programming Advice with Deep Learning and Behavioral Research2019-05-21T14:00:000Abstract:
Stack Overflow is the most popular discussion platform for software developers. However, recent research identified a large amount of insecure encryption code in production systems that has been inspired by examples given on Stack Overflow. By copying and pasting functional code, developers introduced exploitable software vulnerabilities into security-sensitive high-profile applications installed by millions of users every day.
Proposed mitigations of this problem suffer from usability flaws and push developers to continue shopping for code examples on Stack Overflow once again. This motivates us to fight the proliferation of insecure code directly at the root before it even reaches the clipboard. By viewing Stack Overflow as a market, implementation of cryptography becomes a decision-making problem. In this context, our goal is to simplify the selection of helpful and secure examples. More specifically, we focus on supporting software developers in making better decisions on Stack Overflow by applying nudges, a concept borrowed from behavioral economics and psychology. This approach is motivated by one of our key findings: For 99.4% of insecure code examples on Stack Overflow, similar alternatives are available that serve the same use case and provide strong cryptography.
Our system design that modifies Stack Overflow is based on several nudges that are controlled by a deep neural network. It learns a representation for cryptographic API usage patterns and classification of their security, achieving average AUC-ROC of 0.99. With a user study, we demonstrate that nudge-based security advice significantly helps tackling the most popular and error-prone cryptographic use cases in Android.
Bio:
Prof. Jens Grossklags, Ph.D., holds the Associate Professorship for Cyber Trust at the Department of Informatics at the Technical University of Munich. He studies security and privacy challenges from the economic and behavioral perspectives with a variety of methodologies. His published research has appeared in high quality publications at technical and social science venues, and has been honored with three best paper awards.
Prof. Grossklags received his Ph.D. from the University of California, Berkeley and was a Postdoctoral Research Associate at the Center for Information Technology Policy at Princeton University. He then directed the Security, Privacy and Information Economics Lab, and served as the Haile Family Early Career Professor at the Pennsylvania State University.
In addition, Prof. Grossklags has been an invited visiting professor at École Polytechnique Fédérale de Lausanne (EPFL), Switzerland, during the summers of 2011 and 2012, an invited visiting researcher at Copenhagen Business School (CBS) during the summer of 2013, an invited visiting scientist at EURECOM during the summer of 2014, and an invited professor at the IMDEA Software Institute during the summer of 2016.
Kolloquium Angewandte Informatik
Termin: 21 Mai 2019 14:00:00
Abstract:
Stack Overflow is the most popular discussion platform for software developers. However, recent research identified a large amount of insecure encryption code in production systems that has been inspired by examples given on Stack Overflow. By copying and pasting functional code, developers introduced exploitable software vulnerabilities into security-sensitive high-profile applications installed by millions of users every day.
Proposed mitigations of this problem suffer from usability flaws and push developers to continue shopping for code examples on Stack Overflow once again. This motivates us to fight the proliferation of insecure code directly at the root before it even reaches the clipboard. By viewing Stack Overflow as a market, implementation of cryptography becomes a decision-making problem. In this context, our goal is to simplify the selection of helpful and secure examples. More specifically, we focus on supporting software developers in making better decisions on Stack Overflow by applying nudges, a concept borrowed from behavioral economics and psychology. This approach is motivated by one of our key findings: For 99.4% of insecure code examples on Stack Overflow, similar alternatives are available that serve the same use case and provide strong cryptography.
Our system design that modifies Stack Overflow is based on several nudges that are controlled by a deep neural network. It learns a representation for cryptographic API usage patterns and classification of their security, achieving average AUC-ROC of 0.99. With a user study, we demonstrate that nudge-based security advice significantly helps tackling the most popular and error-prone cryptographic use cases in Android.
Bio:
Prof. Jens Grossklags, Ph.D., holds the Associate Professorship for Cyber Trust at the Department of Informatics at the Technical University of Munich. He studies security and privacy challenges from the economic and behavioral perspectives with a variety of methodologies. His published research has appeared in high quality publications at technical and social science venues, and has been honored with three best paper awards.
Prof. Grossklags received his Ph.D. from the University of California, Berkeley and was a Postdoctoral Research Associate at the Center for Information Technology Policy at Princeton University. He then directed the Security, Privacy and Information Economics Lab, and served as the Haile Family Early Career Professor at the Pennsylvania State University.
In addition, Prof. Grossklags has been an invited visiting professor at École Polytechnique Fédérale de Lausanne (EPFL), Switzerland, during the summers of 2011 and 2012, an invited visiting researcher at Copenhagen Business School (CBS) during the summer of 2013, an invited visiting scientist at EURECOM during the summer of 2014, and an invited professor at the IMDEA Software Institute during the summer of 2016.
Aditya Mogadala22017-11-17T14:00:000The growth of heterogeneous content on the web has raised varied challenges, yet also provided numerous opportunities. Content is either represented with textual form existing in different lan-guages or appear as a visual embodiment like images and videos. In many occasions, different amalgamation of them co-exist to complement each other or to provide consensus. For solving challenges that requires intelligent content processing and has dependency between diverse do-mains, leveraging such multiple view data instances with data driven learning will be beneficial. Despite having availability of such content. However, many data driven learning (i.e. machine learning) approaches still solve tasks separately from varied computer science domains such as computer vision (CV), natural language processing (NLP) and semantic web. Similar endeavor is not shown for the tasks which require input either from all of those domains or subset of them.
In this dissertation, we develop models and techniques that can leverage prevailing multiple views of data instances for assisting several challenges that require connection between aforementioned domains. In particular, first we develop models that can jointly model diverse representations aris-ing from two views of data instances by learning their common space representation. Specifically, modeling such common space representations are helpful to retrieve, recommend and classify cross-view content. Second, we develop models that can cater more than two views to generate one view from another. Lastly, we describe a model that can handle missing views, we demon-strate that this model also can generate one view from another by utilizing auxiliary data. We argue that techniques the models leverage internally provide many practical benefits and lot of immedi-ate value applications. From the modeling perspective, our contributed model design in this thesis can be summarized under the phrase Multi-view Representation Learning. These models are vari-ations and extensions of shallow statistical and deep neural networks approaches that can jointly optimize and exploit all views of the input data arising from different independent representations. We show that our models advance the state of the art on tasks such as cross-modal retrieval, cross-channel recommendations, cross-language text classification, image-caption generation in multiple languages and caption generation for images containing novel visual object categories. In general, they also provide assistance in unifying languages, knowledge and vision.
Graduiertenkolloquium
Termin: 17 November 2017 14:00:00
The growth of heterogeneous content on the web has raised varied challenges, yet also provided numerous opportunities. Content is either represented with textual form existing in different lan-guages or appear as a visual embodiment like images and videos. In many occasions, different amalgamation of them co-exist to complement each other or to provide consensus. For solving challenges that requires intelligent content processing and has dependency between diverse do-mains, leveraging such multiple view data instances with data driven learning will be beneficial. Despite having availability of such content. However, many data driven learning (i.e. machine learning) approaches still solve tasks separately from varied computer science domains such as computer vision (CV), natural language processing (NLP) and semantic web. Similar endeavor is not shown for the tasks which require input either from all of those domains or subset of them.
In this dissertation, we develop models and techniques that can leverage prevailing multiple views of data instances for assisting several challenges that require connection between aforementioned domains. In particular, first we develop models that can jointly model diverse representations aris-ing from two views of data instances by learning their common space representation. Specifically, modeling such common space representations are helpful to retrieve, recommend and classify cross-view content. Second, we develop models that can cater more than two views to generate one view from another. Lastly, we describe a model that can handle missing views, we demon-strate that this model also can generate one view from another by utilizing auxiliary data. We argue that techniques the models leverage internally provide many practical benefits and lot of immedi-ate value applications. From the modeling perspective, our contributed model design in this thesis can be summarized under the phrase Multi-view Representation Learning. These models are vari-ations and extensions of shallow statistical and deep neural networks approaches that can jointly optimize and exploit all views of the input data arising from different independent representations. We show that our models advance the state of the art on tasks such as cross-modal retrieval, cross-channel recommendations, cross-language text classification, image-caption generation in multiple languages and caption generation for images containing novel visual object categories. In general, they also provide assistance in unifying languages, knowledge and vision.
Alexander Lenk22014-11-12T15:45:000Kleine und Mittelständische Unternehmen (KMU) sehen sich in ihrem Alltag immer wieder Gefahren ausge-setzt. So hat sich in der Vergangenheit gezeigt, dass selbst zuverlässige Anbieter mit vielen eigenen
Rechenzentren immer wieder mit Ausfällen durch Notfälle zu kämpfen haben und auch große Unternehmen plötzlich den Betrieb einstellen müssen. Hierdurch kann es zu einer Unterbrechung der Geschäftsprozesse und zum Datenverlust kommen. Dabei führen 94 % der KMUs in Deutschland zwar regelmäßig Datensiche-rungen durch, aber gerade einmal 50 % sichern ihre kritischen Prozesse und die daran beteiligten Systeme mit einem Notfallsystem bei einem anderen Anbieter ab. Rund 52 % der Unternehmen geben an, für die Absicherung ihrer Systeme eine zu geringe Ausstattung an Budget, IT-Ressourcen oder Wissen zu haben. Eine mögliche Lösung, um hohen Kosten bei der Bereithaltung von nur sporadisch genutzten Ressourcen zu begegnen, ist die Nutzung von öffentlichen Cloud Ressourcen.
Ziel dieser Arbeit ist es daher, eine neue Methode für die Vorhaltung eines Notfallsystems in der Cloud
(sog. „Cloud Standby“) zu entwickeln, die aus einer Methode zur Notfallwiederherstellung und einer modell-basierten Deployment-Methode besteht. Die Methode zur Notfallwiederherstellung besteht aus einem
Notfallwiederherstellungsprozess, eines Notfallwiederherstellungsprotokolls und einer Entscheidungsunter-stützung zur Konfiguration des Prozesses besteht und dieses leistet. Dabei baut diese Methode auf
bestehenden Datensicherungslösungen und einer Methode zum anbieterunabhängigen Deployment eines verteilten Systems in der Cloud auf. Eine solche Deployment-Methode wird auch in der Arbeit vorgestellt. Sie besteht aus einer Beschreibungssprache, einem Deploymentprozess, einem Deploymentprotokoll und einem Deploymentalgorithmus. Diese beiden neuen Methoden heißen zusammen Cloud Standby und wurden im Rahmen der Arbeit prototypisch implementiert und veröffentlicht.
Graduiertenkolloquium
Termin: 12 November 2014 15:45:00
Kleine und Mittelständische Unternehmen (KMU) sehen sich in ihrem Alltag immer wieder Gefahren ausge-setzt. So hat sich in der Vergangenheit gezeigt, dass selbst zuverlässige Anbieter mit vielen eigenen
Rechenzentren immer wieder mit Ausfällen durch Notfälle zu kämpfen haben und auch große Unternehmen plötzlich den Betrieb einstellen müssen. Hierdurch kann es zu einer Unterbrechung der Geschäftsprozesse und zum Datenverlust kommen. Dabei führen 94 % der KMUs in Deutschland zwar regelmäßig Datensiche-rungen durch, aber gerade einmal 50 % sichern ihre kritischen Prozesse und die daran beteiligten Systeme mit einem Notfallsystem bei einem anderen Anbieter ab. Rund 52 % der Unternehmen geben an, für die Absicherung ihrer Systeme eine zu geringe Ausstattung an Budget, IT-Ressourcen oder Wissen zu haben. Eine mögliche Lösung, um hohen Kosten bei der Bereithaltung von nur sporadisch genutzten Ressourcen zu begegnen, ist die Nutzung von öffentlichen Cloud Ressourcen.
Ziel dieser Arbeit ist es daher, eine neue Methode für die Vorhaltung eines Notfallsystems in der Cloud
(sog. „Cloud Standby“) zu entwickeln, die aus einer Methode zur Notfallwiederherstellung und einer modell-basierten Deployment-Methode besteht. Die Methode zur Notfallwiederherstellung besteht aus einem
Notfallwiederherstellungsprozess, eines Notfallwiederherstellungsprotokolls und einer Entscheidungsunter-stützung zur Konfiguration des Prozesses besteht und dieses leistet. Dabei baut diese Methode auf
bestehenden Datensicherungslösungen und einer Methode zum anbieterunabhängigen Deployment eines verteilten Systems in der Cloud auf. Eine solche Deployment-Methode wird auch in der Arbeit vorgestellt. Sie besteht aus einer Beschreibungssprache, einem Deploymentprozess, einem Deploymentprotokoll und einem Deploymentalgorithmus. Diese beiden neuen Methoden heißen zusammen Cloud Standby und wurden im Rahmen der Arbeit prototypisch implementiert und veröffentlicht.
Analysis of Current SRM Practices: A Solutions Proposal2009-05-06T00:00:000Analysis of Current SRM Practices: A Solutions Proposal
Vortrag
Termin: 6 Mai 2009 00:00:00
Analysis of Current SRM Practices: A Solutions Proposal
Andreas Thalhammer22016-03-09T15:45:000In recent years, the availability of structured data on the Web has grown and the Web has become more and more entity-focused. An entity can be a person, a book, etc. As a matter of fact, all these entities are connected in a large knowledge graph. In consequence, a lot of data is often available for single entities. In its complete form, the data is not always useful for humans unless it is presented in a concise manner. The task of entity summarization is to identify facts about entities that are particularly notable and worth to be shown to the user.
A common usage scenario of entity summarization is given by knowledge graph panels that are pre-sented on search engine result pages. For producing summaries, search engine providers have a large pool of data readily available in the form of query logs, click paths, user profiles etc. However, that data is not openly available and emerging open approaches for producing summaries of entities can not rely on such background data. Also, the majority of current entity summarization approaches rely only on one knowledge graph (that is often proprietary). Thus, when entity summaries are presented to the user, issues and discussions about data quality, objectivity, and trust have arisen in the recent years. In addition, at the point of presentation, summaries are usually strongly tied to the user interfaces of the specific summary providers. Last but not least, the following question becomes apparent: "What makes a good summary?"
In this talk we will address the above-mentioned challenges and introduce
1) a lightweight relevance-oriented entity summarization system that requires solely a link graph as input;
2) an entity-centric data fusion approach that enables us to align single facts about entities from multiple open Web sources in a schema-agnostic way;
3) a common API for publishing and consuming entity summaries; and
4) a quiz-game approach for establishing a gold standard for the evaluation of entity summarization systems.
Graduiertenkolloquium
Termin: 9 März 2016 15:45:00
In recent years, the availability of structured data on the Web has grown and the Web has become more and more entity-focused. An entity can be a person, a book, etc. As a matter of fact, all these entities are connected in a large knowledge graph. In consequence, a lot of data is often available for single entities. In its complete form, the data is not always useful for humans unless it is presented in a concise manner. The task of entity summarization is to identify facts about entities that are particularly notable and worth to be shown to the user.
A common usage scenario of entity summarization is given by knowledge graph panels that are pre-sented on search engine result pages. For producing summaries, search engine providers have a large pool of data readily available in the form of query logs, click paths, user profiles etc. However, that data is not openly available and emerging open approaches for producing summaries of entities can not rely on such background data. Also, the majority of current entity summarization approaches rely only on one knowledge graph (that is often proprietary). Thus, when entity summaries are presented to the user, issues and discussions about data quality, objectivity, and trust have arisen in the recent years. In addition, at the point of presentation, summaries are usually strongly tied to the user interfaces of the specific summary providers. Last but not least, the following question becomes apparent: "What makes a good summary?"
In this talk we will address the above-mentioned challenges and introduce
1) a lightweight relevance-oriented entity summarization system that requires solely a link graph as input;
2) an entity-centric data fusion approach that enables us to align single facts about entities from multiple open Web sources in a schema-agnostic way;
3) a common API for publishing and consuming entity summaries; and
4) a quiz-game approach for establishing a gold standard for the evaluation of entity summarization systems.
Andres Wagner2014-04-09T15:45:000The amount of data on the WWW that adheres to Semantic Web standards is rapidly increasing. Search over this huge Web data corpus frequently leads to queries having large result sets. So, in order to discover data elements, which satisfy a given information need, users must rely on ranking techniques to sort results according to their relevance. Unfortunately, processing queries with ranked results over a large data corpus is highly expensive in terms of computation time as well as computation resources. At the same time, applications often face information needs, which do not require complete and exact results.
In this thesis, we face the problem of how to process queries over Web data in an approximate and rank-aware fashion. Aiming at this complex problem, we provide several novel contributions.
More specifically, we introduce a rank-aware join operator for Web data. By means of this join operator, we can process queries with ranked results much more efficiently. That is, our rank-aware join operator focuses on computing the top-ranked query results first, while omitting the remainder of the results.
Additionally, we enable systems to trade off result completeness and accuracy, in favor of query computation time. We provide two contributions for this approximate query processing. On the one hand, we present a novel pipeline of operations, which allows to incrementally compute query results. On the other hand, we introduce a new approximate rank-aware join operator. Our operator allows discarding such intermediate query results, which are not likely to lead to a final top-ranked result.
Furthermore, we present a novel approach for selectivity estimation that is tailored towards the needs of Web data and typical Web queries. That is, our selectivity estimation approach allows the estimation of queries, which match structured as well as unstructured data elements in the Web of data. Such selectivity estimation is crucial for query optimization techniques, which can integrate our approximate/rank-aware join operators in physical query plans.
Graduiertenkolloquium
Termin: 9 April 2014 15:45:00
The amount of data on the WWW that adheres to Semantic Web standards is rapidly increasing. Search over this huge Web data corpus frequently leads to queries having large result sets. So, in order to discover data elements, which satisfy a given information need, users must rely on ranking techniques to sort results according to their relevance. Unfortunately, processing queries with ranked results over a large data corpus is highly expensive in terms of computation time as well as computation resources. At the same time, applications often face information needs, which do not require complete and exact results.
In this thesis, we face the problem of how to process queries over Web data in an approximate and rank-aware fashion. Aiming at this complex problem, we provide several novel contributions.
More specifically, we introduce a rank-aware join operator for Web data. By means of this join operator, we can process queries with ranked results much more efficiently. That is, our rank-aware join operator focuses on computing the top-ranked query results first, while omitting the remainder of the results.
Additionally, we enable systems to trade off result completeness and accuracy, in favor of query computation time. We provide two contributions for this approximate query processing. On the one hand, we present a novel pipeline of operations, which allows to incrementally compute query results. On the other hand, we introduce a new approximate rank-aware join operator. Our operator allows discarding such intermediate query results, which are not likely to lead to a final top-ranked result.
Furthermore, we present a novel approach for selectivity estimation that is tailored towards the needs of Web data and typical Web queries. That is, our selectivity estimation approach allows the estimation of queries, which match structured as well as unstructured data elements in the Web of data. Such selectivity estimation is crucial for query optimization techniques, which can integrate our approximate/rank-aware join operators in physical query plans.
Antrittsvorlesung von PD Dr. Agnes Koschmider und PD Dr. Pradyumn Shukla2017-12-20T17:30:000Gemeinsame Veranstaltung mit vier Antrittsvorlesungen
„Carbon Accounting von E-Pkw“
PD Dr. Patrick Jochem
Institut für Industriebetriebslehre und Industrielle Produktion
„Verhaltensanalysen in intelligenten, vernetzten Umgebungen“
PD Dr. Agnes Koschmider
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
„Digitale Transformation – Mehr als die Summe ihrer Teile“
PD Dr. Benjamin Müller
Universität Groningen
„Schnelle Algorithmen zur Matrixmultiplikation“
PD Dr. Pradyumn Kumar Shukla
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
Vortrag
Termin: 20 Dezember 2017 17:30:00
Gemeinsame Veranstaltung mit vier Antrittsvorlesungen
„Carbon Accounting von E-Pkw“
PD Dr. Patrick Jochem
Institut für Industriebetriebslehre und Industrielle Produktion
„Verhaltensanalysen in intelligenten, vernetzten Umgebungen“
PD Dr. Agnes Koschmider
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
„Digitale Transformation – Mehr als die Summe ihrer Teile“
PD Dr. Benjamin Müller
Universität Groningen
„Schnelle Algorithmen zur Matrixmultiplikation“
PD Dr. Pradyumn Kumar Shukla
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
Antrittsvorlesung von Prof. Dr. Harald Sack und Prof. Dr. J. Marius Zöllner2017-11-29T17:30:000Antrittsvorlesung von Prof. Dr. Harald Sack:
„Combining Semantics and Deep Learning for Intelligent Information Services“
Antrittsvorlesung von Prof. Dr. J. Marius Zöllner:
„From Deep Learning to Autonomous Systems“
Weitere Informationen finden Sie in der Einladung (s. u. PDF-Datei)
Vortrag
Termin: 29 November 2017 17:30:00
Antrittsvorlesung von Prof. Dr. Harald Sack:
„Combining Semantics and Deep Learning for Intelligent Information Services“
Antrittsvorlesung von Prof. Dr. J. Marius Zöllner:
„From Deep Learning to Autonomous Systems“
Weitere Informationen finden Sie in der Einladung (s. u. PDF-Datei)
Artificial Intelligence: A tale of two Worlds at Nuance2016-12-19T14:00:000“Artificial Intelligence” is one of the current buzz words. Interestingly enough the term is now often used nearly synonymously with “Deep Learning”, the application of Deep Neural Networks to tasks of “pattern recognition” in a broad sense. But in another, more traditional sense AI is the at-tempt to capture and process knowledge in symbolic form, applying methods of logic & linguistics. Machine Learning, based on methods coming from the faculty of Electrical Engineering and ap-plied to tasks like Speech Recognition, on the one hand and AI in the “symbolic” sense on the oth-er have been very separate fields of research for a long time.
The talk will give an overview how both worlds have a home at Nuance, how Deep Learning and symbolic knowledge based systems are employed both at the level of core technologies like ASR and NLU, as well at the application layer. The talk will focus on practical, real-life examples from the areas of Mobility (e.g. the “Automotive Assistant” and speech interfaces like in the new BMW 7 series, or Orange’s new Smart TV interface in France), Enterprise (how customer service is being re-defined at companies like ING or USAA), and finally Healthcare, where CLU and “Ambient Speech” form the path to intelligent assistants to doctors.
Kolloquium Angewandte Informatik
Termin: 19 Dezember 2016 14:00:00
“Artificial Intelligence” is one of the current buzz words. Interestingly enough the term is now often used nearly synonymously with “Deep Learning”, the application of Deep Neural Networks to tasks of “pattern recognition” in a broad sense. But in another, more traditional sense AI is the at-tempt to capture and process knowledge in symbolic form, applying methods of logic & linguistics. Machine Learning, based on methods coming from the faculty of Electrical Engineering and ap-plied to tasks like Speech Recognition, on the one hand and AI in the “symbolic” sense on the oth-er have been very separate fields of research for a long time.
The talk will give an overview how both worlds have a home at Nuance, how Deep Learning and symbolic knowledge based systems are employed both at the level of core technologies like ASR and NLU, as well at the application layer. The talk will focus on practical, real-life examples from the areas of Mobility (e.g. the “Automotive Assistant” and speech interfaces like in the new BMW 7 series, or Orange’s new Smart TV interface in France), Enterprise (how customer service is being re-defined at companies like ING or USAA), and finally Healthcare, where CLU and “Ambient Speech” form the path to intelligent assistants to doctors.
Asynchrone Anwenderbeteiligung in Software-Projekten2010-12-10T13:15:000In dem Vortrag wird die neue Methode OpenProposal zur asynchronen Anwenderbeteiligung in Software-Projekten vorgestellt, die im Rahmen von vergleichenden Fallstudien evaluiert wurde. Kern der Methode stellt ein Annotationssystem zur asynchronen Erstellung und Bearbeitung von Anwenderbeiträgen dar, das zu einer höheren Effizienz und Effektivität der Anwenderbeteiligung in Software-Projekten verhelfen soll. Mit der neuen Methode werden die Möglichkeiten zur asynchronen Kommunikation zwischen Anwender, Entwickler, Moderator und Entscheider aufgezeigt und Vorteile gegenüber einer synchronen Kommunikation nachgewiesen. Dem neuen Ansatz liegt die Arbeitshypothese zugrunde, dass Anwender eine effizientere und einfachere Methode zur Erstellung von Anwenderbeiträgen benötigen, bei der sich qualitativ hochwertige Anwenderbeiträge ergeben. Hierfür wird der Einsatz von Annotationssystemen als produktivitäts¬förderndes Kommunikationssystem motiviert, mit denen Anwender die grafische Oberfläche von Softwaresystemen annotieren und als Mitteilung an das Entwicklerteam senden können.
Graduiertenkolloquium
Termin: 10 Dezember 2010 13:15:00
In dem Vortrag wird die neue Methode OpenProposal zur asynchronen Anwenderbeteiligung in Software-Projekten vorgestellt, die im Rahmen von vergleichenden Fallstudien evaluiert wurde. Kern der Methode stellt ein Annotationssystem zur asynchronen Erstellung und Bearbeitung von Anwenderbeiträgen dar, das zu einer höheren Effizienz und Effektivität der Anwenderbeteiligung in Software-Projekten verhelfen soll. Mit der neuen Methode werden die Möglichkeiten zur asynchronen Kommunikation zwischen Anwender, Entwickler, Moderator und Entscheider aufgezeigt und Vorteile gegenüber einer synchronen Kommunikation nachgewiesen. Dem neuen Ansatz liegt die Arbeitshypothese zugrunde, dass Anwender eine effizientere und einfachere Methode zur Erstellung von Anwenderbeiträgen benötigen, bei der sich qualitativ hochwertige Anwenderbeiträge ergeben. Hierfür wird der Einsatz von Annotationssystemen als produktivitäts¬förderndes Kommunikationssystem motiviert, mit denen Anwender die grafische Oberfläche von Softwaresystemen annotieren und als Mitteilung an das Entwicklerteam senden können.
Automatische und Semi-automatische Verfahren zur Unterstützung von Ontologieänderungen2011-12-02T14:00:000Die Vision des Semantic Web besteht darin, Wissen, dass im Internet veröffentlicht wird, so zu kodieren, dass es von Maschinen ebenso wie von Menschen verstanden und benutzt werden kann. In den letzten Jahren wurden mehr und mehr Daten veröffentlicht, die den Semantic Web-Standards genügen. Dabei sind viele semantische Daten in Form sogenannter Ontologien, formalen Modellen einer Domäne, verfügbar. Wenn sich die modellierte Domäne oder die Anforderungen an die Ontologie ändern, ändert sich auch das in der Ontologie formalisierte Wissen. Daher sind Änderungen an Ontologien nötig. Da das in der Ontologie modellierte Wissen in der Regel stark vernetzt und die komplette Formalisierung meist nur von Experten verstanden wird, stellen Änderungen eine große Herausforderung für Ontologieentwickler dar.
Im Vortrag werden Anforderungen an Methoden zur Unterstützung des Ontologieänderungsprozesses diskutiert. Basierend darauf werden zwei Verfahren zur Lösung spezieller Probleme im Änderungsprozess dargestellt.
Die erste Methode hat das Ziel, Wissen, dass implizit in der Ontologie vorhanden ist, sich aber nicht deduktiv aus dieser ableiten lässt, explizit zu machen. Dazu wird eine Klasse von Verfahren aus dem maschinellen Lernen, sogenannte Kernelmethoden, für Ontologiedaten adaptiert. Eine Klasse von Kernelfunktionen für leichtgewichtige Ontologien wird definiert. Die Nützlichkeit dieses Ansatzes wird in zwei Anwendungen demonstriert: bei der Klassifikation von Entitäten und bei der Linkvorhersage.
Der zweite Ansatz befasst sich mit der Erleichterung von komplexen Änderungen in einer Ontologie. Basie-rend auf der Erkenntnis, dass bestimmte Arten von Änderungen häufig auftreten, wird ein Framework
entwickelt, das die Definition von Mustern für solche Änderungen erlaubt. Konkrete Änderungen werden dann durchgeführt, indem das entsprechende Änderungsmuster instantiiert wird.
Graduiertenkolloquium
Termin: 2 Dezember 2011 14:00:00
Die Vision des Semantic Web besteht darin, Wissen, dass im Internet veröffentlicht wird, so zu kodieren, dass es von Maschinen ebenso wie von Menschen verstanden und benutzt werden kann. In den letzten Jahren wurden mehr und mehr Daten veröffentlicht, die den Semantic Web-Standards genügen. Dabei sind viele semantische Daten in Form sogenannter Ontologien, formalen Modellen einer Domäne, verfügbar. Wenn sich die modellierte Domäne oder die Anforderungen an die Ontologie ändern, ändert sich auch das in der Ontologie formalisierte Wissen. Daher sind Änderungen an Ontologien nötig. Da das in der Ontologie modellierte Wissen in der Regel stark vernetzt und die komplette Formalisierung meist nur von Experten verstanden wird, stellen Änderungen eine große Herausforderung für Ontologieentwickler dar.
Im Vortrag werden Anforderungen an Methoden zur Unterstützung des Ontologieänderungsprozesses diskutiert. Basierend darauf werden zwei Verfahren zur Lösung spezieller Probleme im Änderungsprozess dargestellt.
Die erste Methode hat das Ziel, Wissen, dass implizit in der Ontologie vorhanden ist, sich aber nicht deduktiv aus dieser ableiten lässt, explizit zu machen. Dazu wird eine Klasse von Verfahren aus dem maschinellen Lernen, sogenannte Kernelmethoden, für Ontologiedaten adaptiert. Eine Klasse von Kernelfunktionen für leichtgewichtige Ontologien wird definiert. Die Nützlichkeit dieses Ansatzes wird in zwei Anwendungen demonstriert: bei der Klassifikation von Entitäten und bei der Linkvorhersage.
Der zweite Ansatz befasst sich mit der Erleichterung von komplexen Änderungen in einer Ontologie. Basie-rend auf der Erkenntnis, dass bestimmte Arten von Änderungen häufig auftreten, wird ein Framework
entwickelt, das die Definition von Mustern für solche Änderungen erlaubt. Konkrete Änderungen werden dann durchgeführt, indem das entsprechende Änderungsmuster instantiiert wird.
Axel Polleres2015-02-26T10:00:000Updates in RDF stores have recently been standardised in the SPARQL 1.1 Update specification. However, computing answers entailed by ontologies in triple stores is usually treated orthogonal to updates. Even
the W3C's recent SPARQL 1.1 Update language and SPARQL 1.1 Entailment Regimes specifications
explicitly exclude a standard behaviour how SPARQL endpoints should treat entailment regimes other than simple entailment in the context of updates. In this talk, we outline different routes to close this gap.
Restricting ourselves mostly to a relatively simple entailment regime (RDF Schema), we discuss possible semantics along with potential strategies for implementing them. We treat both, (i) materialised RDF stores, which store all entailed triples explicitly, and (ii) reduced RDF Stores, that is, redundancy-free RDF stores that do not store any assertional RDF triples (corresponding to DL-Lite ABox statements) entailed by others already. As it turns out, a one-size-fits-all semantics does not exist... We note and will discuss that the
problem of updates under entailment regimes is closely related to Updates in Ontology-based-Data-Access (OBDA), where - as a survey of related literature shows - also no standard solution exist either.
Kolloquium Angewandte Informatik
Termin: 26 Februar 2015 10:00:00
Updates in RDF stores have recently been standardised in the SPARQL 1.1 Update specification. However, computing answers entailed by ontologies in triple stores is usually treated orthogonal to updates. Even
the W3C's recent SPARQL 1.1 Update language and SPARQL 1.1 Entailment Regimes specifications
explicitly exclude a standard behaviour how SPARQL endpoints should treat entailment regimes other than simple entailment in the context of updates. In this talk, we outline different routes to close this gap.
Restricting ourselves mostly to a relatively simple entailment regime (RDF Schema), we discuss possible semantics along with potential strategies for implementing them. We treat both, (i) materialised RDF stores, which store all entailed triples explicitly, and (ii) reduced RDF Stores, that is, redundancy-free RDF stores that do not store any assertional RDF triples (corresponding to DL-Lite ABox statements) entailed by others already. As it turns out, a one-size-fits-all semantics does not exist... We note and will discuss that the
problem of updates under entailment regimes is closely related to Updates in Ontology-based-Data-Access (OBDA), where - as a survey of related literature shows - also no standard solution exist either.
Basil Ell22014-07-11T14:00:000Abstract:
The core idea of the Semantic Web vision is the evolution from a Web of hyperlinked human-readable web pages to a machine-interpretable Web of Data. Since natural language is a suitable knowledge representation formalism for humans and not for machines, knowledge representation formalisms have been developed. This development naturally leads to a gap between machine-interpretable and human-understandable content. We tackle several problems related to this gap.
We analyze the human-readability of the Web of data in terms of the availability of human-readable labels of entities. Since our analysis shows that labels are missing for a significant fraction of entities we developed an approach to derive labels from SPARQL query logs.
In the context of search interfaces to semantic data a class of SPARQL query-generating systems exists where users signify their information needs in the form of keywords or (controlled) natural language questions. For the purpose of enabling a user to observe a potential discrepancy between an intended question and the system-generated query we developed an approach to SPARQL query verbalization - the meaning of a query encoded in SPARQL is conveyed to the user via English text.
The different syntaxes of RDF are not suitable for the presentation to casual users. However, information encoded in RDF can be of interest, e.g., when RDF data is returned by a search interface. We introduce a template-based approach for RDF graph verbalization. Since manual creation of these templates is tedious work we developed a language-independent method for extracting RDF verbalization templates from a parallel corpus of text and data based on distant-supervised simultaneous multi-relation learning and frequent maximal subgraph pattern mining.
In a context where semantic data is well-labeled, we explore how semantics support researchers in various stages of corpus-based analysis, such as importing research data, enriching, cleansing, exporting and sharing research data to allow for reuse and to facilitate new socio-technical interactions between researchers and libraries in a Virtual Research Environment based on semantic wiki technologies.
We give an example of a concrete research practice, i.e., the qualitative and quantitative analysis of a large digital corpus of educational lexica in the field of history of education.
Graduiertenkolloquium
Termin: 11 Juli 2014 14:00:00
Abstract:
The core idea of the Semantic Web vision is the evolution from a Web of hyperlinked human-readable web pages to a machine-interpretable Web of Data. Since natural language is a suitable knowledge representation formalism for humans and not for machines, knowledge representation formalisms have been developed. This development naturally leads to a gap between machine-interpretable and human-understandable content. We tackle several problems related to this gap.
We analyze the human-readability of the Web of data in terms of the availability of human-readable labels of entities. Since our analysis shows that labels are missing for a significant fraction of entities we developed an approach to derive labels from SPARQL query logs.
In the context of search interfaces to semantic data a class of SPARQL query-generating systems exists where users signify their information needs in the form of keywords or (controlled) natural language questions. For the purpose of enabling a user to observe a potential discrepancy between an intended question and the system-generated query we developed an approach to SPARQL query verbalization - the meaning of a query encoded in SPARQL is conveyed to the user via English text.
The different syntaxes of RDF are not suitable for the presentation to casual users. However, information encoded in RDF can be of interest, e.g., when RDF data is returned by a search interface. We introduce a template-based approach for RDF graph verbalization. Since manual creation of these templates is tedious work we developed a language-independent method for extracting RDF verbalization templates from a parallel corpus of text and data based on distant-supervised simultaneous multi-relation learning and frequent maximal subgraph pattern mining.
In a context where semantic data is well-labeled, we explore how semantics support researchers in various stages of corpus-based analysis, such as importing research data, enriching, cleansing, exporting and sharing research data to allow for reuse and to facilitate new socio-technical interactions between researchers and libraries in a Virtual Research Environment based on semantic wiki technologies.
We give an example of a concrete research practice, i.e., the qualitative and quantitative analysis of a large digital corpus of educational lexica in the field of history of education.
Benedikt Kämpgen22014-06-11T14:00:000folgt
Graduiertenkolloquium
Termin: 11 Juni 2014 14:00:00
folgt
Beyond research data infrastructures: exploiting artificial & crowd intelligence towards building research knowledge graphs2020-02-21T14:00:000The need for sharing and reuse of research data has been widely acknowledged and led to a multitude of data search platforms, registries as well as national and international ini-tiatives. Whereas efforts often focus on improving discovery, retrieval and recommendati-on of popular research datasets, there is vast untapped potential in the form of dataset (references) hidden in unstructured Web sites or resources as well research data which can be mined from the (social) Web. In this context, crowd and artificial intelligence con-verge on the task of extracting machine-readable structured knowledge graphs about re-search data and resources, facilitated by techniques from information retrieval, NLP, (dis-tributional) semantics, and machine learning. This talk will provide an overview of recent works in the aforementioned areas with applications in (but not limited to) the social sci-ences.
Kolloquium Angewandte Informatik
Termin: 21 Februar 2020 14:00:00
The need for sharing and reuse of research data has been widely acknowledged and led to a multitude of data search platforms, registries as well as national and international ini-tiatives. Whereas efforts often focus on improving discovery, retrieval and recommendati-on of popular research datasets, there is vast untapped potential in the form of dataset (references) hidden in unstructured Web sites or resources as well research data which can be mined from the (social) Web. In this context, crowd and artificial intelligence con-verge on the task of extracting machine-readable structured knowledge graphs about re-search data and resources, facilitated by techniques from information retrieval, NLP, (dis-tributional) semantics, and machine learning. This talk will provide an overview of recent works in the aforementioned areas with applications in (but not limited to) the social sci-ences.
Beyond the Norm: Exploring Authentication Challenges for Older Adults and Non-WEIRD Populations2023-10-13T14:00:000In today's technology-driven world, the topic of digital authentication often centers around mainstream users, largely neglecting the unique experiences of marginalized communities such as the : older adults and those outside of the Western, Educated, Industrialized, Rich, and Democratic (WEIRD) populations.
This research dives into these underrepresented segments to shed light on the distinct chal-lenges and perspectives they bring to the realm of digital authentication. Through compre-hensive data gathering, including surveys, interviews, and real-time observations, we un-cover the pain points and barriers faced by these demographics. Importantly, this talk moves beyond merely highlighting challenges by presenting solutions tailored to their spe-cific needs. By encompassing areas from tactile feedback to cultural nuances in security, our findings propose innovative strategies for a more inclusive approach to authentication. In the era of global connectivity, it's crucial that the digital world is accessible and secure for all, regardless of age or cultural background.
Kolloquium Angewandte Informatik
Termin: 13 Oktober 2023 14:00:00
In today's technology-driven world, the topic of digital authentication often centers around mainstream users, largely neglecting the unique experiences of marginalized communities such as the : older adults and those outside of the Western, Educated, Industrialized, Rich, and Democratic (WEIRD) populations.
This research dives into these underrepresented segments to shed light on the distinct chal-lenges and perspectives they bring to the realm of digital authentication. Through compre-hensive data gathering, including surveys, interviews, and real-time observations, we un-cover the pain points and barriers faced by these demographics. Importantly, this talk moves beyond merely highlighting challenges by presenting solutions tailored to their spe-cific needs. By encompassing areas from tactile feedback to cultural nuances in security, our findings propose innovative strategies for a more inclusive approach to authentication. In the era of global connectivity, it's crucial that the digital world is accessible and secure for all, regardless of age or cultural background.
Björn Keuter22013-10-30T16:00:000IT-Kommunikationssysteme unterstützen viele Menschen bei ihrer täglichen Arbeit. Die Kommunikation selbst wird meist frei gestaltet und ist vielseitig. Ebenso ist sie herausfordernd, da die Menge der unstruktu-rierten Vorgänge als Informationsflut wahrgenommen werden kann. Dies stellt einen hohen Kontrast zur prozessorientierten Arbeitsweise auf Basis des Geschäftsprozessmanagements dar. Hiermit werden
Arbeitsabläufe geregelt und Strukturen vorgegeben, um u. a. wiederholende Tätigkeiten zu erleichtern. So werden die Geschäftsprozesse vorwiegend durch graphische Modelle beschrieben. Jedoch existiert eine Barriere zwischen der geschäftsprozessorientierten und kommunikationsorientierten Arbeitsweise. Die
Inhalte der Kommunikation werden normalerweise nicht im Geschäftsprozessmanagement berücksichtigt.
Die Überwindung dieser Barriere durch eine Transformation von Prozessmodellen steht im Mittelpunkt des Vortrags. Die natürliche Sprache wird als Verbindungsstück zwischen Kommunikationssystemen und
Geschäftsprozessmanagementsystemen vorgeschlagen und durch Einschränkungen formalisiert. Dadurch wird eine bidirektionale Beschreibung von Geschäftsprozessen und zugehöriger Fragmente erreicht, die eine semi-strukturierte digitale Kommunikation erlaubt. So werden Lösungen erörtert, die zu einer deutschspra-chigen Satzbildung von graphischen Prozessmodellen und der Rückführung dieser Sätze in graphische
Prozessmodelle führen. Die beidseitige Transformation deckt häufig übersehene Fragestellungen über die Bedeutung von Elementen der Prozessmodellierung auf und erhöht damit deren Verständlichkeit. Prototypische Implementierungen demonstrieren erste Einsatzzwecke des Verfahrens, zeigen die Verbes-serungen gegenüber dem bisherigen Stand auf und führen zu innovativen Nutzungskonzepten, die durch die Universalität ermöglicht werden.
Graduiertenkolloquium
Termin: 30 Oktober 2013 16:00:00
IT-Kommunikationssysteme unterstützen viele Menschen bei ihrer täglichen Arbeit. Die Kommunikation selbst wird meist frei gestaltet und ist vielseitig. Ebenso ist sie herausfordernd, da die Menge der unstruktu-rierten Vorgänge als Informationsflut wahrgenommen werden kann. Dies stellt einen hohen Kontrast zur prozessorientierten Arbeitsweise auf Basis des Geschäftsprozessmanagements dar. Hiermit werden
Arbeitsabläufe geregelt und Strukturen vorgegeben, um u. a. wiederholende Tätigkeiten zu erleichtern. So werden die Geschäftsprozesse vorwiegend durch graphische Modelle beschrieben. Jedoch existiert eine Barriere zwischen der geschäftsprozessorientierten und kommunikationsorientierten Arbeitsweise. Die
Inhalte der Kommunikation werden normalerweise nicht im Geschäftsprozessmanagement berücksichtigt.
Die Überwindung dieser Barriere durch eine Transformation von Prozessmodellen steht im Mittelpunkt des Vortrags. Die natürliche Sprache wird als Verbindungsstück zwischen Kommunikationssystemen und
Geschäftsprozessmanagementsystemen vorgeschlagen und durch Einschränkungen formalisiert. Dadurch wird eine bidirektionale Beschreibung von Geschäftsprozessen und zugehöriger Fragmente erreicht, die eine semi-strukturierte digitale Kommunikation erlaubt. So werden Lösungen erörtert, die zu einer deutschspra-chigen Satzbildung von graphischen Prozessmodellen und der Rückführung dieser Sätze in graphische
Prozessmodelle führen. Die beidseitige Transformation deckt häufig übersehene Fragestellungen über die Bedeutung von Elementen der Prozessmodellierung auf und erhöht damit deren Verständlichkeit. Prototypische Implementierungen demonstrieren erste Einsatzzwecke des Verfahrens, zeigen die Verbes-serungen gegenüber dem bisherigen Stand auf und führen zu innovativen Nutzungskonzepten, die durch die Universalität ermöglicht werden.
Carolin Michels22014-07-04T14:00:000Frühzeitiges Erkennen von aufkommenden Themengebieten in der Wissenschaft unterstützt sowohl
Entscheidungen auf individueller als auch öffentlicher Ebene. Obwohl eine entsprechende Suche heutzutage durch die immer stärker zunehmende Digitalisierung von Publikationsdaten erleichtert wird, beschränken sich viele bestehende Verfahren auf eine retrospektive (Zitations-)Analyse der Publikationsdaten. Das Ziel der vorliegenden Arbeit war deshalb die Entwicklung eines Verfahrens, das zeitnah und neutral sogenannte „emerging topic candidates“ aus einer Menge von wissenschaftlichen Publikationen auswählt und einem Endnutzer präsentiert. Die Identifikation solcher aufkommender Themengebiete in einem frühen Entwick-lungsstadium kann insbesondere bei der Vergabe von Fördermitteln aber auch bei der – gerade in der
Forschung wichtigen Anerkennung von wissenschaftlichen Leistungen eine entscheidende Rolle spielen.
Das entwickelte System besteht aus zwei Ansätzen, die sowohl die „internen“ als auch „externen“ Eigen-schaften der Publikationen verwenden. Die externen Eigenschaften bezeichnen in diesem Zusammenhang alle Metadaten, die in den bibliometrischen Datenbanken hinterlegt sind und nicht (vollständig) von den
Autoren einer Publikation beeinflusst werden können, wie z.B. die Sichtbarkeit der veröffentlichenden Zeit-schrift. Diese externen Eigenschaften wurden in Selektionsregeln für aufkommende Themengebiete
umgesetzt.
Ein Kernstück des Ansatzes basiert jedoch auf den internen Faktoren und somit auf den Eigenschaften einer Publikation, die von den Autoren selbst bestimmt werden. Hierzu zählen insbesondere die verwendeten Terme und Referenzen einer wissenschaftlichen Publikation sowie die Autoren selbst. Ein Latent Dirichlet Allocation-Verfahren (LDA) wurde erweitert, um diese verschiedenen Eingabeformate gewichtetet in die Berechnung der Themenwahrscheinlichkeit eingehen zu lassen. Zusätzlich wurden Parameter eingeführt, die das LDA-Verfahren besonders flexibel auf die unterschiedlichen Datensätze reagieren lassen. Durch Einsatz des entwickelten Verfahrens kann der für die Selektion von neuen Themen zu sichtende Datensatz drastisch reduziert werden, während sich der darin enthaltene Anteil der Dokumente für aufkommende
Themengebiete stark erhöht.
Graduiertenkolloquium
Termin: 4 Juli 2014 14:00:00
Frühzeitiges Erkennen von aufkommenden Themengebieten in der Wissenschaft unterstützt sowohl
Entscheidungen auf individueller als auch öffentlicher Ebene. Obwohl eine entsprechende Suche heutzutage durch die immer stärker zunehmende Digitalisierung von Publikationsdaten erleichtert wird, beschränken sich viele bestehende Verfahren auf eine retrospektive (Zitations-)Analyse der Publikationsdaten. Das Ziel der vorliegenden Arbeit war deshalb die Entwicklung eines Verfahrens, das zeitnah und neutral sogenannte „emerging topic candidates“ aus einer Menge von wissenschaftlichen Publikationen auswählt und einem Endnutzer präsentiert. Die Identifikation solcher aufkommender Themengebiete in einem frühen Entwick-lungsstadium kann insbesondere bei der Vergabe von Fördermitteln aber auch bei der – gerade in der
Forschung wichtigen Anerkennung von wissenschaftlichen Leistungen eine entscheidende Rolle spielen.
Das entwickelte System besteht aus zwei Ansätzen, die sowohl die „internen“ als auch „externen“ Eigen-schaften der Publikationen verwenden. Die externen Eigenschaften bezeichnen in diesem Zusammenhang alle Metadaten, die in den bibliometrischen Datenbanken hinterlegt sind und nicht (vollständig) von den
Autoren einer Publikation beeinflusst werden können, wie z.B. die Sichtbarkeit der veröffentlichenden Zeit-schrift. Diese externen Eigenschaften wurden in Selektionsregeln für aufkommende Themengebiete
umgesetzt.
Ein Kernstück des Ansatzes basiert jedoch auf den internen Faktoren und somit auf den Eigenschaften einer Publikation, die von den Autoren selbst bestimmt werden. Hierzu zählen insbesondere die verwendeten Terme und Referenzen einer wissenschaftlichen Publikation sowie die Autoren selbst. Ein Latent Dirichlet Allocation-Verfahren (LDA) wurde erweitert, um diese verschiedenen Eingabeformate gewichtetet in die Berechnung der Themenwahrscheinlichkeit eingehen zu lassen. Zusätzlich wurden Parameter eingeführt, die das LDA-Verfahren besonders flexibel auf die unterschiedlichen Datensätze reagieren lassen. Durch Einsatz des entwickelten Verfahrens kann der für die Selektion von neuen Themen zu sichtende Datensatz drastisch reduziert werden, während sich der darin enthaltene Anteil der Dokumente für aufkommende
Themengebiete stark erhöht.
Challenges for Consuming and Mining Linked Data2014-06-10T14:00:000Significant bottlenecks and technical limitations that prevent Linked Data from realizing its maximum potential remain still open despite of the early success of the Linked Open Data initiatives. In this talk, we focus on challenges for data mining and query processing against different web-based sources. In the first part of the talk, we present the problem of predicting interactions between linked entities, and describe an unsupervised method that predicts potential new interactions from communities of similar drugs and targets that highly interact; behavior of the proposed link prediction technique is compared with respect to existing machine learning approaches. In the second part, we discuss query rewriting, source selection, and query execution in the context of Linked Data. Behavior and limitations of the proposed query processing techniques are framed in the context of Web-querying infrastructures such as federation of SPARQL endpoints. We finalize the presentation with an outlook to open issues that have to be achieved to maximize the power of updatable data sources, e.g., open and time-dependent sources, and Web APIs.
Kolloquium Angewandte Informatik
Termin: 10 Juni 2014 14:00:00
Significant bottlenecks and technical limitations that prevent Linked Data from realizing its maximum potential remain still open despite of the early success of the Linked Open Data initiatives. In this talk, we focus on challenges for data mining and query processing against different web-based sources. In the first part of the talk, we present the problem of predicting interactions between linked entities, and describe an unsupervised method that predicts potential new interactions from communities of similar drugs and targets that highly interact; behavior of the proposed link prediction technique is compared with respect to existing machine learning approaches. In the second part, we discuss query rewriting, source selection, and query execution in the context of Linked Data. Behavior and limitations of the proposed query processing techniques are framed in the context of Web-querying infrastructures such as federation of SPARQL endpoints. We finalize the presentation with an outlook to open issues that have to be achieved to maximize the power of updatable data sources, e.g., open and time-dependent sources, and Web APIs.
Challenges for Consuming and Mining Linked Data22014-06-10T14:00:000Abstract
Significant bottlenecks and technical limitations that prevent Linked Data from realizing its maximum poten-tial remain still open despite of the early success of the Linked Open Data initiatives. In this talk, we focus on challenges for data mining and query processing against different web-based sources. In the first part of the talk, we present the problem of predicting interactions between linked entities, and describe an unsupervised method that predicts potential new interactions from communities of similar drugs and targets that highly interact; behavior of the proposed link prediction technique is compared with respect to existing machine learning approaches. In the second part, we discuss query rewriting, source selection, and query execution in the context of Linked Data. Behavior and limitations of the proposed query processing techniques are framed in the context of Web-querying infrastructures such as federation of SPARQL endpoints. We finalize the presentation with an outlook to open issues that have to be achieved to maximize the power of updatable data sources, e.g., open and time-dependent sources, and Web APIs.
Speaker Bio
Marıa-Esther Vidal is a Full Professor of the Computer Science Department and Dean Assistant for
Research on Applied Science and Engineering at the Universidad Simón Bolívar, Caracas, Venezuela.
Her research in information management covers information integration, federated databases, graph data management, Linked Open Data and the Semantic Web. Maria-Esther has addressed some of the most important challenges in selecting and modeling sources, rewriting queries, cost based optimization, graph query processing and optimization, benchmarks for federated SPARQL query processing, etc. Her proposed strategies have had significant impact from the early days of information integration in the Web, in the late 90s, to the emergence of the Semantic Web and SPARQL endpoints, to the more recent successes of Linked Open Data. She has published her research results in the premier conferences and journals in Database Management, Artificial Intelligence, and the Semantic Web.
Kolloquium Angewandte Informatik
Termin: 10 Juni 2014 14:00:00
Abstract
Significant bottlenecks and technical limitations that prevent Linked Data from realizing its maximum poten-tial remain still open despite of the early success of the Linked Open Data initiatives. In this talk, we focus on challenges for data mining and query processing against different web-based sources. In the first part of the talk, we present the problem of predicting interactions between linked entities, and describe an unsupervised method that predicts potential new interactions from communities of similar drugs and targets that highly interact; behavior of the proposed link prediction technique is compared with respect to existing machine learning approaches. In the second part, we discuss query rewriting, source selection, and query execution in the context of Linked Data. Behavior and limitations of the proposed query processing techniques are framed in the context of Web-querying infrastructures such as federation of SPARQL endpoints. We finalize the presentation with an outlook to open issues that have to be achieved to maximize the power of updatable data sources, e.g., open and time-dependent sources, and Web APIs.
Speaker Bio
Marıa-Esther Vidal is a Full Professor of the Computer Science Department and Dean Assistant for
Research on Applied Science and Engineering at the Universidad Simón Bolívar, Caracas, Venezuela.
Her research in information management covers information integration, federated databases, graph data management, Linked Open Data and the Semantic Web. Maria-Esther has addressed some of the most important challenges in selecting and modeling sources, rewriting queries, cost based optimization, graph query processing and optimization, benchmarks for federated SPARQL query processing, etc. Her proposed strategies have had significant impact from the early days of information integration in the Web, in the late 90s, to the emergence of the Semantic Web and SPARQL endpoints, to the more recent successes of Linked Open Data. She has published her research results in the premier conferences and journals in Database Management, Artificial Intelligence, and the Semantic Web.
Christian Hennig22016-11-30T15:45:000Abstract:
The principle of Systems Engineering has been established as an important approach in ensuring the successful design of complex systems, such as automobiles, airplanes, or spacecraft. During the last years, Systems Engineering activities have become more and more model-based, utilizing a digital rep-resentation of the system to be designed as point of origin for performing engineering activities.
However, the models and processes revolving around these digital system representations still exhibit numerous shortcomings. On the one hand, the content of the Conceptual Data Models (CDMs) used in this process neglects to address a number of aspects. On the other hand, the processes used to design these CDMs are rather established ad-hoc and have not yet become to genuine engineering activities. Furthermore, the semantics underlying the data represented by the System Models are more oriented towards implementation, and less towards actual domain semantics, falling short of fully ex-ploiting available engineering data. In order to improve these aspects of the Model-Based Systems Engineering (MBSE) process, an improvement on the underlying specification language can be made. For this purpose, the usage of OWL 2 ontologies in conjunction with an object-oriented description of system data is proposed. The ontological part of the system model enables a semantically strong defi-nition of system design data, also enabling classification and inference, while the object-oriented part retains the ability to perform consistency checks and closed world queries. Furthermore, an improve-ment on the methodology of the underlying data specification can be made by providing a model de-sign process that derives the CDM directly from elementary facts of the domain to be modeled, using specific guidelines to ensure model exhaustiveness, and using sample facts for CDM validation.
This talk elaborates on the semantic shortcomings of current engineering data descriptions, the im-provements made, and what possibilities these open up for fully exploiting available engineering data. Furthermore, the fundamental implications between having an object-oriented system model and hav-ing an ontological system model are discussed, elaborating on what use cases a more semantic repre-sentation of engineering data opens up in the domain of space system design. In addition, an answer will be provided towards the question of which engineering problems are best solved in an object-oriented setting, and which are better suited to be solved in the ontological world.
Graduiertenkolloquium
Termin: 30 November 2016 15:45:00
Abstract:
The principle of Systems Engineering has been established as an important approach in ensuring the successful design of complex systems, such as automobiles, airplanes, or spacecraft. During the last years, Systems Engineering activities have become more and more model-based, utilizing a digital rep-resentation of the system to be designed as point of origin for performing engineering activities.
However, the models and processes revolving around these digital system representations still exhibit numerous shortcomings. On the one hand, the content of the Conceptual Data Models (CDMs) used in this process neglects to address a number of aspects. On the other hand, the processes used to design these CDMs are rather established ad-hoc and have not yet become to genuine engineering activities. Furthermore, the semantics underlying the data represented by the System Models are more oriented towards implementation, and less towards actual domain semantics, falling short of fully ex-ploiting available engineering data. In order to improve these aspects of the Model-Based Systems Engineering (MBSE) process, an improvement on the underlying specification language can be made. For this purpose, the usage of OWL 2 ontologies in conjunction with an object-oriented description of system data is proposed. The ontological part of the system model enables a semantically strong defi-nition of system design data, also enabling classification and inference, while the object-oriented part retains the ability to perform consistency checks and closed world queries. Furthermore, an improve-ment on the methodology of the underlying data specification can be made by providing a model de-sign process that derives the CDM directly from elementary facts of the domain to be modeled, using specific guidelines to ensure model exhaustiveness, and using sample facts for CDM validation.
This talk elaborates on the semantic shortcomings of current engineering data descriptions, the im-provements made, and what possibilities these open up for fully exploiting available engineering data. Furthermore, the fundamental implications between having an object-oriented system model and hav-ing an ontological system model are discussed, elaborating on what use cases a more semantic repre-sentation of engineering data opens up in the domain of space system design. In addition, an answer will be provided towards the question of which engineering problems are best solved in an object-oriented setting, and which are better suited to be solved in the ontological world.
Christian Hentschel2018-01-12T14:00:000Visual Concept Detection describes the process of automatically classifying images and video based on the depicted visual content. This talk will start by comparing different approaches for vis-ual concept detection, namely Bag-of-Visual-Words and Deep Convolutional Neural Networks (CNN). Bag-of-Visual-Words methods represented the de facto standard until CNNs emerged, backed by highly parallel hardware as well as large training datasets.
The talk will present the impact of the available amount of training data on the classification perfor-mance as achieved by the individual approaches. Furthermore, techniques for model visualization will be presented. Non-linear models suffer from the lack of interpretability. The presented visualiza-tion methods help to qualitatively compare visual concept models by highlighting image regions considered important for the final classification decision.
Finally, the talk will address the problem of leveraging social photo communities in order to increase the amount of available training data without additional manual labeling efforts. A social community language model will be presented as well as an outlook for multi-modal retrieval.
Graduiertenkolloquium
Termin: 12 Januar 2018 14:00:00
Visual Concept Detection describes the process of automatically classifying images and video based on the depicted visual content. This talk will start by comparing different approaches for vis-ual concept detection, namely Bag-of-Visual-Words and Deep Convolutional Neural Networks (CNN). Bag-of-Visual-Words methods represented the de facto standard until CNNs emerged, backed by highly parallel hardware as well as large training datasets.
The talk will present the impact of the available amount of training data on the classification perfor-mance as achieved by the individual approaches. Furthermore, techniques for model visualization will be presented. Non-linear models suffer from the lack of interpretability. The presented visualiza-tion methods help to qualitatively compare visual concept models by highlighting image regions considered important for the final classification decision.
Finally, the talk will address the problem of leveraging social photo communities in order to increase the amount of available training data without additional manual labeling efforts. A social community language model will be presented as well as an outlook for multi-modal retrieval.
Christian Hirsch22015-03-06T14:00:000Bedingt durch die Energiewende wird vermehrt Strom aus erneuerbaren Quellen erzeugt. Der Trend hin zu dezentraler, volatiler Stromerzeugung führt jedoch schon heute zu Engpässen in Stromnetzen. Eine Lösung für diese Problematik verspricht die informationstechnische Vernetzung und Steuerung von Stromverbrauchern, Stromerzeugern sowie Speichern in sogenannten Smart Grids.
Neue Energiemanagement-Ansätze und die steigende Zahl der zu steuernden heterogenen Subsysteme erfordern geeignete Systemarchitekturen sowie intelligente Steuermethoden. Im Vortrag wird zunächst eine generische hierarchische Architektur für Energiemanagement-Systeme vorgestellt. Diese basiert auf der Observer/Controller-Architektur des Organic Computing und integriert diverse zeitliche, räumliche und strukturelle Ebenen der Steuerung.
Den Kern des Vortrags bildet die Darstellung einer Instanziierung dieser Architektur anhand der Regelung des Leistungsprofils eines simulierten Niederspannungsnetzes, welches aus intelligenten Erzeugern und Verbrauchern besteht, die in der Lage sind, einen Teil ihrer elektrischen Leistung zeitlich zu verlagern. Hierfür wird ein mathematisches Optimierungsproblem formuliert und mittels Genetischer Algorithmen unter Berücksichtigung von Netzrestriktionen gelöst. In diesem Szenario können die Erzeuger und Verbraucher autonom handeln, müssen jedoch im Rahmen der Optimierung Leistungsprognosen aufstellen. Es wird gezeigt, dass mit dem vorgestellten Ansatz das Leistungsprofil des Netzes an ein vorgegebenes Profil angepasst werden kann, ohne das Netz physikalisch zu überlasten. Um auch Verbraucher in der Optimierung zu berücksichtigen, die nicht in der Lage sind, ihren Strombedarf vorherzusagen, werden außerdem die Ergebnisse eines Vergleichs verschiedener Verfahren zur Lastprognose auf Basis von intelligenten Stromzählern vorgestellt.
Graduiertenkolloquium
Termin: 6 März 2015 14:00:00
Bedingt durch die Energiewende wird vermehrt Strom aus erneuerbaren Quellen erzeugt. Der Trend hin zu dezentraler, volatiler Stromerzeugung führt jedoch schon heute zu Engpässen in Stromnetzen. Eine Lösung für diese Problematik verspricht die informationstechnische Vernetzung und Steuerung von Stromverbrauchern, Stromerzeugern sowie Speichern in sogenannten Smart Grids.
Neue Energiemanagement-Ansätze und die steigende Zahl der zu steuernden heterogenen Subsysteme erfordern geeignete Systemarchitekturen sowie intelligente Steuermethoden. Im Vortrag wird zunächst eine generische hierarchische Architektur für Energiemanagement-Systeme vorgestellt. Diese basiert auf der Observer/Controller-Architektur des Organic Computing und integriert diverse zeitliche, räumliche und strukturelle Ebenen der Steuerung.
Den Kern des Vortrags bildet die Darstellung einer Instanziierung dieser Architektur anhand der Regelung des Leistungsprofils eines simulierten Niederspannungsnetzes, welches aus intelligenten Erzeugern und Verbrauchern besteht, die in der Lage sind, einen Teil ihrer elektrischen Leistung zeitlich zu verlagern. Hierfür wird ein mathematisches Optimierungsproblem formuliert und mittels Genetischer Algorithmen unter Berücksichtigung von Netzrestriktionen gelöst. In diesem Szenario können die Erzeuger und Verbraucher autonom handeln, müssen jedoch im Rahmen der Optimierung Leistungsprognosen aufstellen. Es wird gezeigt, dass mit dem vorgestellten Ansatz das Leistungsprofil des Netzes an ein vorgegebenes Profil angepasst werden kann, ohne das Netz physikalisch zu überlasten. Um auch Verbraucher in der Optimierung zu berücksichtigen, die nicht in der Lage sind, ihren Strombedarf vorherzusagen, werden außerdem die Ergebnisse eines Vergleichs verschiedener Verfahren zur Lastprognose auf Basis von intelligenten Stromzählern vorgestellt.
Cii Completed Theses April 20192019-04-16T15:00:000This month we will have the following presentations on completed theses supervised by the cii research group.
The presentations will take place on Tuesday, April 16, 2019:
title: Design and Prototypical Evaluation of a Blockchain-Based System for the Storage of Electronic Medical Records
presenter: Patrick Frey
time: 15:00 Uhr
place: room 1A-11
abstract: The demographic change poses significant challenges to the healthcare ecosystem. One challenge is the rising average age of the world's population. This results in a larger number of patients. To counteract this trend, it is important to maintain or even improve the quality of individual care while handling a higher number of patients. This improvement can be supported by providing access to the patients' Electronic Medical Records (EMR). However, these records are only available in fragmented form on data silos of healthcare providers. The objective of this study is to build a system design which creates a common data basis and thus dissolves the existing data silos. With the use of Blockchain Technology (BCT) and a distributed file system, a unique possibility is offered to support a trustful interaction in an ecosystem by providing characteristics like decentralization, transparency, immutability, and pseudonymity. A decentralized application controls the interaction of the components and acts as an interface for the user. Through the user-friendly interface, EMR can be stored as well as accessed by stakeholders in the healthcare ecosystem. For the creation of the system design, requirements are recorded and a suitable BCT protocol is selected. The proposed system design provides a common data basis that ensures privacy, security, reliability, and accountability. It enables a faster processing time for EMR sharing and improves decision making for stakeholders. A prototype is implemented demonstrating the technical feasibility of the system design.
title: A Qualitative Analysis of GDPR-related Issues and Compliance Practices in German Public Offices
presenter: Stefan Mill
time: 15:30 Uhr
place: room 1A-11
abstract: Data protection is one of the central topics of our society as the digitalization of our daily lives proceeds. However, discussions about data protection in theory and practice often only refer to the technological giants and social networks of our time. The public sector, its issues and practices with regard to data protection is widely ignored. Even the research community is rather restrained with respect to this specific field. Even with the considerable peak of interest in May 2018, caused by the GDPR, the data protection within the public sector, again, did not benefit.
This master thesis focuses on this lack in research. Using an exploratory approach, interviews with data protection officers of municipal public offices has been conducted in the months following the introduction of the GDPR. The sample comprises a total of 18 data sets, collected from cities from of all sizes all states of Germany. Based on this study, the thesis summarizes the main statements, issues and solution approaches with regard to general data protection and the implementation of the GDPR in four dimensions: organization, culture, context, and legislation. Using the central insights of every dimension, it discusses the main relations of themes as well as the relevance of personnel resources and the data protection practices in the past. The thesis provides suggestions for practitioners and works out potential areas for further research for fellow scientists.
Vortrag
Termin: 16 April 2019 15:00:00
This month we will have the following presentations on completed theses supervised by the cii research group.
The presentations will take place on Tuesday, April 16, 2019:
title: Design and Prototypical Evaluation of a Blockchain-Based System for the Storage of Electronic Medical Records
presenter: Patrick Frey
time: 15:00 Uhr
place: room 1A-11
abstract: The demographic change poses significant challenges to the healthcare ecosystem. One challenge is the rising average age of the world's population. This results in a larger number of patients. To counteract this trend, it is important to maintain or even improve the quality of individual care while handling a higher number of patients. This improvement can be supported by providing access to the patients' Electronic Medical Records (EMR). However, these records are only available in fragmented form on data silos of healthcare providers. The objective of this study is to build a system design which creates a common data basis and thus dissolves the existing data silos. With the use of Blockchain Technology (BCT) and a distributed file system, a unique possibility is offered to support a trustful interaction in an ecosystem by providing characteristics like decentralization, transparency, immutability, and pseudonymity. A decentralized application controls the interaction of the components and acts as an interface for the user. Through the user-friendly interface, EMR can be stored as well as accessed by stakeholders in the healthcare ecosystem. For the creation of the system design, requirements are recorded and a suitable BCT protocol is selected. The proposed system design provides a common data basis that ensures privacy, security, reliability, and accountability. It enables a faster processing time for EMR sharing and improves decision making for stakeholders. A prototype is implemented demonstrating the technical feasibility of the system design.
title: A Qualitative Analysis of GDPR-related Issues and Compliance Practices in German Public Offices
presenter: Stefan Mill
time: 15:30 Uhr
place: room 1A-11
abstract: Data protection is one of the central topics of our society as the digitalization of our daily lives proceeds. However, discussions about data protection in theory and practice often only refer to the technological giants and social networks of our time. The public sector, its issues and practices with regard to data protection is widely ignored. Even the research community is rather restrained with respect to this specific field. Even with the considerable peak of interest in May 2018, caused by the GDPR, the data protection within the public sector, again, did not benefit.
This master thesis focuses on this lack in research. Using an exploratory approach, interviews with data protection officers of municipal public offices has been conducted in the months following the introduction of the GDPR. The sample comprises a total of 18 data sets, collected from cities from of all sizes all states of Germany. Based on this study, the thesis summarizes the main statements, issues and solution approaches with regard to general data protection and the implementation of the GDPR in four dimensions: organization, culture, context, and legislation. Using the central insights of every dimension, it discusses the main relations of themes as well as the relevance of personnel resources and the data protection practices in the past. The thesis provides suggestions for practitioners and works out potential areas for further research for fellow scientists.
Coalition-Flow Networks: Generalised Network Flows for Coalition Games2010-11-19T14:00:000In this talk we detail a Generalised Network Flow representation for Coalition Games, CF-NETs. Specific
ally, this representation is based on the observation that the coalition formation process can be viewed as the problem of directing the flow through a network where every edge has certain capacity constraints. We show that our new way of representing this process is intuitive, fully expressive, and allows for representing certain patterns in a significantly more concise manner compared to the conventional approach. Furthermore, we show that CF-NETs have the capability to represent
different classes of games, namely characteristic function games, coalitional games with overlapping coalitions, and coalitional games with identical agents.
Kolloquium Angewandte Informatik
Termin: 19 November 2010 14:00:00
In this talk we detail a Generalised Network Flow representation for Coalition Games, CF-NETs. Specific
ally, this representation is based on the observation that the coalition formation process can be viewed as the problem of directing the flow through a network where every edge has certain capacity constraints. We show that our new way of representing this process is intuitive, fully expressive, and allows for representing certain patterns in a significantly more concise manner compared to the conventional approach. Furthermore, we show that CF-NETs have the capability to represent
different classes of games, namely characteristic function games, coalitional games with overlapping coalitions, and coalitional games with identical agents.
Compliance Management für Geschäftsprozesse2015-05-29T14:00:000Eine Reihe von zu Beginn dieses Jahrtausends an die Öffentlichkeit gelangter Unternehmensskandale führte zur Einführung verschiedener Gesetze und Richtlinien, wie dem Sarbanes-Oxley Act (SOX) oder Basel I-III. In der Folge mussten Unternehmen zahlreiche Maßnahmen ergreifen, um eine verbesserte Kontrolle ihrer Geschäftsprozesse, insbesondere im Hinblick auf die Einhaltung der Gesetze und Richtlinien, sicherzustel-len. Dabei ist in einem IT-zentrierten Umfeld die Umsetzung der an Zahl und Komplexität gestiegenen
regulatorischen sowie unternehmensinternen Anforderungen zunehmend kritisch für den Unternehmenserfolg geworden.
Im Rahmen des Vortrags werden aufbauend auf den Grundlagen von Governance, Risk & Compliance (GRC) ein musterbasierter Ansatz zur semiformalen Spezifikation von Compliance-Regeln hergeleitet sowie verschiedene generische Regeln identifiziert und beschrieben. Mit dem Business Process Compliance Ma-nagement Model wird ein konzeptuelles Modell präsentiert, das in der Folge als Basis für die Konzeption und Umsetzung einer informationstechnologischen Unterstützung des Compliance Managements verwendet wird. Im Anschluss werden verwandte Arbeiten zur Compliance-Prüfung von Geschäftsprozessen vorgestellt und es wird auf die Ereignisprotokollierung im Kontext von Geschäftsprozessen eingegangen. Mit dem
eXtensible Event Stream (XES) wird ein offener, XML-basierter Standard zur Aufzeichnung und Speicherung von Ereignisdaten vorgestellt. Darauf aufbauend wird ein neuer Ansatz präsentiert, der eine effiziente Comp-liance-Prüfung von Geschäftsprozessen basierend auf den in XES-Ereignisprotokollen gespeicherten
Ereignisdaten ermöglicht. Hierzu werden die zuvor spezifizierten, semiformalen Compliance-Regeln in parametrisierbare XQuery-Ausdrücke überführt. Neben der XES Process Compliance Library, die eine
Referenzimplementierung des zuvor präsentierten Ansatzes zur Compliance-Prüfung von Geschäftsprozes-sen darstellt, wird eine Erweiterung für ein Geschäftsprozessmanagement und -modellierungswerkzeug vorgestellt, die verschiedene Funktionalitäten zur Verwaltung von Compliance-Anforderungen, -Kontrollen und -Regeln sowie zur Durchführung von Compliance-Audits zur Verfügung stellt (Process Compliance
Manager). Darüber hinaus wird ein webbasiertes Process Compliance Dashboard präsentiert, das eine
Aufbereitung und Darstellung sowie interaktive Analyse der Auditergebnisse erlaubt. Anhand eines Anwen-dungsbeispiels werden der Ansatz sowie die Leistungsfähigkeit der Referenzimplementierung evaluiert. Der Vortrag schließt mit einer kritischen Diskussion und es wird ein Ausblick auf zukünftige Forschungsarbeiten gegeben.
Graduiertenkolloquium
Termin: 29 Mai 2015 14:00:00
Eine Reihe von zu Beginn dieses Jahrtausends an die Öffentlichkeit gelangter Unternehmensskandale führte zur Einführung verschiedener Gesetze und Richtlinien, wie dem Sarbanes-Oxley Act (SOX) oder Basel I-III. In der Folge mussten Unternehmen zahlreiche Maßnahmen ergreifen, um eine verbesserte Kontrolle ihrer Geschäftsprozesse, insbesondere im Hinblick auf die Einhaltung der Gesetze und Richtlinien, sicherzustel-len. Dabei ist in einem IT-zentrierten Umfeld die Umsetzung der an Zahl und Komplexität gestiegenen
regulatorischen sowie unternehmensinternen Anforderungen zunehmend kritisch für den Unternehmenserfolg geworden.
Im Rahmen des Vortrags werden aufbauend auf den Grundlagen von Governance, Risk & Compliance (GRC) ein musterbasierter Ansatz zur semiformalen Spezifikation von Compliance-Regeln hergeleitet sowie verschiedene generische Regeln identifiziert und beschrieben. Mit dem Business Process Compliance Ma-nagement Model wird ein konzeptuelles Modell präsentiert, das in der Folge als Basis für die Konzeption und Umsetzung einer informationstechnologischen Unterstützung des Compliance Managements verwendet wird. Im Anschluss werden verwandte Arbeiten zur Compliance-Prüfung von Geschäftsprozessen vorgestellt und es wird auf die Ereignisprotokollierung im Kontext von Geschäftsprozessen eingegangen. Mit dem
eXtensible Event Stream (XES) wird ein offener, XML-basierter Standard zur Aufzeichnung und Speicherung von Ereignisdaten vorgestellt. Darauf aufbauend wird ein neuer Ansatz präsentiert, der eine effiziente Comp-liance-Prüfung von Geschäftsprozessen basierend auf den in XES-Ereignisprotokollen gespeicherten
Ereignisdaten ermöglicht. Hierzu werden die zuvor spezifizierten, semiformalen Compliance-Regeln in parametrisierbare XQuery-Ausdrücke überführt. Neben der XES Process Compliance Library, die eine
Referenzimplementierung des zuvor präsentierten Ansatzes zur Compliance-Prüfung von Geschäftsprozes-sen darstellt, wird eine Erweiterung für ein Geschäftsprozessmanagement und -modellierungswerkzeug vorgestellt, die verschiedene Funktionalitäten zur Verwaltung von Compliance-Anforderungen, -Kontrollen und -Regeln sowie zur Durchführung von Compliance-Audits zur Verfügung stellt (Process Compliance
Manager). Darüber hinaus wird ein webbasiertes Process Compliance Dashboard präsentiert, das eine
Aufbereitung und Darstellung sowie interaktive Analyse der Auditergebnisse erlaubt. Anhand eines Anwen-dungsbeispiels werden der Ansatz sowie die Leistungsfähigkeit der Referenzimplementierung evaluiert. Der Vortrag schließt mit einer kritischen Diskussion und es wird ein Ausblick auf zukünftige Forschungsarbeiten gegeben.
Creating Learning Material from Web Resources2018-10-19T14:00:000The creation and maintenance of digital learning material is time consuming and labor-intense. Educators and instructors have to invest a lot of effort and knowledge in order to design and as-semble electronic courses that can be delivered to learners independently from location and time.
However, experience has shown that especially in assessment situations learners are not always satisfied with the provided material in e-learning systems and rather turn to general Web resources for help.
However, searching for additional learning material on the Web might lead to distraction from the learning task and to abandonment of the assessment eventually.
Embedding appropriate Web resources on a technical and semantic level might provide a solution to this problem. In order to do so, we need to provide metadata about the content as well as of educational characteristics. Such data is essential to enable integration and interoperability of rele-vant material in the right context. Furthermore, we have to deliver that material in a format that makes Web-based integration also technically feasible.
In this talk we propose an approach that transforms general Web resources into so-called Linked Learning Items (LLI). These Linked Learning Items can be integrated into learning management systems (LMS) and serve as additional learning resources available to learners for studying and assisting with assignments.
Kolloquium Angewandte Informatik
Termin: 19 Oktober 2018 14:00:00
The creation and maintenance of digital learning material is time consuming and labor-intense. Educators and instructors have to invest a lot of effort and knowledge in order to design and as-semble electronic courses that can be delivered to learners independently from location and time.
However, experience has shown that especially in assessment situations learners are not always satisfied with the provided material in e-learning systems and rather turn to general Web resources for help.
However, searching for additional learning material on the Web might lead to distraction from the learning task and to abandonment of the assessment eventually.
Embedding appropriate Web resources on a technical and semantic level might provide a solution to this problem. In order to do so, we need to provide metadata about the content as well as of educational characteristics. Such data is essential to enable integration and interoperability of rele-vant material in the right context. Furthermore, we have to deliver that material in a format that makes Web-based integration also technically feasible.
In this talk we propose an approach that transforms general Web resources into so-called Linked Learning Items (LLI). These Linked Learning Items can be integrated into learning management systems (LMS) and serve as additional learning resources available to learners for studying and assisting with assignments.
Daniel Pathmaperuma 22014-05-28T15:45:000Im Jahr 2012 verwendeten Endverbraucher in Deutschland 607 TWh Strom. 76,4% davon stammten dabei aus nicht-regenerativen Quellen und verursachten einen Ausstoß von 317 Mio. Tonnen treibhauswirksamem CO2. Die deutsche Energiewende sieht langfristig eine Abkehr von nicht-regenerativen Energiequellen wie Atomkraft, Kohle, Gas und Öl vor. Dies führte zu einem Boom beim Ausbau erneuerbarer Energiequellen, vornehmlich Wind- und Photovoltaikanlagen, die sich in den vergangenen 13 Jahren von 6,4 GW (2000) auf 67,9 GW (2013) installierter Leistung etwa verzehnfachten. Dabei verstärkt der fortschreitende Ausbau die Probleme, die durch die Unstetigkeit und schlechte Steuerbarkeit dieser Stromquellen entstehen.
Ein Ansatz, diesen Problemen zu begegnen, ist die Steuerung des Verbrauchs. Private Haushalte haben in Deutschland einen Anteil von ca. 27% am Netto-Stromverbrauch. Da Haushalte – im Gegensatz zu Indust-rieanlagen – prinzipiell eine ähnliche Verbraucherstruktur haben, lassen sich Verfahren zur Laststeuerung hier leicht auf eine große Anzahl von Teilnehmern übertragen.
Für die Laststeuerung sind Zuverlässigkeit und Vorhersagbarkeit von entscheidender Bedeutung. Beides kann durch ein hohes Maß an Automatisierung erreicht werden. Ein Beispiel für einen solchen automatisier-ten Haushalt ist das Energy Smart Home Lab (ESHL) des KIT. Hier wurden bereits verschiedene Verfahren zur intelligenten Energiesteuerung umgesetzt. Wie beim Ausbau des schnellen Internets ergibt sich jedoch auch hier in der Realität das Problem der letzten Meile: der größte Teil der Komponenten in deutschen Haushalten verfügt nicht über die Infrastruktur, die eine solche Automatisierung ermöglichen würde.
Wenn man das technisch hochintegrierte, feingranulare und teure ESHL als Aufwandsobergrenze
betrachten möchte, so stellt diese Arbeit einen Versuch dar, eine Untergrenze zu finden, mit der ein Lastma-nagement in Haushalten möglich ist. Im Vortrag wird ein System vorgestellt, welches helfen kann, diese letzte Meile zu überbrücken und so eine Teilnahme möglichst vieler Haushalte an modernen Methoden der Energiesteuerung zu ermöglichen. Hierzu zählen die Prognose von Nutzerverhalten, aufbauend auf der
automatischen Erkennung und Klassifikation von Profilen, ebenso wie die vorrausschauende Optimierung von elektrischen Lasten und die effiziente Kommunikation potentieller Optimierungsmaßnahmen an die
Nutzer.
Den Kern hierzu bilden kostengünstige Hardwaresysteme, die mit minimalem Aufwand – auch von Laien – in bestehenden Haushalten nachgerüstet werden können. So werden auch Nicht-Fachleute in die Lage versetzt, auf einfache Art Lastverlagerungsmethoden umzusetzen. Die vorgestellten Verfahren werden anhand von Beispielen aus einem laufenden Feldtest illustriert.
Graduiertenkolloquium
Termin: 28 Mai 2014 15:45:00
Im Jahr 2012 verwendeten Endverbraucher in Deutschland 607 TWh Strom. 76,4% davon stammten dabei aus nicht-regenerativen Quellen und verursachten einen Ausstoß von 317 Mio. Tonnen treibhauswirksamem CO2. Die deutsche Energiewende sieht langfristig eine Abkehr von nicht-regenerativen Energiequellen wie Atomkraft, Kohle, Gas und Öl vor. Dies führte zu einem Boom beim Ausbau erneuerbarer Energiequellen, vornehmlich Wind- und Photovoltaikanlagen, die sich in den vergangenen 13 Jahren von 6,4 GW (2000) auf 67,9 GW (2013) installierter Leistung etwa verzehnfachten. Dabei verstärkt der fortschreitende Ausbau die Probleme, die durch die Unstetigkeit und schlechte Steuerbarkeit dieser Stromquellen entstehen.
Ein Ansatz, diesen Problemen zu begegnen, ist die Steuerung des Verbrauchs. Private Haushalte haben in Deutschland einen Anteil von ca. 27% am Netto-Stromverbrauch. Da Haushalte – im Gegensatz zu Indust-rieanlagen – prinzipiell eine ähnliche Verbraucherstruktur haben, lassen sich Verfahren zur Laststeuerung hier leicht auf eine große Anzahl von Teilnehmern übertragen.
Für die Laststeuerung sind Zuverlässigkeit und Vorhersagbarkeit von entscheidender Bedeutung. Beides kann durch ein hohes Maß an Automatisierung erreicht werden. Ein Beispiel für einen solchen automatisier-ten Haushalt ist das Energy Smart Home Lab (ESHL) des KIT. Hier wurden bereits verschiedene Verfahren zur intelligenten Energiesteuerung umgesetzt. Wie beim Ausbau des schnellen Internets ergibt sich jedoch auch hier in der Realität das Problem der letzten Meile: der größte Teil der Komponenten in deutschen Haushalten verfügt nicht über die Infrastruktur, die eine solche Automatisierung ermöglichen würde.
Wenn man das technisch hochintegrierte, feingranulare und teure ESHL als Aufwandsobergrenze
betrachten möchte, so stellt diese Arbeit einen Versuch dar, eine Untergrenze zu finden, mit der ein Lastma-nagement in Haushalten möglich ist. Im Vortrag wird ein System vorgestellt, welches helfen kann, diese letzte Meile zu überbrücken und so eine Teilnahme möglichst vieler Haushalte an modernen Methoden der Energiesteuerung zu ermöglichen. Hierzu zählen die Prognose von Nutzerverhalten, aufbauend auf der
automatischen Erkennung und Klassifikation von Profilen, ebenso wie die vorrausschauende Optimierung von elektrischen Lasten und die effiziente Kommunikation potentieller Optimierungsmaßnahmen an die
Nutzer.
Den Kern hierzu bilden kostengünstige Hardwaresysteme, die mit minimalem Aufwand – auch von Laien – in bestehenden Haushalten nachgerüstet werden können. So werden auch Nicht-Fachleute in die Lage versetzt, auf einfache Art Lastverlagerungsmethoden umzusetzen. Die vorgestellten Verfahren werden anhand von Beispielen aus einem laufenden Feldtest illustriert.
Darko Anicic2011-10-05T15:45:000Event Processing (EP) is concerned with detection of near real time situations that are of a particular
business interest. We face today a paradigm shift toward the real time information processing, and EP has therefore spawned significant attention in science and technology. Due to omnipresence of events, EP is becoming a central aspect of new distributed systems such as cloud computing and grid systems, mobile and sensor-based systems, as well as a number of application areas including financial services, business intelligence, social and collaborative networking, click stream analysis and many others.
However, there are a number of issues to be considered in order to enable effective event-based computa-tion. A language for describing event patterns needs to feature a well-defined semantics. It also needs to be rich enough to express important classes of event patterns. Pattern matching should be supported in both, query-driven and event-driven modes. A number of other event operations, such as event aggregation, filter-ing, translation, enrichment and splitting, should be supported too. Since EP is a real time processing task, an EP language needs to feature an efficient execution model. Finally, processing only events is not suffi-cient in many applications. To detect complex situations of interest, EP needs to be enhanced by back-ground knowledge. This knowledge captures the domain of interest. Its purpose is to be evaluated during detection of events in order to on the fly enrich events with relevant background information; to detect more complex situations; to reason about events and propose certain intelligent recommendations; or to accom-plish event classification, clustering, filtering and so forth.
We present the ETALIS Language for Events (ELE), which is a declarative rule-based language for EP. It supports the above mentioned features, and goes beyond the state of the art by providing stream reasoning capabilities. In this work, we identify requirements for modern EP systems. Then we present ELE as a novel expressive formalism that fulfils these requirements. Further on, we show how deductive stream reasoning capabilities of ELE, together with its EP capabilities, have the potential to provide powerful real time intelligence. We give a few extensions of the core ELE. We provide a prototype implementation of the language, and present evaluation results for a few implemented scenarios. Finally, we summarise the results of this work and outline our view of the emerging future work.
Graduiertenkolloquium
Termin: 5 Oktober 2011 15:45:00
Event Processing (EP) is concerned with detection of near real time situations that are of a particular
business interest. We face today a paradigm shift toward the real time information processing, and EP has therefore spawned significant attention in science and technology. Due to omnipresence of events, EP is becoming a central aspect of new distributed systems such as cloud computing and grid systems, mobile and sensor-based systems, as well as a number of application areas including financial services, business intelligence, social and collaborative networking, click stream analysis and many others.
However, there are a number of issues to be considered in order to enable effective event-based computa-tion. A language for describing event patterns needs to feature a well-defined semantics. It also needs to be rich enough to express important classes of event patterns. Pattern matching should be supported in both, query-driven and event-driven modes. A number of other event operations, such as event aggregation, filter-ing, translation, enrichment and splitting, should be supported too. Since EP is a real time processing task, an EP language needs to feature an efficient execution model. Finally, processing only events is not suffi-cient in many applications. To detect complex situations of interest, EP needs to be enhanced by back-ground knowledge. This knowledge captures the domain of interest. Its purpose is to be evaluated during detection of events in order to on the fly enrich events with relevant background information; to detect more complex situations; to reason about events and propose certain intelligent recommendations; or to accom-plish event classification, clustering, filtering and so forth.
We present the ETALIS Language for Events (ELE), which is a declarative rule-based language for EP. It supports the above mentioned features, and goes beyond the state of the art by providing stream reasoning capabilities. In this work, we identify requirements for modern EP systems. Then we present ELE as a novel expressive formalism that fulfils these requirements. Further on, we show how deductive stream reasoning capabilities of ELE, together with its EP capabilities, have the potential to provide powerful real time intelligence. We give a few extensions of the core ELE. We provide a prototype implementation of the language, and present evaluation results for a few implemented scenarios. Finally, we summarise the results of this work and outline our view of the emerging future work.
Data Mining and Information Extraction Methods for Large-Scale High-Quality Representations of Scientific Publications2023-10-27T14:00:000Machine-readable representations of scientific publication corpora are the foundation of vital digital sys-tems in academia. They capture information about publication contents as well as their interconnections, thereby enabling, informing, and accelerating processes such as academic search, decision making, and large-scale bibliographic analyses. As such, they are key to mitigating the challenges caused by the ev-er-increasing rate of publication and progress in academia. Especially disciplines of current focus, such as the rapidly evolving area of machine learning, can therefore benefit from improved digital records of the scientific progress. However, current research based on scientific publication corpora, such as the training and evaluation of machine learning models as well as bibliographic analyses, are based on limited data. Specifically, the volume, completeness, correctness, and granularity of publication representations used are limited. For example, only abstracts are considered instead of full-texts, or corpora with highly incomplete citation networks are used. As a consequence, the results and conclusions drawn from evaluations and analyses are of limited validity.
To address these issues, we present a set of data representation and information extraction approaches that enable the creation of machine-readable publication corpora more extensive, more complete, less noisy, and of finer granularity than previously available. In particular, we present the following. As the foundation of our research, we introduce unarXive, a large-scale data set comprising the full-text and citation network of over 1 million publications. Utilizing unarXive, we further present approaches yielding advances in three areas. First, we demonstrate improvements of the completeness of citation networks though the use of blocking, as well as improvements to the granularity of document representations. Second, we show advances in the language coverage of document interconnections through a large-scale analysis of cross-lingual citations. Third, we present information extraction approaches for fine-granular representations of research artifact citations. Overall, our approaches address key shortcom-ings of currently used machine-readable representations of scientific publication corpora. With our approaches we demonstrate their benefits through evaluations and practical large-scale applications. Sig-nificant parts of our work have already seen adoption within the research community, which confirms their utility.
Graduiertenkolloquium
Termin: 27 Oktober 2023 14:00:00
Machine-readable representations of scientific publication corpora are the foundation of vital digital sys-tems in academia. They capture information about publication contents as well as their interconnections, thereby enabling, informing, and accelerating processes such as academic search, decision making, and large-scale bibliographic analyses. As such, they are key to mitigating the challenges caused by the ev-er-increasing rate of publication and progress in academia. Especially disciplines of current focus, such as the rapidly evolving area of machine learning, can therefore benefit from improved digital records of the scientific progress. However, current research based on scientific publication corpora, such as the training and evaluation of machine learning models as well as bibliographic analyses, are based on limited data. Specifically, the volume, completeness, correctness, and granularity of publication representations used are limited. For example, only abstracts are considered instead of full-texts, or corpora with highly incomplete citation networks are used. As a consequence, the results and conclusions drawn from evaluations and analyses are of limited validity.
2014-07-11T14:00:00
Kolloquiums Ankündigungen
Sie können sich in unserem Kolloquiumsverteiler eintragen.
Jede Meldung wird Ihnen dann per E-Mail zugesandt.
Zur Anmeldung:
Kolloquiumsverteiler