Events
Termin: 24 Februar 2023 14:00:00
Beschreibung DE: Knowledge Graphs (KGs) are a structured representation of facts pertaining to a specific domain or multiple domains, composed of entities and the relationships between them. They have become essential for managing structured information, with a growing interest in their use in artificial intelligence. KGs can be used to support decision-making and to enhance machine learning tasks such as question-answering, recommender systems, and relation extraction. Some of the most popular publicly available general-purpose KGs include DBpedia, Wikidata, and YAGO. To maximize efficiency, it is beneficial to transform these KGs into a low-dimensional vector space while preserving their underlying semantics. However, KGs are inherently incomplete due to the open-world assumption, meaning there are missing links between entities. This incompleteness negatively impacts their usage for different real-world applications. Hence, there is a need for embedding-based link prediction approaches to perform KG completion tasks. Link prediction involves predicting the likelihood of relationships between entities based on available information in the KG. This task can be executed in two settings: transductive and inductive. In the transductive setting, all entities in the test and validation sets must be included in the training set. Conversely, in the inductive setting, the test and validation sets may contain entities not seen during training.
It is crucial to consider the semantics contained within the KG while performing a link prediction task so as to produce valid facts. Most large-scale KGs, such as Wikidata, comprise a significant number of numerical attributive triples which connect entities to numerical literal nodes. In addition to numerical literals, KGs also contain a substantial amount of both short and long textual literals, such as names, labels, and descriptions of entities and relations. These literals, both numerical and textual, hold crucial information about entities and relations and can be used to generate missing facts. Therefore, developing a link prediction approach that incorporates literals is an important aspect of KG completion.
This talk will focus on discussing link prediction methods, which utilize text and numerical literals, proposed for both transductive and inductive settings. Moreover, benchmark datasets that are created for the evaluation of link prediction methods will also be presented.
Graduiertenkolloquium Mischa Ahrens2022-09-23T14:00:000Graduiertenkolloquium
Termin: 23 September 2022 14:00:00
Beschreibung DE: Die energetische Flexibilität von Gebäuden mit Energieerzeugungs- und Speicherkapazitäten, steuerbaren Ladestationen für Elektrofahrzeuge, intelligenten Haushaltsgeräten und Energiemanagementsystemen kann genutzt werden, um Überlastungen der Stromnetze zu vermeiden oder zu reduzieren. Im Rahmen der Energiewende treten solche Überlastungen durch den voranschreitenden Ausbau dezentraler Energieerzeugung, das Laden von Elektrofahrzeugen und die Nutzung elektrisch erzeugter Wärme verstärkt auf. Das im Vortrag vorgestellte Multiagentensystem ermöglicht und koordiniert die Reaktionen mehrerer Gebäude auf drohende Überlastungen, um die Resilienz des lokalen Stromverteilnetzes zu erhöhen. Da ein solches System in der Regel Kommunikationsinfrastruktur benötigt, welche selbst störungsanfällig sein kann, ist das entwickelte System so konzipiert, dass es bei Kommunikationsstörungen handlungsfähig bleibt und die Widerstandsfähigkeit des Stromnetzes aufrechterhält. Ermöglicht wird dies durch die Nutzung verschiedener zentralisierter, verteilter und dezentralisierter Überwachungs- und Steuerungsstrategien, welche die Agenten des Systems befähigen je nach Kommunikationsverfügbarkeit adaptiv auf kritische Stromnetzzustände zu reagieren.
Embedding based Link Prediction for Knowledge Graph Completion2022-06-29T15:45:000Graduiertenkolloquium
Termin: 29 Juni 2022 15:45:00
Beschreibung DE: Knowledge Graphs (KGs) have recently gained attention for representing structured knowledge. Since the advent of the Linked Open Data (LOD) cloud, it has constantly been growing containing many KGs about numerous different domains such as government, scholarly data, biomedical domain, etc. KGs are used in Natural Language Processing (NLP) based applications such as entity linking, question answering, recommender systems, etc. Some KGs are heuristically created, automatically generated from heterogeneous resources such as text, images, etc., whereas the others are human-curated. These KGs consist of huge amounts of facts in the form of entities (nodes) and relations (edges) between them. The entities which exhibit similar characteristics are grouped together into classes or types in the KGs and are known as the entity type information. However, these KGs are often incomplete, i.e., there are missing links between the entities and missing links between the entities and their corresponding entity type information.
This thesis focuses on addressing these two challenges in Knowledge Graph Completion: • Predicting the missing links between entities in KG via head, and tail prediction as well as triple classification. • Predicting the semantic type of an entity in a KG.
To date, many algorithms are proposed to learn the embeddings of the entities and relations into the same vector space. However, none of the baseline models considers the contextual information of the KGs along with the textual entity descriptions to learn the latent representation of the entities and relations within the KG. This thesis proposes a multi-hop attentive KG embedding model MADLINK for predicting the missing links between the entities.
On the other hand, recent research on entity typing focuses on exploiting the structural information of the KGs, and keywords from the entity description for the prediction task. A novel entity typing model CAT2Type, to predict the missing types of the entities in a KG leveraging the Wikipedia Category information, is proposed in this thesis. Furthermore, to predict the multi-label, multi-class, and hierarchical entity types in KG, a GRAND framework is proposed that exploits graph walks and entity descriptions. The results show that the proposed methods, MADLINK, CAT2Type and GRAND outperform the current state-of-the-art models for the benchmark datasets in the corresponding tasks.
Tbd2021-06-18T14:00:000Graduiertenkolloquium
Termin: 18 Juni 2021 14:00:00
Beschreibung DE: The ever-growing demand for machine learning has led to the development of automated machine learning (AutoML) systems that can be used off the shelf by non-experts.
Further, the demand for ML applications with high predictive performance exceeds the number of ML experts and makes the development of AutoML systems necessary.
Automated Machine Learning tackles the problem of finding machine learning models with high predictive performance. Existing approaches assume that all data is available at the beginning of the training process (offline learning). They configure and optimize a pipeline of preprocessing, fea-ture engineering, and model selection by choosing suitable hyperparameters in each pipeline step.
Furthermore, they assume that the user is fully aware of the choice and thus the consequences of the underlying metric (such as precision, recall, or F1-measure). By variation of this metric, the search for suitable hyperparameters and thus the adaption of algorithms can be tailored to the needs of the user.
With the creation of vast amount of data every day from all kinds of sources, our capability to pro-cess and understand these datasets in a single batch is not longer viable.
By training ML models incrementally (online learning) the flood of data can be processed sequen-tially within data streams.
However, if one assumes an online learning scenario, where an AutoML instance executes on evolving data streams, the question for the best model and its configuration remains open.
In this work, we address the personalization of AutoML in an offline learning scenario and the adap-tion of ML pipelines and their configuration to evolving data streams in an online learning scenario.
Furthermore, we propose a System to steer AutoML for individual end-users preferences by learn-ing a designated ranking model from pairwise user preferences and using the latter as the target function for both the online and offline learning scenario
Tbd22021-06-11T14:00:000Graduiertenkolloquium
Termin: 11 Juni 2021 14:00:00
Beschreibung DE: The 21st century is characterized by a flood of data. To deal with this amount of data, research on neural networks has gained significant momentum over the past few years. Due to the huge success in pattern recognition, they have become a powerful tool for classification and forecasting in statistics, computer sci-ence, and economics. Despite their application in many disciplines, neural networks are black box models. They do not give any insights into the structure of the approximated function. Recent research has attemp-ted to explain these black-boxes. However, the focus so far has been to explain decisions of a neural net-work in a technical way for computer science experts. As neural networks get more common, it is crucial to develop approaches that allow for explanations of neural networks understandable to non-experts. This means that a human can understand the cause of even a simple decision made by the neural network and can consistently interpret the model's result.
For this reason, this work provides a framework to gain human-understandable explanations for neural net-works by considering specific goals of explanations. These are transparency, scrutability, trust, effectiven-ess, persuasiveness, efficiency, and satisfaction.
In this work, we address those explanation goals with four conceptual approaches. First, we present FAIR-nets, which aims to process metadata such as intended use and architecture information in order to make neural networks more transparent and efficient. Second, to open the neural network box, we define a new explanation quality metric ObAlEx for image classification. Using object detection approaches, explanation approaches, and ObAlEx, we quantify the focus of CNNs on the actual evidence which covers scrutability, trust, and effectiveness. Third, we propose FilTag, an approach to explain Convolutional Neural Networks even to non-experts by tagging the filters with keywords. These tags provide an explanation of what the filter does. Individual image classifications can then be intuitively explained in terms of the tags of the filters that the input image activates. These explanations enhance scrutability and trust. Last but not least, we present TransPer, an explanation framework for recommender systems based on neural networks. We defi-ne explanation measures based on Layer-Wise Relevance Propagation to understand the recommendation quality and find new ideas on how to improve the recommender system. This captures transparency, trust, persuasiveness, and satisfaction.
The given talk will focus on approaches FAIRnets, ObAlEx, and TransPer to showcase our framework and give insights into developed explanation techniques for neural networks.
Vortrag Graduiertenkolloquium62021-01-22T14:00:000Graduiertenkolloquium
Termin: 22 Januar 2021 14:00:00
Beschreibung DE: Knowledge Graphs have recently gained attention as a knowledge representation technique for scientific and industrial applications. Knowledge Graphs describe a set of typed entities with their attributes and the relationships between those entities. Linked Data is a popular framework for representing and publishing Knowledge Graphs on the Web. The foundations of Linked Data are the Resource Description Framework (RDF) as a graph-based data model and SPARQL as the query language for RDF. The increasing number and size of Knowledge Graphs published as Linked Data led to the development of various interfaces to support querying Knowledge Graphs on the Web. These interfaces, ranging from Triple Pattern Fragment servers to SPARQL endpoints, are mainly characterized by their emphasis on querying availability and expressivity. The Linked Data Fragment Framework provides a uniform way to describe these interfaces regarding those characteristics.
Decentralized management and heterogeneous interfaces used to publish Knowledge Graphs leads to new challenges for client-side SPARQL query processing. First, many traditional query planning approaches rely on fine-grained statistics on both the interface's querying performance and the data distributions of the Knowledge Graphs. Therefore, performance and data distribution profiling approaches need to be adapted to the capabilities and limitations of different Linked Data Fragment interfaces. Second, in case such statistics are not available, query planning approaches should still be able to obtain efficient query plans that are robust with respect to potential errors during query planning. Finally, when querying heterogeneous federations of Knowledge Graphs, query planning approaches need to be aware of and leverage the querying capabilities of the interfaces present in the federation to reduce both the load on the servers as well as the query execution times.
In this talk, we present two approaches for efficient query processing over heterogeneous sources of Knowledge Graphs that address the final two challenges. The first approach focuses on cost- and robustness-based query planning to devise efficient query plans over Triple Pattern Fragment servers. To this end, we propose a cost-model for query plans and introduce a concept of robustness for SPARQL query plans, reflecting the impact of cardinality estimation errors on the cost. In our evaluation, the proposed approach outperforms existing state-of-the-art heuristic-based optimizers validating the effectiveness of combining both cost and robustness. In the second approach, we focus on heterogeneous federations of Linked Data Fragment interfaces. We propose a framework for SPARQL query processing over such heterogeneous federations that is comprised of interface-aware query decomposition, query planning, and polymorphic join operators. The results of our evaluation show that leveraging the capabilities of different Linked Data Fragment interfaces in a federation allows for reducing both the execution time and the number of requests for evaluating query plans.
"Children needs Cyber Security Education Too"2020-10-29T13:00:000Vortrag
Termin: 29 Oktober 2020 13:00:00
Beschreibung DE: Children are using the Internet from a very young age and need to be taught how to use it safely and securely. I'm going to talk about the challenges and present some ideas for teaching them the right password principles in an age-appropriate way.
Vortrag Graduiertenkolloquium42020-10-28T15:45:000Graduiertenkolloquium
Termin: 28 Oktober 2020 15:45:00
Beschreibung DE: The steady increase in digitalization has lead to a deluge of generated data with the Internet of Things (IoT) as a key enabler. Thereby, its promise to realize data-driven decision-making is a major innovation driver offering great opportunities for companies. In this regards, Stream Processing is a widely adopted paradigm to process event streams in real-time to account for time-sensitive actions. Most recently, to significantly lower rather high technological entry barriers, flow-based approaches have been introduces allowing non-technical domain experts to model applications in a self-service manner.
Still, today’s stream processing pipelines are focused on static deployments in centralized cloud environments that come with inevitable downsides, particularly in the context of IoT scenarios that require fast results, are limited by the available bandwidth, or bound to regulations regarding data sovereignty and ownership. In recent years, a new decentralized computing paradigm referred to as Fog Computing allows to overcome the shortcomings of previous cloud-only approaches by offloading certain processing in closer proximity to the data source. This offers possibilities for a next generation of stream processing applications that are centrally modeled, and deployed over a pool of geographically distributed compute resources. However, unlike the cloud, fog and edge nodes are highly heterogeneous in terms of hardware specifications and are potentially exposed to the physical world. Deployment-wise, current systems still require deep technical knowledge in infrastructure management and lack an approach for explicitly exploiting heterogeneous computational resources available in the underlying fog infrastructure allowing to autonomously select suitable deployment configurations in order to better assist domain experts along the deployment process.
In this presentation, we show how to abstract application specialists from the technical complexities of deploying, executing and adapting stream processing pipelines in heterogeneous fog infrastructures. Our main contributions are (i) a generic node model describing relevant resource characteristics and additional metadata, (ii) a node controller incorporating the node model for pipeline element life cycle management, as well as (iii) a fog cluster management framework to flexibly deploy, refine and relocate individual pipeline elements to registered nodes along the cloud-edge continuum while handling messaging between adjacent elements. We have evaluated resource consumption and deployment metrics of our work in two application domains, manufacturing and urban logistics.
Vortrag Graduiertenkolloquium52020-10-14T15:45:000Graduiertenkolloquium
Termin: 14 Oktober 2020 15:45:00
Beschreibung DE: Die mit der Energiewende einhergehende Verlagerung von fossilen Energieträgern hin zu erneuerbaren, aber häufig nur fluktuierend verfügbaren Energiequellen stellt das Paradigma „Erzeugung folgt Verbrauch“ zu einem gewissen Grad in Frage. Um mögliche Schwankungen der Versorgung auszugleichen, müssen auch Stromverbraucher und -speicher einen Beitrag leisten und bei Bedarf flexibel auf die lokalen Erfordernisse reagieren, indem sie ihre bezogene oder bereitgestellte Leistung anpassen. Diese Flexibilität kann mit Hilfe verschiedener Mechanismen nutzbar gemacht wer-den, welche sich nicht nur konzeptionell, sondern auch im Hinblick auf die dafür notwendige Kommunikation stark unterscheiden. Dafür müssen mal mehr, mal weniger abstrakte Modelle für die beeinflussten oder direkt gesteuerten Anlagen vorliegen. Außenstehende, wie beispielsweise Verteilnetzbetreiber, können aufgrund mangelnder Information nur sehr eingeschränkt die dafür not-wendigen Modelle erzeugen. Um die tatsächlich verfügbare Flexibilität möglichst genau beschreiben zu können, ist folglich eine Modellbildung auf Seiten des Anlagenbetreibers wünschenswert. Das Training von Ersatzmodellen mittels maschineller Lernverfahren ist ein möglicher Ansatz, die Modellbildung zu automatisieren und eine einheitliche und möglichst generische Beschreibung der Flexibilität von Anlagen zu schaffen.
Das zentrale Ziel der vorgestellten Arbeit ist die Beantwortung der Frage, wie gut Ersatzmodelle zur Beschreibung von Flexibilität genutzt werden können. Aufgrund ihrer Fähigkeit, die verschiedensten Beziehungen zwischen Eingaben und Ausgaben abzubilden, sowie der damit einhergehenden Flexibilität in der Anwendung, wurden hierzu Künstliche Neuronale Netze gewählt. Im ersten Teil des Vortrags wird eine Klassifikation der bisher üblichen Modellierungsansätze für flexible Erzeuger, Speicher und Verbraucher vorgestellt. Daraus lassen sich mögliche Ersatzmodelle ableiten, die im weiteren kurz umrissen werden. Abschließend wird ein ausgewählter, durch Markovsche Entscheidungsprozesse inspirierter Ansatz mitsamt einer experimentellen Evaluation detailliert beleuchtet.
Vortrag Graduiertenkolloquium22020-07-29T15:45:000Graduiertenkolloquium
Termin: 29 Juli 2020 15:45:00
Beschreibung DE: Industrial event streams are an important cornerstone of Industrial Internet of Things (IIoT) applica-tions. Such streams are produced by distributed industrial assets on the shop floor at high frequency and are typically automatically processed in close proximity to the source. Industrial event stream ana-lytics is an essential building block for exploiting the full potential and creating added value, such as predictive quality assessment or predictive maintenance.
A major challenge that hinders the full adoption of industrial event stream analytics is the distribution of required technical and domain knowledge among several people. This makes the realization of analyt-ics projects time-consuming and error-prone. For instance, accessing industrial data sources requires a high level of technical skills due to a large heterogeneity of protocols and formats and long-lasting operating times of industrial assets. In addition, there is a gap between domain knowledge required to understand complex production processes and data science/operations knowledge to implement ana-lytics applications based on high-frequency industrial event streams. Altogether, there is a lack of a holistic approach that focuses on domain experts.
To solve these challenges, a new set of methods and tools is required that covers the entire data ana-lytics life cycle for industrial event streams. Data must be connected and analyzed (e.g. train machine learning models). These models must then be deployed in a geographically distributed architecture. There exist specialized solutions for the individual tasks and the combination of all these tasks can become rather complex.
In this work, we enable domain experts to exploit the full potential of data-driven decision making in industry scenarios. Therefore, we present an end-to-end framework to connect, transform and analyze industrial event streams without deep technical expertise. We leverage semantic models that are used to automatically instantiate adapters at the edge and extract preprocessing rules. Subsequently, these models are used i) to automatically adapt event streams (e.g. frequency, quality) according to pro-cessing requirements at the edge and ii) to better exploit event streams by enabling domain experts to label data in an intuitive way and train new machine learning models automatically. We provide an edge-based semantic adapter library to accelerate data connection. Connected data streams are dynamically adapted according to the requirements of the algorithms processing the events. Domain experts can use a labeling editor to label data and train machine learning models for time-series data using an automated machine learning service. We have evaluated both the performance of our solutions and their applicability and usability in a conducted user study. The proposed methods are accompanied by extensive tool support, which is fully available as open source.
In this presentation, we show how our work enables domain experts to leverage machine data and aim to reduce the effort of data analytics projects on industrial event streams.
Vortrag Graduiertenkolloquium32020-07-15T15:45:000Graduiertenkolloquium
Termin: 15 Juli 2020 15:45:00
Beschreibung DE: Mit der immer weiter fortschreitenden Energiewende wird einerseits die kosteneffiziente Integration über-schüssiger erneuerbarer Energie und andererseits eine verlässliche Versorgung in wind- und sonnenarmen Phasen eine immer größere Herausforderung. Die Flexibilisierung elektrischer Verbraucher und dezentraler, nicht dargebotsabhängiger Erzeugungsanlagen liefert dazu einen wichtigen Lösungsbaustein. Die Möglich-keiten zur Nutzung solcher Flexibilität sind allerdings vielfältig. Unterschieden wird z. B. nach der zeitlichen Dimension, also dem Erfüllungszeitpunkt und dem zeitlichen Vorlauf, sowie nach der räumlichen Dimension. So kann Flexibilität für das lokale Energiesystem genutzt werden, dem Elektrizitätsnetz zur Verfügung ge-stellt werden oder auf bilanzieller Ebene des Strommarktgebietes den Ausgleich von Angebot und Nachfra-ge unterstützen. Diese Vielfalt macht die Entscheidung über den optimalen Anlagenbetrieb zu einer komple-xen Optimierungsaufgabe, die zudem nur mit Kenntnissen über das lokale System, wie z. B. technischen Restriktionen, Opportunitätskosten und Nutzerpräferenzen, gelöst werden kann.
Im Rahmen des Vortrags wird eine Methodik vorgestellt, die einen kosteneffizienteren Einsatz dezentraler Flexibilität basierend auf regionalen Energiegemeinschaften ermöglicht, indem verschiedene Nutzungsfor-men für Flexibilität simultan berücksichtigt werden: Ein iterativer Koordinationsprozess beeinflusst die loka-len Optimierer der Haushalte und anderer Netznutzer innerhalb der Energie-Community durch marktübergrei-fende Preissignale. Die lokalen Optimierer ermitteln basierend auf diesen Preissignalen und den lokalen Rahmenbedingungen den kostenminimalen Betrieb aller Anlagen ihres jeweiligen Standortes. Dies erlaubt sowohl eine Reaktion auf großräumige Marktsituationen, z. B. im EPEX Intrayday-Handel, als auch die För-derung einer Abstimmung von Verbrauch und Erzeugung in kleineren Netzgebieten. Da insbesondere diese netzorientierte Nutzung kleinteiliger Flexibilität unter aktuellen Rahmenbedingungen selten rentabel ist, wird der Einfluss von relevanten regulatorischen Stellgrößen auf den optimierten Betrieb untersucht. Der wesent-liche Forschungsbeitrag besteht damit in der Konzeption und der Evaluation einer ganzheitlichen Betriebsop-timierung in regionalen Energiegemeinschaften vor dem Hintergrund einer adäquaten Weiterentwicklung der Regulatorik.
Vortrag Graduiertenkolloquium2020-05-27T15:45:000Graduiertenkolloquium
Termin: 27 Mai 2020 15:45:00
Beschreibung DE: voraussichtlich Onlineveranstaltung
Graph structured data are ubiquitous data structures, used to model relationships between entities. Graphs have become an important foundation to represent interactions between users in social networks, items in recommender systems, and interactions between drugs in bioinformatics. The main research problems in these areas include node clustering, node classification and link prediction. Especially the link prediction task is in bioinformatics of special interest toward the identification and development of new uses of existing or abandoned drugs since drug development is currently very time consuming and expensive.
In recent years, network embeddings are often trained for encoding the nodes of a network into a low-dimensional space whilst preserving the graph structure. Based on the trained embeddings, machine learning techniques are applied to address the main machine learning tasks, such as link prediction. In most of the published methods, like e.g. DeepWalk, node2vec and LINE, random walks procedures are used to efficiently explore diverse neighbourhoods and compute embeddings based on them. However, these methods assume a connected graph, otherwise the random walks are not sufficient to gather enough information of nodes in the neighbourhoods.
In this work we address three types of problems: Link prediction on bipartite networks, link prediction on knowledge graphs and a semantic grouping of nodes and links in graphs. We use a stochastic factorization model to learn a target distribution over the graph structured data, allowing to predict unknown links and embed the nodes into a low-dimensional space whilst preserving the distribution of interactions within the graph. Compared to the existing methods that use random walks, our approach is much more robust in terms of the connectivity of the networks. Results show that the proposed method outperforms current state-of-the-art models in several studied complex networks and sets a new baseline in link prediction on disconnected graph structured data.
For this presentation we focus on the first two research problems, namely link prediction on bipartite networks and link prediction on knowledge graphs. We show how a stochastic factorization model is used to learn a target distribution on the graph structured data, based on the learned target distribution predict missing links and the benefit of our method in terms of the connectivity of the graph structured data.
Kolloquium Verabschiedung Professor Dr. Thomas Wolf2020-04-24T14:00:000Kolloquium Angewandte Informatik
Termin: 24 April 2020 14:00:00
Beschreibung DE: Das Kolloquium musste wegen der Coronavirus-Pandemie leider abgesagt werden. Über einen eventuellen Ersatztermin werden wir Sie gerne rechtzeitig informieren.
Beyond research data infrastructures: exploiting artificial & crowd intelligence towards building research knowledge graphs2020-02-21T14:00:000Kolloquium Angewandte Informatik
Termin: 21 Februar 2020 14:00:00
Beschreibung DE: The need for sharing and reuse of research data has been widely acknowledged and led to a multitude of data search platforms, registries as well as national and international ini-tiatives. Whereas efforts often focus on improving discovery, retrieval and recommendati-on of popular research datasets, there is vast untapped potential in the form of dataset (references) hidden in unstructured Web sites or resources as well research data which can be mined from the (social) Web. In this context, crowd and artificial intelligence con-verge on the task of extracting machine-readable structured knowledge graphs about re-search data and resources, facilitated by techniques from information retrieval, NLP, (dis-tributional) semantics, and machine learning. This talk will provide an overview of recent works in the aforementioned areas with applications in (but not limited to) the social sci-ences.
Modeling, Simulation and Data2020-02-05T10:00:000Kolloquium Angewandte Informatik
Termin: 5 Februar 2020 10:00:00
Beschreibung DE: Modeling and Simulation (M&S) methods have long been in use for understanding behaviors of systems, as well as for supporting decision-making processes. The traditional way of doing M&S relies to a great extent on expert knowledge, and corresponding models and simulations often become obsolete soon after they are developed. This is due to the natural changes in the systems. The nowadays prevalent availability of data has the potential to change this fact.
Thus, is there a way to develop better and more resilient models and simulations that will update themselves along with the real systems? Even more, can we have models being directly extracted from real systems? How can we minimize the dependence on expert knowledge and is that even possible? To what extent?
The talk will address the use of M&S for analysis of Cyber-Physical Systems, with a special focus on Reliability Modeling and the use of data to enhance M&S processes.
Sanja Lazarova-Molnar is an Associate Professor with the Faculty of Engineering at the University of Southern Denmark, researching in the areas of Modeling and Simulation, and Data Analytics, in various decision support contexts. Sanja is a Senior Member of IEEE, and currently serving as Director-at-Large on the Board of Directors of The Modeling & Simulation International (SCS). Furthermore, she is Chair of IEEE Denmark Women in Engineering Affinity Group. She is also one of the Proceedings Editors for the Winter Simulation Conference 2019. As of latest, her focus is on the data-based reliability modeling and analysis of cyber-physical systems, such as manufacturing systems and smart buildings. Sanja completed her PhD in 2005 at the University in Magdeburg, specializing in the area of Modeling and Simulation. During her PhD, she developed and formalized new simulation method, i.e. the proxel-based method. The proxel-based method was implemented in the DaimlerChrysler simulation tool and it was superior to discrete-event simulation for certain classes of problems, such as warranty analysis. Sanja is author of more than 90 papers published in international conferences, books and journals
35. AIK-Symposium "Blockchain – Proof-of-Worth"2019-10-25T14:00:000AIK-Symposium
Termin: 25 Oktober 2019 14:00:00
Beschreibung DE: Am 25.10.2019 veranstalten das Institut AIFB und der Verein AIK e.V. das 35. AIK-Symposium zum Thema "Blockchain – Proof-of-Worth". Weitere Informationen finden Sie auf der Veranstaltungswebseite.
Vortrag Graduiertenkolloquium Julian Rominger2019-06-07T14:00:000Graduiertenkolloquium
Termin: 7 Juni 2019 14:00:00
Beschreibung DE: Zur Produktion von Automobilen wird Energie benötigt. Die klassischen Produktionsprozesse Presswerk, Karosseriebau, Lackiererei und Montage sowie unterstützende Prozesse und Einrichtungen führen zu einem erheblichen elektrischen und thermischen Energiebedarf. Um die Umwelt- und Kostenbelastung der Automobilproduktion zu reduzieren, investieren viele Automobilunternehmen in eigene Energieerzeugungsanlagen, Energiespeicher oder flexibel steuerbare Energieverbraucher. Mit einer Vielzahl an steuerbaren Energieanlagen steigt einerseits die Komplexität des Energiemanagements, andererseits ergeben sich auch Potenziale zur Energiekostenreduktion bspw. durch Teilnahme auf Energiemärkten und dem Angebot von Energiesystemdienstleistungen. Die kurzfristige Anlageneinsatzplanung ist ein wesentliches Werkzeug des Energiemanagements zur kostengünstigen Bereitstellung von Energie, d.h. von Strom, Wärme und Kälte. Dabei gilt es, Eigenanlagen unter Berücksichtigung der technischen und vertraglichen Randbedingungen kostenoptimal einzusetzen. Voraussetzung hierfür ist eine detaillierte Modellierung der verschiedenen Energieanlagen, -märkte und -verträge. Die Modellierung beschreibt hierbei die Flexibilität des Energiesystems, also die Menge an möglichen Ausprägungen der Einsatzplanung aller Energieanlagen sowohl für das lokale Energiesystem als auch bspw. für die Wertschöpfung durch Systemdienstleistungen.
Im Rahmen des Vortrags wird eine Methodik vorgestellt, die ein heterogenes Energiesystem eines Automobilwerkes bestehend aus einer Vielzahl an steuerbaren und nicht-steuerbaren Erzeugern, -verbrauchern und -speichern untersucht. Es wird ein Optimierungsproblem entwickelt, das einen Einsatzplan der steuerbaren Energieanlagen als Ergebnis hat, mit dem die notwendigen Energie-bedarfe kostenminimal gedeckt werden und zusätzlich Erlöse durch das externe Angebot von Flexibilität erzielt werden können. Das Optimierungsproblem wird als gemischt-ganzzahliges lineares Programm modelliert und exakt gelöst.
Addressing the Dilemma of Insecure Programming Advice with Deep Learning and Behavioral Research2019-05-21T14:00:000Kolloquium Angewandte Informatik
Termin: 21 Mai 2019 14:00:00
Beschreibung DE: Abstract:
Stack Overflow is the most popular discussion platform for software developers. However, recent research identified a large amount of insecure encryption code in production systems that has been inspired by examples given on Stack Overflow. By copying and pasting functional code, developers introduced exploitable software vulnerabilities into security-sensitive high-profile applications installed by millions of users every day.
Proposed mitigations of this problem suffer from usability flaws and push developers to continue shopping for code examples on Stack Overflow once again. This motivates us to fight the proliferation of insecure code directly at the root before it even reaches the clipboard. By viewing Stack Overflow as a market, implementation of cryptography becomes a decision-making problem. In this context, our goal is to simplify the selection of helpful and secure examples. More specifically, we focus on supporting software developers in making better decisions on Stack Overflow by applying nudges, a concept borrowed from behavioral economics and psychology. This approach is motivated by one of our key findings: For 99.4% of insecure code examples on Stack Overflow, similar alternatives are available that serve the same use case and provide strong cryptography.
Our system design that modifies Stack Overflow is based on several nudges that are controlled by a deep neural network. It learns a representation for cryptographic API usage patterns and classification of their security, achieving average AUC-ROC of 0.99. With a user study, we demonstrate that nudge-based security advice significantly helps tackling the most popular and error-prone cryptographic use cases in Android.
Bio:
Prof. Jens Grossklags, Ph.D., holds the Associate Professorship for Cyber Trust at the Department of Informatics at the Technical University of Munich. He studies security and privacy challenges from the economic and behavioral perspectives with a variety of methodologies. His published research has appeared in high quality publications at technical and social science venues, and has been honored with three best paper awards.
Prof. Grossklags received his Ph.D. from the University of California, Berkeley and was a Postdoctoral Research Associate at the Center for Information Technology Policy at Princeton University. He then directed the Security, Privacy and Information Economics Lab, and served as the Haile Family Early Career Professor at the Pennsylvania State University.
In addition, Prof. Grossklags has been an invited visiting professor at École Polytechnique Fédérale de Lausanne (EPFL), Switzerland, during the summers of 2011 and 2012, an invited visiting researcher at Copenhagen Business School (CBS) during the summer of 2013, an invited visiting scientist at EURECOM during the summer of 2014, and an invited professor at the IMDEA Software Institute during the summer of 2016.
Vortrag Graduiertenkolloquium Stella Möhrle2019-04-17T15:45:000Graduiertenkolloquium
Termin: 17 April 2019 15:45:00
Beschreibung DE: Katastrophen beeinträchtigen das Funktionieren einer Gemeinschaft oder Gesellschaft schwerwiegend, führen zu menschlichen, materiellen, ökonomischen und ökologischen Verlusten großen Ausmaßes und erfordern nationale oder internationale Hilfe zur Bewältigung. Die Ursachen können technischen, menschlichen oder natürlichen Ursprungs sein. Kerntechnische Unfälle stellen erhöhte Anforderungen an die Entscheider, da die Freisetzung von radioaktiven Substanzen zu langfristigen und auch grenzüberschreitenden gesundheitlichen Risiken für den Menschen und zur Kontamination der Umwelt führen kann. Ein kerntechnischer Unfall kann in mehrere Phasen eingeteilt werden, die durch unterschiedliche Maßnahmen zum Schutz der Bevölkerung charakterisiert sind. Entscheidungen über geeignete Maßnahmen in der Frühphase werden durch eine sehr hohe Unsicherheit in entscheidungsrelevanten Informationen erschwert. In den späteren Phasen eines Unfalls liegt die Schwierigkeit in der Vielzahl möglicher Maßnahmen und sich teilweise widersprechenden Interessen der zu berücksichtigenden Akteure.
In diesem Vortrag wird eine Methode vorgestellt, die bei der Auswahl geeigneter Maßnahmen zum Schutz der Bevölkerung hilft. Die Arbeit ist Teil der Vorsorgeforschung mit dem Fokus auf kerntechnische Unfälle. Die entwickelte Methode berücksichtigt (i) das Problem der Unsicherheit in der Entscheidungsfindung, (ii) die Einzigartigkeit der betrachteten Ereignisse, (iii) die strukturierte Integration von Erfahrung und Expertenwissen, (iv) die Durchführungsreihenfolge der Maßnahmen, (v) die Integration von Akteuren mit unterschiedlichen Präferenzen und (vi) die Möglichkeiten der Anwendung mit Hilfe eines computergestützten Werkzeugs. Die Methode erweitert insbesondere das Fallbasierte Schließen um die Entwicklung geeigneter Szenarien, ein auf Petri-Netzen basierendes Modell und eine multikriterielle Bewertung mehrerer Handlungsalternativen. Eine prototypische Implementierung zeigt die Anwendbarkeit der entwickelten Methode auf.
Cii Completed Theses April 20192019-04-16T15:00:000Vortrag
Termin: 16 April 2019 15:00:00
Beschreibung DE: This month we will have the following presentations on completed theses supervised by the cii research group.
The presentations will take place on Tuesday, April 16, 2019:
title: Design and Prototypical Evaluation of a Blockchain-Based System for the Storage of Electronic Medical Records
presenter: Patrick Frey
time: 15:00 Uhr
place: room 1A-11
abstract: The demographic change poses significant challenges to the healthcare ecosystem. One challenge is the rising average age of the world's population. This results in a larger number of patients. To counteract this trend, it is important to maintain or even improve the quality of individual care while handling a higher number of patients. This improvement can be supported by providing access to the patients' Electronic Medical Records (EMR). However, these records are only available in fragmented form on data silos of healthcare providers. The objective of this study is to build a system design which creates a common data basis and thus dissolves the existing data silos. With the use of Blockchain Technology (BCT) and a distributed file system, a unique possibility is offered to support a trustful interaction in an ecosystem by providing characteristics like decentralization, transparency, immutability, and pseudonymity. A decentralized application controls the interaction of the components and acts as an interface for the user. Through the user-friendly interface, EMR can be stored as well as accessed by stakeholders in the healthcare ecosystem. For the creation of the system design, requirements are recorded and a suitable BCT protocol is selected. The proposed system design provides a common data basis that ensures privacy, security, reliability, and accountability. It enables a faster processing time for EMR sharing and improves decision making for stakeholders. A prototype is implemented demonstrating the technical feasibility of the system design.
title: A Qualitative Analysis of GDPR-related Issues and Compliance Practices in German Public Offices
presenter: Stefan Mill
time: 15:30 Uhr
place: room 1A-11
abstract: Data protection is one of the central topics of our society as the digitalization of our daily lives proceeds. However, discussions about data protection in theory and practice often only refer to the technological giants and social networks of our time. The public sector, its issues and practices with regard to data protection is widely ignored. Even the research community is rather restrained with respect to this specific field. Even with the considerable peak of interest in May 2018, caused by the GDPR, the data protection within the public sector, again, did not benefit.
This master thesis focuses on this lack in research. Using an exploratory approach, interviews with data protection officers of municipal public offices has been conducted in the months following the introduction of the GDPR. The sample comprises a total of 18 data sets, collected from cities from of all sizes all states of Germany. Based on this study, the thesis summarizes the main statements, issues and solution approaches with regard to general data protection and the implementation of the GDPR in four dimensions: organization, culture, context, and legislation. Using the central insights of every dimension, it discusses the main relations of themes as well as the relevance of personnel resources and the data protection practices in the past. The thesis provides suggestions for practitioners and works out potential areas for further research for fellow scientists.
Vortrag Kolloquium Angewandte Informatik Dr. Michael Cochez2019-03-15T14:00:000Kolloquium Angewandte Informatik
Termin: 15 März 2019 14:00:00
Beschreibung DE: Recently graph embeddings have been taken up by the community as a tool to solve various tasks in machine learning and the general AI community.
In this talk I will give a gentle introduction to the topic and also give some pointers to currently ongoing research.
We start from looking at why graph embeddings are needed in the first place and how they could be used. We will then focus on graphs containing a large variety of information, typically called knowledge graphs, often represented in RDF. These graphs are hard to embed (compared to e.g., uniform simple networks) because they contain multiple edge and vertex types, relation directionality, literals, etc.
What we will cover are a few basic techniques on how these embeddings can be computed. We plan to look into at least one example of translational based methods, one from matrix decomposition, and methods based on co-occurrence and statistical information. Finally we will discuss about a couple of open problems and some of the topics currently worked on.
Bio
Michael Cochez, is a postdoctoral researcher at the Fraunhofer Institute for Applied Information Technology FIT in Germany. In this position Michael is working on transferring research results from the academic world to the industry. Besides the industry exposure, he conducts research in areas related to data analysis and knowledge representation, like knowledge graph embedding, scalable clustering, frequent itemset mining, stream sampling, prototype-based ontologies, ontology matching, and knowledge evolution. This research is currently mainly conducted at the RWTH Aachen university, Germany.
Before joining Fraunhofer, he obtained his Ph.D. degree from the University of Jyväskyä, Finland under the supervision of Vagan Terziyan and Ferrante Neri (De Montfort University - Leicester). He obtained his master degree from the same university and his bachelor degree from the University of Antwerp, Belgium. Michael Cochez is currently on a partial leave from a postdoc at the University of Jyväskylä and is also a scientific advisor for WE-OPT-IT Oy (former MyOpt Oy) in Finland.
Vortrag Graduiertenkolloquium Nicole Merkle2019-02-27T15:45:000Graduiertenkolloquium
Termin: 27 Februar 2019 15:45:00
Beschreibung DE: Considering the technological evolution and trends in heterogeneous domains (e.g. healthcare, robotics, smart home, and automated web agents), more and more tasks and processes are outsourced to virtual agents that are able to perform and solve tasks or make recommendations based on sensed observations and contextual information. This evidence correlates with the progressing evolution of IoT device technologies. Meanwhile, smart watches, medical bands, mobile applications as well as smart home platforms move mainstream and are available for affordable costs. This evolution leads also to social implications such as outsourcing tasks to virtual agents in order to save costs and (human) resources. Thereby, the objective of agents is to mimic- based on trained machine learning (ML) models and their made evidences-as good as possible the decisions of human domain experts. The objective of the presented approach is to enable agents to make correct decisions and recommendations by modelling and applying semantic web technologies and machine learning in order to solve individual and similar tasks in an intend-ed way.
For this reason, this work aims for providing a framework that allows the formalisation of use case specific tasks and to simulate/imitate them in a general way so that agents are enabled to train their inherent characteristics and apply the resulting ML models for solving tasks adequately and domain independent.
Vortrag Kolloquium Angewandte Informatik Jörn Hees2019-02-08T14:00:000Kolloquium Angewandte Informatik
Termin: 8 Februar 2019 14:00:00
Beschreibung DE: In recent years, we have seen a lot of progress in the field of Artificial Intelligence, especially in the area of Deep Learning and end-to-end learning. However, the vast majority of these new ap-proaches do not make use of available knowledge in form of Linked Data. One of the reasons for this is that it is still a very challenging task to incorporate such knowledge: At the moment knowledge experts have to manually select knowledge sources and extract useful “knowledge features” up-front.
In this talk, a machine learning algorithm is presented that was originally designed to simulate a part of human thinking itself, namely associating: the process of navigating from one thought to the next. The presented approach is an evolutionary algorithm which can learn graph patterns (SPARQL queries) from a given SPARQL endpoint based on a given list of training source-target entity pairs. After training, given a new source node, the algorithm can predict target nodes analo-gously to the training list.
It will be presented, how the Graph Pattern Learner operates in an end-to-end learning fashion and extracts features in form of graph patterns without the need for human intervention from huge, noisy, real world knowledge graphs. Further, it will be shown, how the learned graph patterns form a feature space (embedding) adapted to the given list of examples, and being SPARQL queries, can be explained and executed to generate target candidates. The talk will conclude with current research areas arising from these properties.
Machine Learning Techniques for Knowledge Graphs and Natural Language Processing2019-01-25T14:00:000Kolloquium Angewandte Informatik
Termin: 25 Januar 2019 14:00:00
Beschreibung DE: This talk will focus on using data mining and machine learning techniques applied to Knowledge Graphs and Natural Language Processing. First part of the talk gives an in-sight into various methods and visualization tools allowing interactive knowledge discovery over the web of data for data analytics. A method based on association rule mining for knowledge base completion will also be discussed.
The second part of this talk dives into a combination of Knowledge Graphs and Deep Learning methods for NLP tasks, i.e., it discusses the details of Framester, a linguistic linked data hub with a recent addition of MetaNet (a resource for Metaphors). This resource is further used for generating Frame/Role Embeddings for knowledge reconciliation over the knowledge graphs generated from text.
The third part of this talk gives a vision on other Natural Language Processing tasks that can be performed using the previously defined resources with Deep Learning Techniques such as semantic textual similarity, refining MetaNet metaphors, metaphor generation, metaphor detection/interpretation etc.
Vortrag Graduiertenkolloquium Matthias Frank2019-01-23T15:45:000Graduiertenkolloquium
Termin: 23 Januar 2019 15:45:00
Beschreibung DE: Die zunehmende Verfügbarkeit von geotemporalen Daten aus Umweltbeobachtungen entsprechender Sensoren hat das Potential, die Entscheidungsunterstützung durch Geoinformationssysteme signifikant zu verbessern. Jedoch erschwert die Heterogenität der Beobachtungen mangels expliziter Semantik die automatisierte Auswertung dieser Beobachtungen. Demgegenüber ist eine zunehmende Menge an Daten zu verzeichnen, welche explizit modelliertes Wissen als Linked Open Data frei verfügbar macht. Für die intelligente Auswertung von Umweltbeobachtungen wird daher der Ansatz verfolgt, die implizite Bedeutung dieser Beobachtungen durch die Verknüpfung mit entsprechenden Ressourcen in Linked Open Data explizit und vergleichbar zu machen. So kann bei der Datenintegration die Datenherkunft, das Datenschema und das Datenformat sinnstiftend ausgewertet werden. Im Vortrag wird ein modulares Konzept für semantisches Mapping, Validierung und Anreicherung von Umweltbeobachtungen auf Basis von arbeitsteilig erstellen Annotation mittels Linked Open Data vorgestellt sowie die dabei auftretenden Herausforderungen adressiert.
REQUAL – Requirements Quality Analytics Automated Quality Analysis of Textual Requirements using Machine Learning Techniques2018-12-05T15:45:000Graduiertenkolloquium
Termin: 5 Dezember 2018 15:45:00
Beschreibung DE: High demands on quality and increasing complexity are major challenges for the development of industrial software in general. Automotive software in particular is subject to additional safety, security and legal demands. In such software projects, the specification of requirements is the first concrete output of the development process and usually the only way of communication between manufacturers and suppliers. Thus, the quality of the output is crucial for the success of a project. However, in practice, two problem areas exist: First, due to reasons like lack of knowledge and missing experience of engineers, requirements quality often is not at a satisfactory level. Second, a massive increase of the number of requirements for software poses a scalability issue.
Many efforts have been targeted towards securing and improving the quality of requirement specifications. Current and former research approaches are mostly based on the standard ISO/IEC/IEEE 29148:2011 that offers nine essential characteristics for requirements quality. Since the majority of software requirements today are still formulated in natural language, these approaches focus on measurable indicators that can be derived from the text. In addition, due to the scalability issue of software requirements, automated procedures for the quality analysis are required. Thus, exploring and evaluating approaches that analyze the quality of textual requirements in an automated fashion is a major part in the research.
This work particularly addresses the relationships between textual indicators and individual quality attributes, as worldwide industry standards have defined them. Based on these findings, an automated quality analysis of textual requirements using machine learning techniques is implemented. During several assessment sessions, in which experts assess quality attributes of requirements, relevant information to develop a machine-learning model for the prediction of requirements quality is captured. The research is conducted in connection with current development projects of the German automotive industry.
Vortrag Graduiertenkolloquium Steffen Thoma2018-11-30T14:00:000Graduiertenkolloquium
Termin: 30 November 2018 14:00:00
Beschreibung DE: Many web pages include structured data which can directly be processed and used. Due to the decentralized nature of the web, multiple structured data sources can provide similar information about an entity. But data from different sources may involve different vocabularies, modeling choices, and even modalities, which makes integration difficult. In our approach, we identify similar statements about entities across sources, independent of the vocabulary, data modeling choices, and modalities.
As a first step, we build upon RDF label information to align claims which already achieves better results than comparable systems without utilizing the label information. In a next step, we reconciliate claims from different data sources by using latent representations. Besides showing the benefits of using textual latent representations alone, we investigate the potential of complementing the captured knowledge by learning a shared latent representation that integrates information across three modalities images, text, and knowledge graphs. Thereby, we leverage years of research in different domains: In Computer Vision, visual object features are learned from large image collections, in Computational Linguistics, word embeddings are extracted from huge text corpora capturing their distributional semantics, and in the Semantic Web, embeddings of Knowledge Graphs effectively capture explicit relational knowledge about individual entities.
Our hypothesis is that by fusing the representations, we attain a more holistic representation for identifying similarities as the modalities cover different aspects of an entity, e.g. visual attributes of entities cover shape and color information that is not easily covered in other modalities. How-ever, this fusion is limited to concepts with cross-modal alignments in the training data which are only available for a few concepts. Since alignments over different modalities are rare and expensive to create, we finally investigate an extrapolation approach to translate entity representations outside of the training corpus to the shared representation space.
Creating Learning Material from Web Resources2018-10-19T14:00:000Kolloquium Angewandte Informatik
Termin: 19 Oktober 2018 14:00:00
Beschreibung DE: The creation and maintenance of digital learning material is time consuming and labor-intense. Educators and instructors have to invest a lot of effort and knowledge in order to design and as-semble electronic courses that can be delivered to learners independently from location and time.
However, experience has shown that especially in assessment situations learners are not always satisfied with the provided material in e-learning systems and rather turn to general Web resources for help.
However, searching for additional learning material on the Web might lead to distraction from the learning task and to abandonment of the assessment eventually.
Embedding appropriate Web resources on a technical and semantic level might provide a solution to this problem. In order to do so, we need to provide metadata about the content as well as of educational characteristics. Such data is essential to enable integration and interoperability of rele-vant material in the right context. Furthermore, we have to deliver that material in a format that makes Web-based integration also technically feasible.
In this talk we propose an approach that transforms general Web resources into so-called Linked Learning Items (LLI). These Linked Learning Items can be integrated into learning management systems (LMS) and serve as additional learning resources available to learners for studying and assisting with assignments.
Sorgenfrei in die Zukunft dank Trusted Blockchain – Was ist DLT? Was ist Blockchain? Warum betrifft das mein Unternehmen?2018-10-17T17:30:000Kolloquium Angewandte Informatik
Termin: 17 Oktober 2018 17:30:00
Beschreibung DE: Der ursprünglich zu diesem Termin geplante Vortrag von Herrn Prof. Dr. Dr.h.c. Hermann Maurer (TU Graz) musste leider verschoben werden.
Das Institut AIFB und der Verein AIK e.V. laden Sie nun sehr herzlich zu folgendem Vortrag ein:
Prof. Dr. Ali Sunyaev (Institut AIFB, KIT):
„Sorgenfrei in die Zukunft dank Trusted Blockchain –
Was ist DLT? Was ist Blockchain? Warum betrifft das mein Unternehmen?“
Modellbasierte Entscheidungsunterstützung für Vertraulichkeit und Datenschutz in Geschäftsprozessen2018-10-05T14:00:000Graduiertenkolloquium
Termin: 5 Oktober 2018 14:00:00
Beschreibung DE: Organisationen müssen bzw. wollen Datenschutz und Vertraulichkeit (als Anforderungen der IKT-Sicherheit) gewährleisten. Es ist sinnvoll, Datenschutz und Vertraulichkeit nicht nur technisch zu betrachten, sondern bereits frühzeitig beim Entwurf von Geschäftsprozessen zu berücksichtigen, weil viele Informationen in Unternehmen während der Ausführung von Geschäftsprozessen erhoben und verarbeitet werden.
Um Prozess-Modellierer und -Verantwortliche dabei zu unterstützen, wurden Informationsvertraulichkeits- und Datenschutznetze entwickelt. Die erweiterten Petri-Netze ermöglichen es, Vertraulichkeit und Aspekte des Datenschutzes innerhalb von Geschäftsprozessen systematisch zu betrachten. Dazu wird die Geschäftsprozesssicht insbesondere mit der Organisationsstruktursicht und Datenstruktursicht zu einer integrierenden Modellsicht verknüpft. Vertraulichkeit wird im Zusammenhang mit den an der Geschäftsprozessausführung beteiligten Ressourcen (Organisationsstruktur) und den zur Ausführung benötigten Daten (Datenstruktur) in Informationsvertraulichkeits- und Datenschutznetzen entweder klassen- oder rollenbasiert betrachtet. Im Vortrag wird auch dargestellt, wie Zweckbindung und Datenminimierung als Aspekte des Datenschutzes mittels der Modellierungssprache beschrieben werden können. Informationsvertraulichkeits- und Datenschutznetze wurden so definiert, dass Simulations- und Analysemethoden von Petri-Netzen angewandt bzw. übertragen werden können. Im Rahmen des Vortrags wird ein Simulationskonzept für die Betrachtung von Vertraulichkeit und Datenschutz vorgestellt.
Um die Anwendung zu unterstützen, wird im Vortrag die PriCon4BPM-Methode (Privacy & Confidentiality for Business Process Management) erörtert. Dabei werden die Aktivitäten zur Erstellung der Informationsvertraulichkeits- und Datenschutznetze beschrieben. Es wird eine geeignete Vorgehensweise von der Modellierung bis zur Entscheidung (bspw. bzgl. Prozessalternativen) als Vorgehensmodell dargestellt.
Vortrag Graduiertenkolloquium Arthur Vetter2018-09-21T14:00:000Graduiertenkolloquium
Termin: 21 September 2018 14:00:00
Beschreibung DE: Wartungsfehler sind einer der häufigsten Gründe für IT-Service-Ausfälle und können bei IT-Service-Anbietern Schäden in Millionenhöhe verursachen. Es kann angenommen werden, dass durch anhaltende Trends wie Cloud Computing und DevOps die Anzahl an IT-Service-Wartungen weiter zunehmen wird und somit auch potenziell die Anzahl an Wartungsfehlern. Aktuelle IT-Service-Management Standards wie ITIL oder der ISO/IEC 20000 Standard schlagen Prozesse vor, um die Wahrscheinlichkeit von Fehlern bei der Wartung von IT-Services zu verringern. Wie jedoch Wartungsfehler selbst erkannt werden können, so dass diese noch während der Wartung behoben werden können, wird nicht beschrieben.
In diesem Vortrag wird eine Methode vorgestellt, die es IT-Service-Anbietern ermöglicht, Wartungsfehler automatisiert während der Durchführung einer IT-Service-Wartung zu erkennen. Die Methode basiert auf dem Einsatz einer Variante höherer Petri-Netze und Anti-Pattern, die es erlaubt, Wartungsfehler zur Laufzeit zu erkennen. Dazu wird ein Datenstrom aus Zustand- und Vorgang-Ereignissen erzeugt und mithilfe einer Complex Event Processing Engine auf Anti-Pattern analysiert. Wenn ein Anti-Pattern entdeckt wird, erzeugt die Complex Event Processing Engine eine Fehlermeldung. Diese enthält die Fehlerursache, die aus dem höheren Petri-Netz ermittelt wird, so dass der Fehler umgehend vom IT-Service-Anbieter behoben werden kann. Im Vortrag werden außerdem eine Architektur zur IT-gestützten Anwendung der Methode vorgestellt und Evaluationsergebnisse, die im Rahmen von Experimenten gesammelt wurden, präsentiert.
Vortrag Kolloquium Angewandte Informatik2018-09-03T14:00:000Kolloquium Angewandte Informatik
Termin: 3 September 2018 14:00:00
Beschreibung DE: In this talk we will present how we are applying ontology engineering principles and tools for the development of a set of shared vocabularies across municipalities in Spain, so that they can start homogenising the generation and publication of open data that may be useful for their own internal reuse as well as for third parties who want to develop applications reusing open data once and deploy them for all municipalities. We will discuss on the main challenges for ontology engineering that arise in this setting, as well as present the work that we have done to integrate ontology development tools into common software development infrastructure used by those who are not experts in ontology engineering.
Lastoptimierte Prüfstandsplanung in der Automobilindustrie2018-07-25T15:45:000Graduiertenkolloquium
Termin: 25 Juli 2018 15:45:00
Beschreibung DE: Prüfstände in der Automobilindustrie werden typischerweise in der Fahrzeugentwicklung zur Prüfung von Bauteilen und Werkstoffen, Aggregaten und Gesamtfahrzeugen eingesetzt. Neben typischen Aggregatprüfständen, z. B. für Bremssysteme, Getriebe und Motoren, werden Prüfstände für Fahrzeuge unterschieden, die u. a. zur Überprüfung von Abgaswerten, Strömungseigenschaften oder der Auswirkungen extremer Klimabedingungen dienen.
Ein Fahrzeugprüfzentrum enthält typischerweise eine Vielzahl unterschiedlicher Prüfstände. Insbesondere der elektrische Energiebedarf von Klimakammern und -windkanälen zur Schaffung extremer klimatischer Bedingungen hat zur Folge, dass der Betrieb dieser Prüfzentren sehr energieintensiv ist. Die häufig nur über einen kurzen Zeitraum anhaltenden hohen Windgeschwindigkeiten der Windkanäle führen zu hohen elektrischen Lastspitzen und damit zu einer hohen leistungsabhängigen Kostenkomponente der Netznutzungsentgelte, für die die Jahreshöchstleistung maßgeblich ist.
Im Rahmen des Vortrags wird eine Methodik vorgestellt, mit der die energiebedingten Kosten für den Betrieb eines Fahrzeugprüfzentrums reduziert werden, indem die Planung der durchzuführen-den Prüfungen auf verschiedenen Prüfständen zur Senkung der maximalen durchschnittlichen Leistungsspitze in einer Lieferviertelstunde optimiert wird. Dazu wird für jede durchzuführende Prüfung ein typisches Lastprofil ermittelt und mittels der Prüfstandsplanung ein Lastgang prognostiziert. Dieser Lastgang kann nun durch entsprechendes Verschieben der Prüfungen so optimiert werden, dass die Jahreshöchstleistung reduziert wird. Das Optimierungsproblem wird als gemischt-ganzzahliges lineares Programm modelliert und exakt gelöst.
Neben der Vorstellung der Methodik, der Modellierung des Optimierungsproblems und ausgewählter Ergebnisse, wird ein Vorgehen zur Implementierung der lastoptimierten Prüfstandsplanung im Betrieb präsentiert. Dieses umfasst Kriterien zur Selektion geeigneter Prüfstände sowie die Integration der lastoptimierten Prüfstandsplanung in den Prozess des Prüfstandbetriebs. Eine grafische Benutzeroberfläche stellt die Ergebnisse der Planungsoptimierung dar und bietet die Möglichkeit manuelle Planungsanpassungen vorzunehmen bei gleichzeitiger Visualisierung der Auswirkungen auf den Lastgang.
Vortrag Graduiertenkolloquium Andreas Drescher2018-07-20T14:00:000Graduiertenkolloquium
Termin: 20 Juli 2018 14:00:00
Beschreibung DE: Geschäftsprozessmodelle bilden eine wichtige Grundlage für das Geschäftsprozessmanagement. Damit können die Geschäftsprozesse dokumentiert, analysiert, überwacht und gesteuert werden. In Forschung und Praxis werden zahlreiche Modellierungssprachen, wie z. B. Ereignisgesteuerte Prozessketten (EPK), Business Process Model and Notation (BPMN) oder UML-Aktivitätsdiagramme, vorgeschlagen und eingesetzt. Die meisten in der Praxis eingesetzten Modellierungssprachen besitzen aber keine präzise Kontrollflusssemantik. Durch den Kontrollfluss wird die Ablaufreihenfolge der Aktivitäten im Geschäftsprozessmodell festgelegt. Unerwünschte Interpretationsspielräume ergeben sich immer dann, wenn die Kontrollflusssemantik unpräzise definiert ist. Dies ist beispielsweise der Fall, wenn die Bedeutung einzelner Symbole nicht eindeutig festgelegt ist. Missverständnisse zwischen Domänenexperten und Modellieren werden durch unpräzise Beschreibungen gefördert. Mehrdeutigkeiten erschweren bzw. verhindern die Simulation, Analyse, Prozessüberwachung und Verbesserung der Geschäftsprozesse.
Kontrollflussmuster (Workflow-Pattern) können als Hilfsmittel für die Modellierung eingesetzt wer-den, um so komplexe Abläufe aus einfachen Grundstrukturen zusammenzusetzen. In dem Vortrag wird eine leichtgewichtige und auf Kontrollflussmustern basierende Methode zur präzisen Beschreibung der Kontrollflusssemantik von graphischen Geschäftsprozessmodellierungssprachen und den damit erstellten Modellen vorgestellt. Darüber hinaus werden die effiziente Anwendbarkeit und grundsätzliche Nützlichkeit der Methode sowie Möglichkeiten der Analyse der Geschäftsprozessmodelle mit einem Softwarewerkzeug aufgezeigt.
Schutz der Privatsphäre vor Disaggregation von Haushaltsenergiemessdaten2018-07-04T15:45:000Graduiertenkolloquium
Termin: 4 Juli 2018 15:45:00
Beschreibung DE: Die Einführung intelligenter Messeinrichtungen oder Smart Meter sorgt insbesondere in Deutschland für negative Schlagzeilen: Smart Meter werden als „Spion in den eigenen vier Wänden“ bezeichnet und deren Nützlichkeit für das Energiesystem wird in Zweifel gezogen. Tatsächlich steckt in Smart Metering noch viel ungenutztes Potential für den Stromkunden, wenn moderne Methoden des maschinellen Lernens auf die Smart-Meter-Daten zum Wohle des Kunden angewandt werden: Aus einem hoch-aufgelösten Lastgang lässt sich mittlerweile gut bestimmen, welche Haushaltsgeräte für die tatsächlichen Stromkosten verantwortlich sind. Wenn jedoch der Energieanbieter oder Dritte durch Anwendung solcher Verfahren Einblicke in das private Leben der Stromkunden erlangen, wird der gleiche Anwendungsfall zum Negativszenario, das es zu vermeiden gilt.
Im ersten Teil des Vortrags werden zunächst Ansätze vorgestellt, die eine Aufteilung des Gesamtenergieverbrauchs in den Verbrauch einzelner Haushaltsgeräte (Non-Intrusive Load Monitoring Verfahren, NILM) mit Hilfe von tiefen neuronalen Netzen (Deep Learning) realisieren. Dabei wird ein neuer Ansatz vorgestellt, generative neuronale Modelle einzusetzen, um die Produktion von Gerätelastprofilen zu unterstützen. Erste Ergebnisse mit Generative Adversarial Networks (GAN) als generatives Modell werden präsentiert. Der zweite Teil des Vortrags analysiert, in wie fern NILM als Datenanalyse durch eine Reduktion der zeitlichen Auflösung behindert werden kann. Dies liefert erste Indizien, ob ein Energieanbieter mit der aktuellen Gesetzeslage (insbesondere mit den aktuellen technischen Richtlinien des BSI zum Smart Meter Gateway) in der Lage wäre, Einblick in die Aktivitäten im Haushalt zu erlangen.
Schließlich wird im dritten Teil des Vortrags mit der Anwendung von Differential Privacy auf Smart-Metering-Daten, die zum Zweck einer Energieverbrauchsvorhersage beim Energieversorger erhoben worden sind, ein Privatsphärenkonzept vorgestellt. Dabei werden die Faktoren Nützlichkeit für den Datennutzer und Privatsphärenverlust des Betroffenen evaluiert. Der betroffene Energiekunde erhält damit eine Garantie für die obere Grenze des Risikos eines Privatsphärenbruchs durch den Energieanbieter oder Dritte.
Vortrag Graduiertenkolloquium Huiwen Xu2018-06-27T15:45:000Graduiertenkolloquium
Termin: 27 Juni 2018 15:45:00
Beschreibung DE: Currently, the global power grid is continuously being challenged to gradually undergo a transition from fossil-based energy sources to renewable energy sources. This transition poses a threat to the stability of the power grid. On the other hand, the reduction of energy consumption has be-come a global concern, with particular attention being paid to the saving of non-renewable natural resources and the cutting down on environmental disruption. By being equipped with a building operating system, a smart home, which has potential of providing demand flexibilities, can contrib-ute towards not only balancing the demand and supply in the grid but also increasing the energy efficiency.
The user interface of a building operating system in a smart home plays an essential role in realiz-ing demand response, since it helps to increase the residents' energy-awareness and facilitates load shifting by allowing residents to configure degrees of freedom for their appliances. This talk will present a generic user interface for building operating systems from aspects of design, imple-mentation and evaluation.
To ensure the user interface can be flexibly adapted to various types of buildings, a series of ge-neric data models is designed which are independent of any building operating system. Besides, we introduce three roles with different permissions and several functional components of the user interface. Based on this design, a prototype of such a generic user interface named Building Op-erating System User Interface (BOS UI) has been implemented to operate the Energy Smart Home Lab (ESHL) at the Karlsruhe Institute of Technology (KIT). Finally, we evaluate the design, functionality, and usability of the BOS UI. The detailed functions that have been implemented in the BOS UI as well as the evaluation results about the user interface will be presented in this talk.
Vortrag Kolloquium Angewandte Informatik Jannik Stroetgen2018-06-15T14:00:000Kolloquium Angewandte Informatik
Termin: 15 Juni 2018 14:00:00
Beschreibung DE: Due to the importance of temporal information in any information space, temporal expressions are prevalent in diverse text types. The detection of temporal expressions and the normalization of their semantics to some standard format is thus an important task in natural language processing (NLP). This task is known as temporal tagging, and applications of several domains (e.g., information retrieval and question answering) can benefit from the output of temporal taggers to provide more meaningful and useful results.
In this talk, I will present my work on multilingual, domain-sensitive temporal tagging. In particular, I will explain the extension of our publicly available temporal tagger HeidelTime to all languages in the world. After showing some application-motivated research projects, in which normalized temporal information is exploited, I will finally provide details about our very recent work on named entity disambiguation by presenting our time-aware named entity disambiguation approach.
Multikriterielle Optimierung bestehender Schüttgut-Homogenisierungssysteme2018-06-06T15:45:000Graduiertenkolloquium
Termin: 6 Juni 2018 15:45:00
Beschreibung DE: Schüttgut verarbeitende Industrien, wie beispielsweise Kupfererz-Aufbereitung oder Kohlekraft-werke, nutzen Homogenisierungsanlagen, um Material vor weiterer Verarbeitung zu homogenisieren. Insbesondere in älteren Werken werden diese Anlagen meist statisch nach Standardverfahren gesteuert. Durch statistisch auftretende Effekte ist der Grad der Homogenisierung instabil. In der weiteren Verarbeitung kommt es dadurch zu Problemen, wie der Verletzung von Umweltauflagen oder erhöhtem Verschleiß eingesetzter Gerätschaften.
Der Vortrag stellt ein System zur Online-Optimierung der Homogenisierungsanlagen vor. Die Optimierung wird basierend auf den konkurrierenden Kriterien Homogenisierungsgrad, Effizienz und Robustheit durchgeführt. Der Entscheidungsträger kann mit den aktuellen Analysen und Vorhersagen des Systems eine fundierte Entscheidung zum optimalen Betrieb treffen.
Durch Online-Überwachung der Material-Parameter und die Nutzung der bereits in den Werken verfügbaren Informationen zum Material-Zeitplan ist die kostengünstige Nachrüstung des Optimierungssystems in bestehende Anlagen ohne aufwändigen Umbau möglich. Dadurch können existierende Anlagen dynamisch gesteuert, überwacht und effizient betrieben werden. Im Analysebetrieb bietet das System Möglichkeiten zur frühzeitigen Erkennung zukünftiger Probleme und ermöglicht so eine rechtzeitige Reaktion.
Im Rahmen der Forschung wurden problemspezifische sowie generische Modelle und Algorithmen entwickelt. Darauf basierend wurde Simulations- und Optimierungs-Software implementiert. Diese werden zusammen mit den erzielten Ergebnissen und der Evaluation der entwickelten Komponenten in diesem Vortrag vorgestellt.
Systemdienstleistungserbringung durch intelligente Gebäude2018-05-02T15:45:000Graduiertenkolloquium
Termin: 2 Mai 2018 15:45:00
Beschreibung DE: Ein wesentlicher Teil der Energiewende findet in der Niederspannungsebene von Elektroenergienetzen statt, wo insbesondere die zunehmende Verbreitung von dezentraler Erzeugung die Infrastruktur belastet. Gleichzeitig werden durch Informations-, Kommunikations- und Automatisierungstechnik ehemalige Konsumenten von Energie zu aktiven Teilnehmern im Energiesystem.
Eine Ausprägung hiervon sind intelligente Gebäude, die mittels eines automatisierten Gebäudeenergiemanagementsystems die Energieflüsse in Haushalten durch Ausnutzung von Speichern und von Lastverschiebungspotentialen weiterer lokaler Komponenten gemäß nutzergegebener Präferenzen optimieren. Die Optimierungsziele sind zumeist ökonomischer Natur und vom Netz-betrieb entkoppelt. Daher können die Ziele der Nutzer des Gebäudes mit denen des Betreibers des versorgenden Niederspannungsnetzes in Konflikt stehen, da der Netzbetreiber einen zuverlässigen Netzbetrieb sicherzustellen und die dafür nötigen Handlungen zu ergreifen hat. Diese Eingriffe können auch in die Sphäre von intelligenten Gebäuden reichen und deren Handlungsspielraum einschränken.
Der Vortrag analysiert die Auswirkungen intelligenter Gebäude auf Niederspannungsnetze und diskutiert die Anforderungen an ein regionales Energiemanagementsystem zur netzdienlichen Koordination von intelligenten Gebäuden. Ein entsprechendes System wird vorgestellt, in dem eine Netzampel zur Auflösung des skizzierten Interessenkonflikts zwischen Netzbetrieb und Netznutzung ausgestaltet ist. Weiterhin wird für die Technologieevaluation von regionalem Energiemanagement und den Netzrückwirkungen intelligenter Gebäude eine Power-Hardware-in-the-Loop Umgebung aus einem realen intelligenten Gebäude und einer Microgrid-Co-Simulation auf Basis definierter Referenzszenarien vorgestellt.
Vortrag Graduiertenkolloquium: Magnus Knuth2018-04-20T14:00:000Graduiertenkolloquium
Termin: 20 April 2018 14:00:00
Beschreibung DE: The Web of Data is not only permanently growing in terms of covered domains, applied vocabularies, and number of triples, it is indeed in a constant state of flux. While this cir-cumstance may entail extra complexity to the data consumer it also brings the prospect of data improvements over time. So it is in the best interest of data consumers to keep the effort low and receiving a high level of data quality.
This talk will address the involvement of data consumers in the process of data cleans-ing and issues of handling dynamic Linked Data.
Linked Data publishers can apply various data quality evaluations prior to publication of their datasets. But nevertheless, most inconsistencies only become apparent when the data is processed in applications and presented to the end users. Therefore, it is not only the responsibility of the original data publishers to keep their data tidy, but progresses to become a mission for all distributors and consumers of Linked Data. Hence, data publi-cations ideally get continuously updated in order to match the quality needs of the actual data consumers. My main research topic is the inspection of feedback mechanisms for Linked Data cleansing in open knowledge bases. This work includes processing change requests created by data consumers, versioning Linked Data resources, and methods for individual user notification about data updates.
Suad Sejdovic 22018-04-13T14:00:000Graduiertenkolloquium
Termin: 13 April 2018 14:00:00
Beschreibung DE: Die Digitalisierung in der heutigen Zeit bringt neben vielen Vorteilen auch Herausforderungen mit sich. Seit jeher komplexe Aufgaben, wie der Betrieb von komplexen technischen Produktionsanlagen, werden durch die resultierende Informationsflut noch herausfordernder. Die Verarbeitung von Datenströmen (Stream Processing) stellt ein Paradigma dar, das sich besonders gut für die echtzeitnahe Verarbeitung der neu generierten Datenströme aus Quellen wie Produktionsanlagen und Umgebungssensorik eignet. So können Anlagen und Systeme kontinuierlich analysiert werden und es kann in Echtzeit auf Probleme reagiert werden. Von der technologischen Seite betrachtet, existieren bereits Systeme zur echtzeitnahen Auswertung von Datenströmen, die speziell darauf ausgelegt sind, komplexe Ereig-nismuster auf Basis von räumlichen, kausalen und zeitlichen Zusammenhängen zu erkennen (Complex Event Processing). Diese Systeme neigen allerdings dazu, den menschlichen Anwender durch ihre mangelnde Transparenz zu überfordern, da die Entstehung von relevanten Situationen nicht nachvollzogen und mitverfolgt werden kann. Dies steht im Widerspruch zur menschlichen Art und Weise, wie Daten verarbeitet und in Bezug gebracht werden, um ein Situationsbewusstsein zu etablieren und führt dazu, dass Situationen häufig erst im Moment ihres Eintretens erkannt werden.
Im Rahmen dieses Vortrages präsentieren wir eine konzeptionelle und technische Erweiterung für Complex Event Processing Systeme zur transparenten und nachvollziehbaren Verarbeitung von Datenströmen. Hierzu wird in einem ersten Schritt der implizite Lebenszyklus für Situationen erweitert und explizit eingeführt. Grundlage der Erweiterungen bildet das psychologische Modell des Situationsbewusstseins, das beschreibt wie Menschen im Kontext von komplexen Systemen Informationen verarbeiten. Technisch basieren die notwendigen Erweiterungen der Architektur und Arbeitsweise von Complex Event Processing auf Basis der teilweisen Musterausführung (Partial Pattern Fulfillment). Dem Anwender wird somit die Möglichkeit gegeben, die Entwicklung einer Situation zur Laufzeit nachzuverfolgen, relevante Statistiken einzusehen und im Idealfall die Situation sogar vorherzusagen. Diese neugewonnene Transparenz kann somit genutzt werden, um die Weiterentwicklung von Complex Event Processing von einer rein reaktiven Sicht hin zu einer proaktiven Sicht voranzutreiben.
Jan Müller22018-04-11T15:45:000Graduiertenkolloquium
Termin: 11 April 2018 15:45:00
Beschreibung DE: Im Zuge der Energiewende soll eine sichere Versorgung kostengünstiger und umweltfreundlicher Energie umgesetzt werden. Hierzu müssen die Effizienz der Energiesysteme und die Nutzung erneuerbarer Energiesysteme erhöht werden. Ein optimierter Betrieb bestehender und neuer Energiesysteme kann hierzu eine effizientere Verwendung von Energie ermöglichen und die Nutzung von fluktuierenden erneuerbaren Energien unterstützen. Aufgrund ihres Anteils am Gesamtenergieverbrauch von etwa 35% lohnt es sich besonders in Gebäuden, die lokale Nutzung, Speicherung und Erzeugung von Energie durch automatisierte Energiemanagementsysteme zu optimieren. Dies unterstützt die Kostenwirksamkeit und damit ein weiteres Ziel der Energiewende.
Im Vortrag wird ein Ansatz zur Minimierung der Betriebskosten von Energiesystemen in Gebäuden unter Unsicherheit vorgestellt. Basierend auf der Optimierung eines rollierenden Planungshorizontes wird der Einsatz von elektrischen und thermischen Energiespeichern, eines Blockheizkraftwerkes sowie verschiebbarer Lasten geplant. Hierbei werden die Unsicherheit der prognostizierten Erzeugung der Photovoltaikanlage in der Optimierung durch stochastische Methoden, die Problematik unterschiedlicher Zeitskalen und die Wahl des Planungshorizontes berücksichtigt. Der Vortrag präsentiert das Modell des Energiesystems, die Optimierungsmethodik und Vergleiche mit deterministischen Ansätzen.
Oleg Valgaev 22018-03-28T15:45:000Graduiertenkolloquium
Termin: 28 März 2018 15:45:00
Beschreibung DE: Following the ongoing transformation of the European power system, in the future, it will be necessary to balance the increasing share of decentralized renewable energy supply. Its volatility will have to be coped with locally, within the distribution grid, where low volt-age consumers can act as flexible loads. This will require reliable short-term load fore-casts at the level of single buildings, which are more accurate than currently used stand-ardized load profiles. At the same time, the forecaster has to require minimal amount of manual setup and parametrization since it will be applied at numerous buildings without any specific knowledge about them.
In this work, we develop such forecaster investigating nonparametric regression methods such as Kernel and K-Nearest Neighbors regression. We demonstrate its accuracy on a large set of low voltage consumers of different types and aggregation size, comparing them to load profiling, similar day, as well as other approaches discussed in the literature.
34. AIK-Symposium "Gute Algorithmen"2018-02-16T14:00:000AIK-Symposium
Termin: 16 Februar 2018 14:00:00
Beschreibung DE: Am 16.02.2018 veranstalten das Institut AIFB und der Verein AIK e.V. das 34. AIK-Symposium zum Thema "Gute Algorithmen". Weitere Informationen finden Sie in unserem AIFB Themenheft 2018 sowie auf der Veranstaltungswebseite.
Susan Hickl22018-01-24T15:45:000Graduiertenkolloquium
Termin: 24 Januar 2018 15:45:00
Beschreibung DE: Aufgaben eines betrieblichen Informationssystems sind die Unterstützung und Durchführung der Geschäftsprozesse eines Unternehmens, die sich aus den Unternehmenszielen ableiten lassen. Nur falls Unternehmensziele, Geschäftsprozesse und Informationssystem aufeinander abgestimmt sind, kann ein Informationssystem die Geschäftsprozesse eines Unternehmens erfolgreich unterstützen und umsetzen, und nur in diesem Fall trägt das Informationssystem effektiv zur Erfüllung der Unternehmensziele bei. Probleme im Entwicklungsprozess eines Informationssystems treten allerdings häufig auf, da zur Repräsentation von Unternehmenszielen, Geschäftsprozessen und Informationssystem verschiedenste Modelle genutzt werden, die nicht aufeinander abgestimmt sind, sondern unabhängig voneinander erstellt werden. Ergebnis dieser fehlenden Abstimmung sind Inkonsistenzen, die letztendlich bewirken, dass das Informationssystem die Unternehmensziele nicht in geeigneter Weise unterstützt.
Ein weiteres Problem besteht in der meist nachrangigen Betrachtung von Qualitätsanforderungen im Entwicklungsprozess. Obwohl gerade die Erfüllung der Qualitätsanforderungen über einen erfolgreichen Einsatz des Informationssystems entscheidet, werden Qualitätsanforderungen häufig nicht in die Entwicklungsmodelle integriert und somit auch nicht in auf diesen Modellen basierende Entwicklungsentscheidungen einbezogen. Notwendig ist folglich, dass Qualitätsanforderungen in gleicher Weise wie funktionale Anforderungen mit den Unternehmenszielen abgestimmt sein müssen und systematisch daraus entwickelt werden sollten. Insbesondere bei der Erstellung von Geschäftsprozessmodellen ausgehend von Unternehmenszielen ist es nötig, Qualitätsanforderungen in die Modelle zu integrieren, da die Geschäftsprozessmodelle nicht nur zur Dokumentation dienen, sondern ebenfalls Grundlage für die Ausführung mit Workflowmanagementsystemen sein können. Im Modell integrierte Qualitätsanforderungen können in diesem Fall direkt verstanden und umgesetzt werden.
Im Vortrag wird ein Ansatz beschrieben, der ein Modell der Ebene Unternehmensziele systematisch in ein Geschäftsprozessmodell transformiert, wobei Qualitätsanforderungen in die Transformation einbezogen und in das Geschäftsprozessmodell integriert werden. Eine Anwendung dieses Ansatzes unterstützt ein systematisches und qualitätsorientiertes Vorgehen bei der Entwicklung betrieblicher Informa-tionssysteme.
Christian Hentschel2018-01-12T14:00:000Graduiertenkolloquium
Termin: 12 Januar 2018 14:00:00
Beschreibung DE: Visual Concept Detection describes the process of automatically classifying images and video based on the depicted visual content. This talk will start by comparing different approaches for vis-ual concept detection, namely Bag-of-Visual-Words and Deep Convolutional Neural Networks (CNN). Bag-of-Visual-Words methods represented the de facto standard until CNNs emerged, backed by highly parallel hardware as well as large training datasets.
The talk will present the impact of the available amount of training data on the classification perfor-mance as achieved by the individual approaches. Furthermore, techniques for model visualization will be presented. Non-linear models suffer from the lack of interpretability. The presented visualiza-tion methods help to qualitatively compare visual concept models by highlighting image regions considered important for the final classification decision.
Finally, the talk will address the problem of leveraging social photo communities in order to increase the amount of available training data without additional manual labeling efforts. A social community language model will be presented as well as an outlook for multi-modal retrieval.
Antrittsvorlesung von PD Dr. Agnes Koschmider und PD Dr. Pradyumn Shukla2017-12-20T17:30:000Vortrag
Termin: 20 Dezember 2017 17:30:00
Beschreibung DE: Gemeinsame Veranstaltung mit vier Antrittsvorlesungen
„Carbon Accounting von E-Pkw“
PD Dr. Patrick Jochem
Institut für Industriebetriebslehre und Industrielle Produktion
„Verhaltensanalysen in intelligenten, vernetzten Umgebungen“
PD Dr. Agnes Koschmider
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
„Digitale Transformation – Mehr als die Summe ihrer Teile“
PD Dr. Benjamin Müller
Universität Groningen
„Schnelle Algorithmen zur Matrixmultiplikation“
PD Dr. Pradyumn Kumar Shukla
Institut für Angewandte Informatik und Formale Beschreibungsverfahren
Antrittsvorlesung von Prof. Dr. Harald Sack und Prof. Dr. J. Marius Zöllner2017-11-29T17:30:000Vortrag
Termin: 29 November 2017 17:30:00
Beschreibung DE: Antrittsvorlesung von Prof. Dr. Harald Sack:
„Combining Semantics and Deep Learning for Intelligent Information Services“
Antrittsvorlesung von Prof. Dr. J. Marius Zöllner:
„From Deep Learning to Autonomous Systems“
Weitere Informationen finden Sie in der Einladung (s. u. PDF-Datei)
Tobias Käfer22017-11-24T14:00:000Graduiertenkolloquium
Termin: 24 November 2017 14:00:00
Beschreibung DE: The uniform interfaces of web technologies such as REST for interaction and RDF for knowledge representation provide access to a vast amount of data and functionality for billions of people and machines. Linked Data, the combination of both REST and RDF, has found widespread adoption.
Current approaches to make use of Linked Data in an integrated fashion typically operate read-only and involve queries and ontologies, both grounded in mathematical logic.
We propose a rule language for behaviour specifications for user agents that operate one writeable Linked Data. We combine the theoretical foundations of HTTP and RDF with Abstract State Machines and use the combination to ground the operational semantics of the rule language in mathematical logic. We evaluate the approach in an the Internet of Things scenario.
For behaviour specifications on higher levels of abstraction, we use workflows. We propose a block-structured workflow language, which supports the basic workflow patterns, and give operational semantics to the workflow language in the rule language. We outline how the approach allowed us to analyse aircraft cockpits regarding workflows in Virtual Reality.
We back our considerations using a statistical analysis of a monitoring study of Linked Data on the web. We present the set-up of the study and provide insights into the dynamics of Linked Data on the web: we analyse the dynamics of linked data on the Web on the domain, the host, the document, the triple, and the term level.
For the dynamics on the document level, we investigate conditions for deriving consistent snap-shots, as a precondition for reasoning on and querying of Linked Data.
Aditya Mogadala22017-11-17T14:00:000Graduiertenkolloquium
Termin: 17 November 2017 14:00:00
Beschreibung DE: The growth of heterogeneous content on the web has raised varied challenges, yet also provided numerous opportunities. Content is either represented with textual form existing in different lan-guages or appear as a visual embodiment like images and videos. In many occasions, different amalgamation of them co-exist to complement each other or to provide consensus. For solving challenges that requires intelligent content processing and has dependency between diverse do-mains, leveraging such multiple view data instances with data driven learning will be beneficial. Despite having availability of such content. However, many data driven learning (i.e. machine learning) approaches still solve tasks separately from varied computer science domains such as computer vision (CV), natural language processing (NLP) and semantic web. Similar endeavor is not shown for the tasks which require input either from all of those domains or subset of them.
Colloquium news
You can subscribe to our colloquium mailing list. .
Each announcement will be sent to you by e-mail.
Subscription:
Kolloquiumsverteiler