Stage-oe-small.jpg

Helmholtz Supercomputing and Big Data: Unterschied zwischen den Versionen

Aus Aifbportal
Wechseln zu:Navigation, Suche
 
(3 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 5: Zeile 5:
 
|Beschreibung DE=Sowohl das Höchstleistungsrechnen (Supercomputing) als auch das Management und die Analyse großer Mengen strukturierter und vor allem unstrukturierter Daten (Big Data) haben sich für die theoretische und experimentelle Forschung sowie für die industrielle Produkt- und Produktionsoptimierung zu einer strategischen Schlüsseltechnologie entwickelt. Die Komplexität der in Wissenschaft und Technik untersuchten Systeme und Prozesse nimmt stetig zu und somit auch die Anforderungen, die an diese Systeme und Methoden gestellt werden. Ebenso stellen die in aktuellen und zukünftigen Großexperimenten sowie in aufwändigen Simulationsrechnungen generierten hochkomplexen Datenflüsse sowie die Speicherung und Verarbeitung riesiger Datenmengen eine besondere Herausforderung dar.<br/><br/>
 
|Beschreibung DE=Sowohl das Höchstleistungsrechnen (Supercomputing) als auch das Management und die Analyse großer Mengen strukturierter und vor allem unstrukturierter Daten (Big Data) haben sich für die theoretische und experimentelle Forschung sowie für die industrielle Produkt- und Produktionsoptimierung zu einer strategischen Schlüsseltechnologie entwickelt. Die Komplexität der in Wissenschaft und Technik untersuchten Systeme und Prozesse nimmt stetig zu und somit auch die Anforderungen, die an diese Systeme und Methoden gestellt werden. Ebenso stellen die in aktuellen und zukünftigen Großexperimenten sowie in aufwändigen Simulationsrechnungen generierten hochkomplexen Datenflüsse sowie die Speicherung und Verarbeitung riesiger Datenmengen eine besondere Herausforderung dar.<br/><br/>
  
Das Hauptziel des Programms ist es, im Rahmen nationaler und europäischer Strukturen unverzichtbare Instrumente und Infrastrukturen des Höchstleistungsrechnens und für das Management und die Analyse großskaliger Datenbestände für die deutsche und europäische Wissenschaft zur Verfügung zu stellen. Entsprechend dieser Ziele geht es zum einen um die Entwicklung von Methoden und Werkzeugen sowie den Aufbau und Betrieb von z. T. Helmholtz- weiten Simulationslaboratorien, in denen Fachwissenschaftler und Computerexperten zusammen mit Anwendern an der Lösung Community-spezifischer HPC-Probleme arbeiten. Zum anderen geht es um die Erforschung und Entwicklung föderierter Systeme, die u. a. besonders die Behandlung und Analyse großer Datenmengen unterstützen. Ein dritter Bereich umfasst die Beschaffung, Installation und dem Betrieb von Supercomputern der höchsten Leistungsklasse in Jülich sowie der dazu notwendigen Infrastruktur in Abstimmung mit den nationalen und europäischen Partnern.<br/><br/>
+
Das Hauptziel des Programms ist es, im Rahmen nationaler und europäischer Strukturen unverzichtbare Instrumente und Infrastrukturen des Höchstleistungsrechnens und für das Management und die Analyse großskaliger Datenbestände für die deutsche und europäische Wissenschaft zur Verfügung zu stellen. Entsprechend dieser Ziele geht es zum einen um die Entwicklung von Methoden und Werkzeugen sowie den Aufbau und Betrieb von z. T. Helmholtz- weiten Simulationslaboratorien, in denen Fachwissenschaftler und Computerexperten zusammen mit Anwendern an der Lösung Community-spezifischer HPC-Probleme arbeiten. Zum anderen geht es um die Erforschung und Entwicklung föderierter Systeme, die u. a. besonders die Behandlung und Analyse großer Datenmengen unterstützen. Ein dritter Bereich umfasst die Beschaffung, Installation und dem Betrieb von Supercomputern der höchsten Leistungsklasse in Jülich sowie der dazu notwendigen Infrastruktur in Abstimmung mit den nationalen und europäischen Partnern.
Quelle: [http://www.helmholtz.de/forschung/schluesseltechnologien/supercomputing_big_data/ www.helmholtz.de]
+
 
 +
Das Institut AIFB wirkt im Topic 2 des Programms bei der weiteren Entwicklung des Data Life Cycle Labs Energy mit.
 
|Beschreibung EN=Over the last decade, both High performance computing (Supercomputing) and the management and analysis of Big Data have become strategic key technologies for theoretical and experimental research as well as for industrial product and production optimisation. The continuously growing complexity of model systems in science and engineering reflects the growing demands which have to be met by the computational instruments and methods. A special challenge today is the handling of highly complex data streams generated by large-scale experiments and simulations as well as the storage, management and analysis of big data.<br/><br/>
 
|Beschreibung EN=Over the last decade, both High performance computing (Supercomputing) and the management and analysis of Big Data have become strategic key technologies for theoretical and experimental research as well as for industrial product and production optimisation. The continuously growing complexity of model systems in science and engineering reflects the growing demands which have to be met by the computational instruments and methods. A special challenge today is the handling of highly complex data streams generated by large-scale experiments and simulations as well as the storage, management and analysis of big data.<br/><br/>
  
The main goal of the programme “Supercomputing & Big Data” is the provision of world-class instruments and infrastructures for high performance computing and for the management and analysis of large-scale data for computational science and engineering in Germany as well as in Europe and within the context of national and European frameworks. To address these challenges the programme will focus on the one hand on developing methods and tools—used to optimise HPC applications from various research fields—as well as on establishing and operating, in part, Helmholtz-wide simulation laboratories, where expert scientists and computer-experts work together with users on solutions for community-based HPC challenges. On the other hand, the programme aims to investigate and develop federated systems and infrastructures specifically designed to support the secure, efficient and sustainable management and analysis of big data. A third part comprises the procurement, installation and operation of leading supercomputers in coordination with national and European partners.<br/><br/>
+
The main goal of the programme “Supercomputing & Big Data” is the provision of world-class instruments and infrastructures for high performance computing and for the management and analysis of large-scale data for computational science and engineering in Germany as well as in Europe and within the context of national and European frameworks. To address these challenges the programme will focus on the one hand on developing methods and tools—used to optimise HPC applications from various research fields—as well as on establishing and operating, in part, Helmholtz-wide simulation laboratories, where expert scientists and computer-experts work together with users on solutions for community-based HPC challenges. On the other hand, the programme aims to investigate and develop federated systems and infrastructures specifically designed to support the secure, efficient and sustainable management and analysis of big data. A third part comprises the procurement, installation and operation of leading supercomputers in coordination with national and European partners.
Source: [http://www.helmholtz.de/forschung/schluesseltechnologien/supercomputing_big_data/ www.helmholtz.de]
+
|Kontaktperson=Hartmut Schmeck
|Kontaktperson=Hartmut Schmeck, Fabian Rigoll,
 
 
|URL=http://www.helmholtz.de
 
|URL=http://www.helmholtz.de
 
|Start=2015/01/01
 
|Start=2015/01/01
 
|Ende=2020/12/31
 
|Ende=2020/12/31
 
|Finanziert von=BMBF
 
|Finanziert von=BMBF
|Projektstatus=aktiv
+
|Projektstatus=abgeschlossen
 
|Logo=Helmholtz logo main.png
 
|Logo=Helmholtz logo main.png
 
|Vorgängerprojekt=LSDMA
 
|Vorgängerprojekt=LSDMA
|Person=Hartmut Schmeck, Fabian Rigoll,
+
|Person=Hartmut Schmeck
 
|Forschungsgruppe=Effiziente Algorithmen
 
|Forschungsgruppe=Effiziente Algorithmen
 +
|Unterprojekt=DLCL Energy
 
}}
 
}}
 
{{Forschungsgebiet Auswahl
 
{{Forschungsgebiet Auswahl
 
|Forschungsgebiet=Energieinformatik
 
|Forschungsgebiet=Energieinformatik
 +
}}
 +
{{Forschungsgebiet Auswahl
 +
|Forschungsgebiet=Data Science
 
}}
 
}}

Aktuelle Version vom 12. Februar 2020, 10:05 Uhr

Helmholtz logo main.png

Helmholtz-Programm Supercomputing and Big Data (SBD)


Kontaktperson: Hartmut Schmeck

http://www.helmholtz.de



Projektstatus: abgeschlossen
Unterprojekte: DLCL Energy


Beschreibung

Sowohl das Höchstleistungsrechnen (Supercomputing) als auch das Management und die Analyse großer Mengen strukturierter und vor allem unstrukturierter Daten (Big Data) haben sich für die theoretische und experimentelle Forschung sowie für die industrielle Produkt- und Produktionsoptimierung zu einer strategischen Schlüsseltechnologie entwickelt. Die Komplexität der in Wissenschaft und Technik untersuchten Systeme und Prozesse nimmt stetig zu und somit auch die Anforderungen, die an diese Systeme und Methoden gestellt werden. Ebenso stellen die in aktuellen und zukünftigen Großexperimenten sowie in aufwändigen Simulationsrechnungen generierten hochkomplexen Datenflüsse sowie die Speicherung und Verarbeitung riesiger Datenmengen eine besondere Herausforderung dar.

Das Hauptziel des Programms ist es, im Rahmen nationaler und europäischer Strukturen unverzichtbare Instrumente und Infrastrukturen des Höchstleistungsrechnens und für das Management und die Analyse großskaliger Datenbestände für die deutsche und europäische Wissenschaft zur Verfügung zu stellen. Entsprechend dieser Ziele geht es zum einen um die Entwicklung von Methoden und Werkzeugen sowie den Aufbau und Betrieb von z. T. Helmholtz- weiten Simulationslaboratorien, in denen Fachwissenschaftler und Computerexperten zusammen mit Anwendern an der Lösung Community-spezifischer HPC-Probleme arbeiten. Zum anderen geht es um die Erforschung und Entwicklung föderierter Systeme, die u. a. besonders die Behandlung und Analyse großer Datenmengen unterstützen. Ein dritter Bereich umfasst die Beschaffung, Installation und dem Betrieb von Supercomputern der höchsten Leistungsklasse in Jülich sowie der dazu notwendigen Infrastruktur in Abstimmung mit den nationalen und europäischen Partnern. Das Institut AIFB wirkt im Topic 2 des Programms bei der weiteren Entwicklung des Data Life Cycle Labs Energy mit.


Involvierte Personen
Hartmut Schmeck


Informationen

von: 1 Januar 2015
bis: 31 Dezember 2020
Finanzierung: BMBF
Vorgängerprojekt(e): LSDMA


Forschungsgruppe

Effiziente Algorithmen


Forschungsgebiet

Helmholtz Supercomputing and Big Data (Energieinformatik, Data Science)





Publikationen zum Projekt
article
 - inproceedings
 - book
 - incollection
 - booklet
 - proceedings
 - techreport
 - deliverable
 - manual
 - misc
 - unpublished






phdthesis
Fabian Rigoll
Nutzerorientiertes Energiedatenmanagement
Hartmut Schmeck; Achim Streit, 2017/03/07, KIT, Fakultät für Wirtschaftswissenschaften
(Details)


↑ top