Stage-oe-small.jpg

Helmholtz Supercomputing and Big Data: Unterschied zwischen den Versionen

Aus Aifbportal
Wechseln zu:Navigation, Suche
(Die Seite wurde neu angelegt: „{{Projekt |Kurzname=Helmholtz Supercomputing and Big Data |Name=Helmholtz-Programm Supercomputing and Big Data (SBD) |Name EN=Helmholtz Programme Supercomputing a…“)
 
Zeile 11: Zeile 11:
 
The main goal of the programme “Supercomputing & Big Data” is the provision of world-class instruments and infrastructures for high performance computing and for the management and analysis of large-scale data for computational science and engineering in Germany as well as in Europe and within the context of national and European frameworks. To address these challenges the programme will focus on the one hand on developing methods and tools—used to optimise HPC applications from various research fields—as well as on establishing and operating, in part, Helmholtz-wide simulation laboratories, where expert scientists and computer-experts work together with users on solutions for community-based HPC challenges. On the other hand, the programme aims to investigate and develop federated systems and infrastructures specifically designed to support the secure, efficient and sustainable management and analysis of big data. A third part comprises the procurement, installation and operation of leading supercomputers in coordination with national and European partners.<br/><br/>
 
The main goal of the programme “Supercomputing & Big Data” is the provision of world-class instruments and infrastructures for high performance computing and for the management and analysis of large-scale data for computational science and engineering in Germany as well as in Europe and within the context of national and European frameworks. To address these challenges the programme will focus on the one hand on developing methods and tools—used to optimise HPC applications from various research fields—as well as on establishing and operating, in part, Helmholtz-wide simulation laboratories, where expert scientists and computer-experts work together with users on solutions for community-based HPC challenges. On the other hand, the programme aims to investigate and develop federated systems and infrastructures specifically designed to support the secure, efficient and sustainable management and analysis of big data. A third part comprises the procurement, installation and operation of leading supercomputers in coordination with national and European partners.<br/><br/>
 
Source: [http://www.helmholtz.de/forschung/schluesseltechnologien/supercomputing_big_data/ www.helmholtz.de]
 
Source: [http://www.helmholtz.de/forschung/schluesseltechnologien/supercomputing_big_data/ www.helmholtz.de]
|Kontaktperson=Hartmut Schmeck, Fabian Rigoll,  
+
|Kontaktperson=Hartmut Schmeck, Fabian Rigoll,
 +
|URL=http://www.helmholtz.de
 
|Start=2015/01/01
 
|Start=2015/01/01
 
|Ende=2020/12/31
 
|Ende=2020/12/31
Zeile 18: Zeile 19:
 
|Logo=Helmholtz logo main.png
 
|Logo=Helmholtz logo main.png
 
|Vorgängerprojekt=LSDMA
 
|Vorgängerprojekt=LSDMA
|Person=Hartmut Schmeck, Fabian Rigoll,  
+
|Person=Hartmut Schmeck, Fabian Rigoll,
 
|Forschungsgruppe=Effiziente Algorithmen
 
|Forschungsgruppe=Effiziente Algorithmen
 
}}
 
}}

Version vom 10. April 2015, 12:49 Uhr

Helmholtz logo main.png

Helmholtz-Programm Supercomputing and Big Data (SBD)


Kontaktperson: Hartmut SchmeckFabian Rigoll

http://www.helmholtz.de



Projektstatus: aktiv


Beschreibung

Sowohl das Höchstleistungsrechnen (Supercomputing) als auch das Management und die Analyse großer Mengen strukturierter und vor allem unstrukturierter Daten (Big Data) haben sich für die theoretische und experimentelle Forschung sowie für die industrielle Produkt- und Produktionsoptimierung zu einer strategischen Schlüsseltechnologie entwickelt. Die Komplexität der in Wissenschaft und Technik untersuchten Systeme und Prozesse nimmt stetig zu und somit auch die Anforderungen, die an diese Systeme und Methoden gestellt werden. Ebenso stellen die in aktuellen und zukünftigen Großexperimenten sowie in aufwändigen Simulationsrechnungen generierten hochkomplexen Datenflüsse sowie die Speicherung und Verarbeitung riesiger Datenmengen eine besondere Herausforderung dar.

Das Hauptziel des Programms ist es, im Rahmen nationaler und europäischer Strukturen unverzichtbare Instrumente und Infrastrukturen des Höchstleistungsrechnens und für das Management und die Analyse großskaliger Datenbestände für die deutsche und europäische Wissenschaft zur Verfügung zu stellen. Entsprechend dieser Ziele geht es zum einen um die Entwicklung von Methoden und Werkzeugen sowie den Aufbau und Betrieb von z. T. Helmholtz- weiten Simulationslaboratorien, in denen Fachwissenschaftler und Computerexperten zusammen mit Anwendern an der Lösung Community-spezifischer HPC-Probleme arbeiten. Zum anderen geht es um die Erforschung und Entwicklung föderierter Systeme, die u. a. besonders die Behandlung und Analyse großer Datenmengen unterstützen. Ein dritter Bereich umfasst die Beschaffung, Installation und dem Betrieb von Supercomputern der höchsten Leistungsklasse in Jülich sowie der dazu notwendigen Infrastruktur in Abstimmung mit den nationalen und europäischen Partnern.

Quelle: www.helmholtz.de


Involvierte Personen
Hartmut SchmeckFabian Rigoll


Informationen

von: 1 Januar 2015
bis: 31 Dezember 2020
Finanzierung: BMBF
Vorgängerprojekt(e): LSDMA


Forschungsgruppe

Effiziente Algorithmen


Forschungsgebiet

Helmholtz Supercomputing and Big Data (Energieinformatik, Data Science)





Publikationen zum Projekt
article
 - inproceedings
 - book
 - incollection
 - booklet
 - proceedings
 - techreport
 - deliverable
 - manual
 - misc
 - unpublished






phdthesis
Fabian Rigoll
Nutzerorientiertes Energiedatenmanagement
Hartmut Schmeck; Achim Streit, 2017/03/07, KIT, Fakultät für Wirtschaftswissenschaften
(Details)


↑ top