Video: High Performance Computing for Dummies | Duration: 1992s | Summary: High Performance Computing for Dummies | Chapters: Willkommen zum HPC (5.3599997s), Entwicklung des Hochleistungsrechnens (283.88s), Komplexität des Supercomputing (829.89996s), Herausforderungen des Hochleistungsrechnens (1101.6599s), Fazit und Ausblick (1582.615s)
Transcript for "High Performance Computing for Dummies": Schönen guten Tag und herzlich willkommen zu einem weiteren Lenovo Update Webcast. Michael Weigelt ist mein Name. Wie immer begleite ich Sie als Moderator durch die nächste halbe Stunde. Unseren Sprecher des Tages muss ich, glaub ich, nicht mehr vorstellen, der geschätzte Kollege Braue Höcher. Seines Zeichens, so was Ähnliches wie ich, ne, son Technologieberater Portfolio Erklärer, eben aber aus dem Rechenzentrumumfeld. Guten Morgen, Paul, kurze nach München. Hallo. Guten Morgen in die Runde. Wir haben einen Titel gewählt, der vielleicht 'n bisschen despektierlich klingeln mag, aber so ist natürlich nicht gemeint. High Performance Computing für. Sie kennen vielleicht die Buchreihe, die einfach sich zum Ziel gesetzt hat, manchmal etwas komplexe Sachverhalte einfach zu erklären. Und genau das ist der Sinn und Zweck dieses Webcasts. Alteingesessene HPC Experten werden wir heute hier nicht glücklich machen und da nichts Neues erklären, sondern es geht darum, dem, ich sag mal, technisch interessierten Laien einfach 'n Einstieg in den HPC Bereich zu geben. Die Folien, die Du uns zeigst, Paul, haben wir wie immer hochgeladen. Sie sind herzlich wie immer eingeladen, Fragen loszuwerden, rechts neben unseren Sprecherbildern häufige Fragen. Da finden Sie das entsprechende Textfeld und damit genug von mir. Paul, bin gespannt, leg los. Dankeschön, dann teile ich jetzt noch mal einen Bildschirm und hätte dann noch ganz gern einen Daumen hoch, dass es auch geklappt hat. Jetzt hat man noch mal, vorhin hat er auch mal gezickt ganz kurz jetzt. Es arbeitet wohl, was ich sehe, aber ich seh's tatsächlich selbst auch noch nicht. Aber dann nutz ich den Moment grade mal noch 'n bisschen als Einstieg schon mal zu formulieren. Ich hab dieses Thema gewählt, weil ich selber 'n paar Jahre lang in dem Bereich tätig war und Unterstützung gegeben habe, Konfigurationen gemacht hab, also mit dem Thema durchaus 'n bisschen vertraut bin. Also es teilen klappt immer noch nicht, oder? Nee, Du musst da aber noch raufklicken. Ja, jetzt mach ich noch mal. Ich wähl den Bildschirm aus, mach Share und ich seh, dass er im Hintergrund arbeitet. Screen 2 Share. Jetzt müsste es klappen, hoffe ich. Wow das auch nicht. Ja, das hat geklappt. Baum hoch. Ja, vielen Dank. Entschuldigung für diese leichte Verschiebung. Und mir hab ich gedacht, ja, ich hab damals es erlebt, dass High Performance Computing sowas Artmysteriöses ist. Das ist irgendwas Elfenbeinturmartiges, wo sich wenige Technologiespezies finden und und dergleichen. Aber es ist tatsächlich etwas, womit wir relativ schnell weit kommen können und was relativ spannend ist. Ich hab das Thema immer sehr, sehr geschätzt und auf der Suche nach Themen habe ich gesagt, wählen wir das mal aus. Jetzt klicke ich mal rein und lege die Agenda auf, was ich mir vorgenommen hab. Motivation, wir gehen dann durch Begriffserklärung, historischer Abriss, was ist die Herausforderungen? Ich schau mal 'n paar Begriffe diskutieren wir. 500 Liste, Einsatzgebiete, also wo findet's tatsächlich statt und dann auch noch mal die Herausforderungen für heute und in der Zukunft, ja. HPC ist überall, ist meine Behauptung, ja. Ganz klar, der Morgenblick in den Wetterbericht ohne HPC nicht denkbar, werde ich gleich versuchen zu erklären. Die Fahrt in die Arbeit, egal wie Sie es machen mit der Bahn oder mit dem Auto ohne HPC werden Sie da nicht weit kommen. Abends, wieso abends? Naja, schauen wir es uns mal an. Kino. Also die die Thematik der morgendliche Wetterbericht, ja, der Deutsche Wetterdienst, der unter anderem nicht den Wetterbericht macht, rechnet und simuliert unglaublich viel und dazu braucht es Hochleistungsrechnen, weil sonst bekommen Sie den Wetterbericht zwar, aber dann zu spät, noch für Ihre Tour oder was Sie gemacht haben planen, ja. Eine Fahrt mit der Bahn, ja, 70 Braun, Fahrt Fahrplan. Das sind alles so Dinge, die man eine vernünftige Fahrt bekomme und dergleichen. Mit dem Auto, jedes Auto würde nicht funktionieren. Strömungssimulation, ich hab jetzt hier die Sicherheitthema, die Crashsimulation. Das ist alles High Performance Computing. Ja und Abend, das hatte ich jetzt dummerweise beim Bauern dieser Präsentation schon gemacht, Kino. Ja, sobald Sie 'n Animationsfilm anschauen oder dergleichen, da gibt es ja alle möglichen Dinge schon, die es zu sehen gibt, dass es alles etwas auf auf Hochleistungsrechnen gemacht wird. So, dann machen wir den den Ich hab hier noch 2 Beispiele angebracht, ja, der Herr der Ringe 3 ist jetzt schon ein etwas älteres Beispiel, der gestiefelte Karte 2 ist jetzt so 2 3 Jahre alt. Das sind alles so Beispiele, dass man sieht hat, ja, auch dort in der Unterhaltungsindustrie findet so was statt. Dann machen wir den den Begriffserklärung, ja? Früher wurde auch gerne der Begriff Cluster verwendet, ein Hochleistungscluster und hab mal son paar Dinge hier zusammengestellt, das werd ich jetzt nicht im Detail darlegen, das haben Sie zur Unterlage, aber es ist einfach Man hat einen Verbund gebaut aus Systemen, mehrere Systeme, mehrere Einzelsysteme, die zu einem Verbund zusammengeschaltet werden, verschiedenste Aufgaben zu erfüllen. 2 große Beispiel sind der Hochverfügbarkeitscluster oder eben der High Performance Computing Cluster. Serverfarmen sind 'n bisschen was Ähnliches oder dergleichen und hier unten noch mal eine etwas modernere Definition, weil da auch der Begriff GPU dann schon mal auftaucht und es geht halt einfach darum, wirklich Anlagen zu realisieren, die in der Lage sind, große Datenmengen zu machen, große Rechenleistungen zu bringen, dann eben wissenschaftliches Rechnen, technische Thematik in der Industrie, aber eben, wie ich es auch dargestellt hab, in der in durchaus in den Medien, in der Unterhaltungsindustrie und dergleichen. Dann hab ich mich gestern mal 'n bissel hingesetzt, mal nachgesehen, wo kommt so was her? Eine Quelle, die die ich da gefunden hab, hat mir gesagt, ja, dass dieser CDC 6600 im Jahr 12064 sozusagen 1 der Rechner sein könnte, der wirklich als Geburtsstunde des High Performance Computing gilt. Ich kann's jetzt nicht genau beurteilen, bin jetzt da nicht tiefer reingegangen, aber man hat eben dann damals schon angefangen Rechner zu etablieren, die wirklich technische Probleme, wissenschaftliche Probleme lösen. In den Siebzigerjahren ganz berühmt natürlich Grey. Ich hab ein Bild gefunden, das sogenannte teuerste Sofa der Welt. Ich war noch in der alten IT Abteilung des deutschen Museums, da war ein die Nachfolgemaschine, die Grey 2 zu sehen, das sieht natürlich schon toll aus. Man kann's in dem Bild jetzt nicht sehen, aber das, was in der Mitte blauschimmert, das ist ein Riesenwust von dünnen Kabeln. Also man hat damals wirklich noch sehr, sehr mit der Hand am Arm solche Schaltungen realisiert, hohes Leistungsvermögen aus den Rechnen raus Ja dann in den Achtzigerjahren kamen auch einige Systeme auf den Markt. Jetzt kommt dann ein bisschen meine Historie heraus, die sogenannte IBM Risk Architektur mit der RS 6000 hat dann den DeepBlue entwickelt und der hat natürlich damals einen großen Marketingerfolg gelandet, als er dann im Jahr 97 in Schachspielen Gerry Kasparow geschlagen hat. Also Hochleistungs rechnen wirklich in Schachspiel zu simulieren, wie es in die Zukunft geht, also wie ich Schachzüge durchkalkuliere und dergleichen. Dann gab's einen Begriff, der nennt sich Beowulf, der hat sich, weiß ich genau wann, siebziger, 8, Neunzigerjahre etabliert. Da sind dann einfach Mitarbeiter hergegangen, haben im Unternehmen einfach alte IT zusammen gesammelt, was halt mehr oder minder auf den Flurenstand, weil es entsorgt werden sollten, haben dann damit einen Cluster gebaut, weil man ja Rechenleistung hatte und fühlten sich auch immer son bisschen wie die wie die Nerds, bisschen Underdog mäßig, haben dann mit Open Source gearbeitet, deswegen hier auch die Linux Thematik. Damit ist man dann also letztendlich eingestiegen. Hat gesagt, ich versuche günstigen Komponenten viel, viel Rechenleistung zusammenbringen und das ist son bisschen auch die Geburtsstunde dessen gewesen, was dann danach kam, weil man dann wirklich auf x 86 Technologie gesetzt hat, tatsächlich dann auf diese Weise zu realisieren die ganze Sache und im Großen und Ganzen hat sich das so stark durchgesetzt, dass man eigentlich fast eigentlich fast jede Cluster Rechnung oder jeden Hochleistungsrechner heute mit klassischer xsechsundachtzig Technologie betreibt, ja. Ja. Dann gab's natürlich noch andere Entwicklungen. Man hat dann sogenannte Grid Computing mal in den Zweitausenderjahren Sache eine Aufnahme. Das heißt man konnte zum Beispiel dann auch wirklich mehrere Hochleistungsrechner an mehreren Standorten zusammenschalten, dann damit die Leistung noch mal zu stärken. Also in Deutschland gibt es ja zum Beispiel verschiedene Einrichtungen im Süden, das HLRS Hochleistungsrechenzentrum Süd. Also das sind die Universitäten Baden Württemberg. Ich weiß nicht genau, welche zusammen Scale selber gibt's im Norden, das HLRN. In meiner Heimat Bayern gibt's die Bayerischen Akademien der Wissenschaften, die betreiben zum Beispiel das Leibniz Rechenzentren und die werden dann bisweilen, wenn es wirklich ganz ganz große Rechenaufgaben gibt, mal zusammengeschaltet, so einen Rechenjob mal zu rechnen. In Österreich macht gibt's das auch. Musiker heißt das, ist glaube ich Wien Linz und UI. Ich glaub Innsbruck sind die 3 Städte, die jeweils einen eigenen Rechner haben oder eine Rechenanlage haben und dann hin und wieder zusammen zu schalten. Und was sich natürlich jetzt auch entwickelt, ist Cloud Computing, dass man sagt, ich gehe mit High Performance Computing in die Cloud, biete dann an und natürlich es wird sehr, sehr stark schon geforscht in in Richtung Quantencomputing, ob da was passiert. KI ist natürlich hier noch mal ein Schmiermittel, ein Motivator und dergleichen. So was sind die Herausforderungen, ja? Spaß macht es natürlich da drin zu arbeiten, weil es gibt diesen Begriff, ist der Spitzensport der IT oder die Formel 1 der IT. Also das heißt, da geht's wirklich daran, das meiste rauszuholen, ja? Und das heißt, hier geht's wirklich wie im Spitzensport, jetzt nehme ich das Beispiel Skifahren, ja? Jemand, der als Profi den Hahnenkamm bewältigen will, der braucht 'n bisschen anderes Skimaterial als der gewöhnliche Freizeitskifahrer. Da werden die Kanten in 1 Weise geschliffen, die Bindungen optimiert, dass die den ganzen Belastungen 1 Streif überstanden halten können. Dasselbe im Radsport und dergleichen. Also sehr, sehr spannend und das wird alles aufs Maximum optimiert, ja, dergleichen, ja. Aber man kann jetzt natürlich, da muss man vorsichtig sein, ja. Ich kann natürlich die aller allerhöchste Leistung rausholen, ja. Ich mein, ich kann ich kann beliebig viele Rechner irgendwo hinstellen. Na ja, das ist natürlich auch beliebig viele Kosten und ich hab dann auch irgendwelche Nebeneffekte, die nicht gehen. Relativ schnell hat sich da rausgestellt, ich muss schauen, wie krieg ich ein günstiges Preis Leistungs Verhältnis hin, ja? Also ich hab ein bestimmtes Budget, wie möchte ich die meiste Leistung dafür rauskommen? War dann eine Rechenleistung, die dann ganz stark gemacht wurde? Heutzutage muss man ganz anders noch mal rechnen, weil diese Großanlagen, die es da geht, brauchen natürlich auch unglaublich viel Energie, müssen gekühlt werden und dergleichen. Das heißt, der der der Zeitraum, wo ich ihn betreibe, die Kosten dafür sind auch nicht zu unterschätzen. Das heißt, ich muss heute auch schauen, wie viel Leistung krieg ich für mein Watt? Also also eine Performance pro Watt heraus. Das ist also auch nicht ganz so einfach. Naja und da ja durch diese Architektur des Beowolve Clusters, also diese dieses einfach Zusammenstecken von vielen vielen Rechnen, was natürlich heute sehr, sehr homogen passiert, hat man eine sehr, sehr hohe Parallelität. Aber wenn natürlich sehr viele Leute gleichzeitig an einem Problem arbeiten, an ein ein Problem berechnen, dann muss natürlich ein schneller schneller Datenaustausch stattfinden können. Das heißt, das Netzwerk 1 Hochleistungsrechner ist eigentlich das Zentrale. Und wenn man einen Hochrechnungsrechte designt, dann muss man eigentlich vom Netzwerk her anfangen. Und das ist die Hauptunterschied, wenn ich zu klassischen Lösungen gehe, eine ACI Lösung oder ich bau mir eine eine virtualisierte Farm auf, eine VDI Lösung, dann fang ich eigentlich in der Regel vom Rechner her an, gegebenenfalls vom Storage und wähle dann ein vernünftiges Netz. Hier muss ich eigentlich vom Netz her denken, damit eben so was geht und entscheidend ist natürlich da die Latenz. Man kann es sich son bisschen überlegen. Ich nehm das Thema Wetterberechnungen, da hat man sehr, sehr viele Daten, weil man sehr viele Wetterstationen hat, Satellitendaten und dann legt man über das Gebiet, für das man einen einen Wetterbericht machen möchte, ein Gitter. Das heißt, ich teile einfach eine Fläche in entsprechende Quadrate ein und berechne in den Quadraten die Simulationen, die ich brauch, Wetter zu machen. Das sind in der Regel partielle Differentialgleichungen, die gelöst werden, unser Gleiterdruckverhältnisse, Temperatur, Luftbewegung und dergleichen. Aber jede Zelle beeinflusst natürlich die Nachbarzelle. Das heißt, ich muss dann natürlich meine Rechenergebnisse mit der Nachbarzelle austauschen und das muss besonders schnell gehen, weil wenn eine Nachbarzelle nichts rechnen kann, weil sie die Ergebnisse von der nach von der anderen nicht bekommt, dann ziehe ich die Leistung ganz gemein nach unten. Und dann kann man sich natürlich vorstellen, der Wetterbericht wird umso genauer, je kleiner die Zellen sind, also diese Quadrate und das zieht dann natürlich die Rechenleistung nach oben. Ich könnte natürlich sagen, Deutschland ist ein Quadrat, dann kriegen wir einen Wert für Hamburg und München und dann Sie wissen genau, das wird nicht so unbedingt funktionieren. Ja, das gibt dann natürlich unterschiedliche Architekturen und was ich jetzt hier schon so andeute, zeigt, dass wir hier schon sehr, sehr viel Komplexität haben nur über das, wie ich rede. Das heißt, hier gibt es gilt es drum, unfassbar viele Abstimmungen zu machen, damit und jetzt nehme ich den Begriff Tuning kommt, dass ich wirklich aus der Maschine, die ich da gekauft oder diesen Maschinenverbund, das Optimum rauskomme, ja? Und da nehmen wir jetzt noch mal die Formel 1, da fahren ja Autos die unglaublich viel kosten und die ich dann wirklich auf das Millimeterchen optimieren muss, dass sie für einen Rennverlauf oder für eine Rennstrecke oder auch für Wetterverhältnisse entsprechend optimiert sind. Also da geht dann sehr, sehr viel zu tun, ja? Und das soll dieses Bild mal son bisschen zeigen. Allein mal ganz grob, was für Ebenen das noch sagt. Ja, ich hab unten mal die Hardware und das ist schon mal kompliziert. Ich hab ja Rechner, ich muss Storage haben, ich muss verschiedene Rechnertypen haben, ich muss 'n Netzwerk haben, das muss ja alles schon mal zusammenspielen, weil da schon verschiedene Komponenten, verschiedene Hersteller zusammenkommen. Dann hab ich 'n Betriebssystem, ich brauch die Treiber und muss das alles abstimmen. Dann hab ich 'n Managementebene, ich hab gegebenenfalls 'n Cluster File System und dergleichen. Dann muss ich oben eine Verwaltung machen, dass die Ressourcen organisiert sind. Ich muss Entwicklungstools haben. MPIs ist Message Spacing Interface. Das ist diese diese Protokollschicht Ebene, auf der die Rechen untereinander kommunizieren. Ja, also das ist wie TCPI Person in etwa bloß halt sehr, sehr viel schneller und optimierter für das entsprechende Umfeld. Und dann habe ich oben noch die Anwendungen und da gibt's auch eine Menge Optimierungen, Libraries und so weiter, die das Ganze dann optimieren können. Also was das zeigt ist, diesen komplexen Abhängigkeiten zu brauchen, braucht man unglaublich viel Erfahrung und Skills. Und das ist natürlich etwas, was über viele, viele Jahre gewachsen ist, dass man weiß, wie man aus diesem komplexen Thema etwas Optimales macht, ja. Ja, dann haben wir habe ich zum Beispiel den Verweis gemacht, die Top 500 Liste, das ist natürlich ganz entscheidend. Das ist sozusagen das, was früher in den Fünfziger-, Sechzigerjahren die Billboard Charts für Singles waren. Also die meistverkauften Platten oder Singles Hits dergleichen wurden einmal in der Woche dargestellt und man konnte sehen, wer ja gerade der angesagteste Star war und so ist es mit der Top 500 Liste auch. Ja, man will einfach wissen, ja, wenn man hier schon Vollgas gibt, ja, ich hab die vorne 1 gesagt, ich hab den Rennsport gesagt, dann will man natürlich auch wissen, wer ist dann am Schluss der Schnellste und die Liste ist natürlich 'n bisschen länger, es sind 500, heißt Top 500. Ich hab unten links auch den Link reingestellt, wo die ist. Die wird zweimal im Jahr veröffentlicht, weil alle Woche, das wäre vollkommen übertrieben und man macht dann sogenannten Benchmark, ja? Der der habe ich auch da hingeschrieben, das ist ein Linpack Benchmark, der sozusagen eine Art von Hochleistungsrechnen simuliert. Das heißt, gibt wirklich Vollgas bei dem Prozessor, hat aber durchaus natürlich schon auch das Thema Memory im im Griff und ist so dimensioniert, dass ich wirklich über Rechner grenzen und sehr, sehr große Anzahl von Rechnern hinweg einen solchen ganzen Cluster unter betrieben können. Ist also sicherlich eine Maßzahl, die nicht so ganz daneben ist, ja? Einen SPECT dot org da drauf laufen zu lassen, also das würde da nicht so viel Sinn machen, ja? Man kann's für die wissenschaftlich interessierten sagen, das ist 'n Gauß Algorithmus, da werden also riesengroße Matrizen auf Gauß Algorithmen über den Gauß Algorithmus optimiert, damit man sie entsprechend multiplizieren und bearbeiten kann. Das ist so die die Technologie dahinter, ja. Diese Supercomputing App, diese Top 500 Liste wird zweimal im Jahr veröffentlicht auf der sogenannten IC International Supercomputing Messe. Das ist sozusagen die Place to be, wenn man im im HPC unterwegs sein möchte, also so wie eine eine IFA in Berlin, eine Mobile Work Kongress in in Barcelona oder eben auch die GTC aktuell im so im auch im normalen Rechner, ist das dieser und der findet zweimal im Jahr statt, einmal im Juni. Also ist jetzt grade die Woche gewesen, glaub, dürfte schon abgeschlossen sein, findet's in Deutschland traditionell statt, traditionell in Hamburg und dann noch mal einmal im November in den USA und auf dieser Zeit wird dann eben die neue Top 500 Liste aufgeführt. Okay, dann Einsatzgebiete. Ja, ich hab schon mal 'n paar Dinge genannt, ja wissenschaftliches Thema in der Simulation in der in der Physik ganz, ganz entscheidend. Sie mögen an Astronomie denken, Sternexplosionen, Supernova oder auch Kollisionen möchte man berechnen. Das sind Dinge mit so unfassbar vielen Daten, aber so vielen Rechnungen, die man eigentlich nur noch über Algorithmen simulieren kann. Dafür brauche ich riesengroße Anlage. Chemides selbige Erfaltungen von Molekülen oder dergleichen. Genomforschung, unglaublich viele Sachen kann man da machen. Klimamodelle logischerweise kann man sich auch vorstellen. Ich hab das Wetter gesagt, das ist sozusagen immer tagesaktuell Klima geht natürlich in einen großen Zeitraum hinein und je je größer ich den Umgriff mache, desto besser ist es natürlich, da müssen dann natürlich auch vielleicht Höhendifferenzen noch gemacht werden, weil der Jetstream eine Rolle spielt, unterseesche Bewegungen in den Ozeanen, also unglaublich große Dinge. Die Nomenforschung habe ich schon gesagt, die Medizin ist da ganz, ganz wichtig, das Entwickeln von neuer Medikamente, aber auch das durchaus Testen von Medikamenten, ja? Es ist ja auch durchaus mit viel, viel wissenschaftlichen Daten möglich, Medikamente zu testen, bevor man's ja auf den potenziellen Patienten loslässt und vielleicht kann man einfach entsprechend die Risiken vorher erkennen, ja? Dasselbe gehe im Ingenieurswesen, ja? Jeder kann sich noch dran erinnern, die sogenannten Crashtest, die Crashtest Tammys, die man also in Autos gesetzt, die man dann auf irgendwelchen Schienen gegen irgendwelche Hindernisse fahren ließ, dann zu sehen, wie sich eine Karosserie ein Auto verhält im Unfallfall, die Fahrgastzelle alles zu besser zu machen, zu sicherer zu machen und dergleichen. Aber das kann ich natürlich nicht beliebig oft und beliebig lange machen. Auch da gibt es mittlerweile genug Daten, dass ich das erst mal simulieren kann. Ganz ohne Tests wird's nicht gehen, aber die sind dann halt nur noch final, dann werden also nur noch eine gewisse Anzahl von Prototypen tatsächlich getestet und dergleichen. Materialforschung. Flugzeugdesign hab ich auch noch eigentlich schon. Strömungssimulation ist so was, was heute immer noch stärker kommt, die Sounddesign auch im Auto und dergleichen. Ganz, ganz wichtige Sachen. Wettervorhersage haben wir schon gesagt. Er hat Kryptografie und dergleichen und dann eben dies das Rendern von Filmen, Dirk Stiefel De Carter ist jetzt ein Beispiel, die muss gestehen. Ich habe ihn nicht gesehen, aber da kann man sich ja vorstellen, was da für 'n Aufwand dahinter ist, dass die Bewegungen der Figuren dann wirklich realistisch aussehen und 'n Genuss beim Video kommt. Unten rechts hab ich 'n Bild reingestellt, das ist einen ein Cluster, der stand in der Stadt Barcelona aufm Campus in 1 so neoomanischen Kapelle, nannte sich Marenostrum, das lateinische Wort für das Mittelmeer, ist also sozusagen ein Aushängeschild von Barcelona oder von Katalaneniern. Wichtig ist hier zu erwähnen im Jahr 2020, der wurde 2018 aufgebaut, im Jahr 2020 oder 21, weiß es nicht genau, ist es auf dem Rechner gelungen, das Genom des Coronavirus zu entschlüsseln. Also es sind dann auch Dinge, die tatsächlich im unmittelbaren Leben mit uns zu tun haben. Sone Entschlüsselung hilft dann natürlich auch irgendwann Impfstoffe zu entwickeln. Ja, weitere Dinge aus der Praxis, ja, Klimasimulation hatte ich so gesagt, das ist eigentlich noch so mal dasselbe, was ich gerade schon mal gesagt hab. Weiteres Beispiel ist auch zum Beispiel noch die Astronomie. Die Datenmengen, die von den Teleskopen kommen, sind unglaublich groß. Mittlerweile ja auch verteilt, weil man ja mittlerweile auch nicht mehr mit Einzelteleskopen arbeitet, sondern eben mehrere Teleskope an großen entfernten Orten aufstellt, weil man natürlich damit einen präziseren tieferen Blick ins Weltall bekommen kann und die muss ich dann natürlich auch vernünftig rechnen. Ich glaube auch, dass zum Beispiel dieses berühmt gewordene Bild 1 erst das ersten Aufnahme 1 schwarzen Loches ist ja mit solchen Teleskopen erstellt worden, aber da kommen natürlich Daten raus, die nicht sichtbar sind, ja? Das sind Radio- oder Rentenstrahlung. Ich bin da nicht ganz genau tief drin, was es ist. Das ist ja nichts, was sichtbar ist. Aber dann kann ich natürlich aus den Daten tatsächlich das dann rausrechnen und sagen, wie sähe das denn aus, wenn wir das jetzt mit dem menschlichen Augen sehen? Und dann muss ich natürlich so ein Bild auch erst mal generieren aus Daten. So wurde das ja nicht fotografiert, ja, weil so was kann ich eigentlich in der Regel nicht mit klassischen Lichtwellen, die fürs menschliche Auge sichtbar sind, machen. Also so was wurde gemacht. Die Physik Teilchenbeschleuniger gibt es ja einige, der berühmteste steht in CERN und wenn da so Protonen aufeinander geschossen werden, entstehen in Bruchteilsten von Mikrosekunden Datenmengen, die sind unglaublich, die muss ich natürlich aufnehmen, aber dann natürlich auch durchsuchen. Ja, es ist jetzt noch nicht so lange her, dass das Higgs Boson versucht wurde zu finden und da muss ich natürlich auch wirklich wie wie wie ein Trüffelschwein versuchen, das eine Merkmal in diesen Datenmengen zu finden, das 'n Hinweis geben könnte, dass dieses Teilchen existiert. Ja, die Herausforderungen in der Zukunft habe ich mir schon mal gesagt. Ja, grundsätzlich der die Rechen der Bedarf an Rechenleistung steigt, ja? Also das Thema KI hab ich ja schon erwähnt, aber die die Rechenmodelle werden immer präziser, ja? Die die die Wetterdienste oder die Wetterberichte in den Sechzigerjahren ja waren deutlich weniger präzise, als sie's heute sind. Die Modelle sind besser, die Modelle werden aber fein granularer. Das heißt, wenn ich einfach die Kantenlänge 1 Quadrates halbiere, vervierfache ich die Anzahl der Zellen und so weiter, ja, weil's ja im Quadrat eingeht. Das bedeutet, ich muss eigentlich auch die Rechnerleistung vervierfachen, wenn das denn überhaupt linear umsetzbar ist, diese Kalkulation, ja? Also das sind die Dinge. Ich will natürlich noch präziser bei bei 'ner Materialforschung arbeiten, vielleicht wirklich auf die appomare Ebene runtergehen, dass ich gewisse Materialien auf Steifigkeit, auf Bruchfestigkeit und dergleichen untersuche. Das heißt, ich brauch tatsächlich immer immer mehr Rechenleistung, ja? Der technisch wissenschaftliche Fortschritt geht da voran und natürlich die KI Anwendungen treiben das Ganze natürlich auch auf, ja? Aber das hat dann glaube ich auch jeder schon mal gehört an der Situation, ja, viel kostet viel, also Technologie, aber natürlich vor allem unglaublich viel Energiehunger. Mittlerweile wird ja grade im Zusammenhang mit KI, kann man aber natürlich durchaus auch in Richtung HPC spiegeln, dass der Energiehunger gigantisch ist. Wir haben teilweise schon in in in Deutschland Beschränkungen, dass man in gewissen Gebieten nicht mehr mehr Rechenzentren bauen darf, nicht mehr mehr CO2 ausstoßen darf, was ja sozusagen äquivalent dazu steht. Man muss das schon machen. Und im Norden von München stehen ja 2 Anlagen, einmal der Leibniz Rechenzentrumsrechner, der sehr, sehr viel Energie natürlich zieht und nebenan ist ein das NPCDF, glaube ich, wenn wir jetzt alles täuscht, zum Max Planck Institut für Plasmaforschung. Und die müssen hin und wieder mal unglaublich große Strommengen erzeugen. Das machen sie mit Wirbelstrombremsen, die also in gigantischer Größe arbeiten, die dann bremsen und dann gibt's einen Energiestoß. Das können die aber nur machen, wenn sie kurz vorher mit der Stadt München telefonieren, weil das sonst das gesamte Netz im Umfeld ins Wackeln bringen würde, dass dass die sich sozusagen gegen solche Sachen absichern, ja. Ein großer Energiehunger bedeutet natürlich gigantische Abmenge, Wärme, ja. Also letztendlich ist ja nicht jeder Rechner, jedes Rechenzentrum und natürlich jeder Hochleistungsrechner nichts anderes wie ein elektrisch betriebener Heizer Heizlüfter. Ja, ich stecke elektrische Energie rein, krieg natürlich Rechenergebnisse raus, aber die gleiche Energiemenge geht hinten in der Regel als Abwärme raus. Das muss ich natürlich auch machen und ich hab's ja schon angedeutet, das sind mittlerweile signifikante Kosten, ja, son sone Hochleistungsrechneranlage kostet mehrere Millionen, kann auch teilweise mal streichstellig werden, aber wir haben dann auch ähnliche, nicht Dimensionen nicht so viel, aber wirklich auch Millionenbeträge an Energiekosten, weil ich's ja dann auch nach einem Nachgang noch mal kühl muss. Da verweise ich natürlich auch auf die die Vorträge, die ich hier in dieser Runde schon gehalten hab zum Thema Wasserkühlung. Da gibt es sehr, sehr viel. Und das Gleiche ist natürlich auch noch, wir haben sehr, sehr hohe Energiedichte. Ja? Ich kann ja die die Anlagen nicht beliebig groß machen. Das heißt, ich arbeite dort mit doch sehr, sehr kompakten Systemen, auch allein leistungsfähig, damit die die Abstände zwischen den Geräten nicht zu hoch sind und das heißt, da nehm ich der Schnellste, was geht für gewöhnlich. Ich pack das in sehr, sehr kompakte Gehäuse rein und dann entstehen schnell mal ein Einzelschrank, der tatsächlich mit bis zu 100 Kilowatt betrieben wird und mehr. Das sind tatsächlich Realitäten und das sind natürlich Herausforderungen, wie krieg ich das denn gekühlt? Auch hier noch mal der Verweis auf die Wasserkühlung. Ja, und jetzt dann ganz kurz noch mal, wieso wir als Novo darüber reden und warum das hier eine Rolle spielt. Ja, wir machen das ja schon sehr, sehr lange. Das ist auch definitiv eine Historie früher. Ich hatte ja den den Namen auch schon genannt, die IBM war ja dafür mal sehr, sehr berühmt. Beispiel DeepBlue hatte ich erwähnt, hat da sehr, sehr viel Erfahrung und diese Erfahrung existiert seit über 30 Jahren und die ist damals mehr oder minder fast ganzheitlich zur Lenovo übergegangen vor jetzt 10 Jahren. Das heißt, diese diese schlagkräftige Truppe existiert hier. Und was wir hier anbieten, ist, wenn man noch mal an das Bild zurückdenkt mit der Komplexität, Experience Skill hatte ich da reingeschrieben, dass dass wir dann sagen, diese Komplexität in den Begriffen stellen wir eigentlich in der Regel immer Gesamtlösungen zusammen, ja? Wir bauen das letztendlich auf und übergeben dem Kunden das schlüsselfertig. Das heißt eigentlich, er fängt dann allenfalls noch an, seine seine Anwendungen zu installieren. Der Rest ist optimiert, ja? In der Regel werden für solche Anlagen Benchmarks verlangt. Das heißt, man will im Vorfeld wissen, das was wir hier machen, was wir planen tun, braucht so und so viel Rechenleistung. Könnt ihr die mir bieten? Lasst mal die Technologie, die da zum Einsatz kommt, rechnen. Wir simulieren das, das machen dann eine Benchmark. In der Regel sind das Linpacks, die hat man generisch, aber dann eben nimmt man auch die Anwender, die ein Kunde verwendet und schaut nach, was da Sache ist. Ist natürlich dann auch wichtig fürs Bewerten 1 Angebotes, ja. Da steht ein Preis dran. Man hat eine Zahl, wie schnell ist das Ganze. Man kann dann noch kalkulieren, wie viel Energie das bedarf und so weiter und daraus kann dann ein Kunde sagen, welches Angebot ist dann das Richtige, ja? Wir haben dann natürlich unglaublich viel Erfahrung, wenns Beratung geht, weil heutzutage, glaube ich, gibt es keinen Hochleistungsrechner mehr, der ohne Wasserkühlung auskommt. Heißt, da muss man natürlich im Vorfeld auch die entsprechende Beratungsleistung machen, was ist denn zu tun, ein Gebäude zu ertüchtigen, dass man's machen kann. Da haben wir natürlich auch sehr, sehr viel Erfahrung. Da gehen wir natürlich gern mit rein. Und wir sind natürlich dann auch erfahren, dass wir wirklich aus den Komponenten, da nimmt man ja auch immer in der Regel die Wertigsten und immer die neuesten logischerweise, dann auch das Optimum herausbringt, ja? Das heißt, das Tuning zu machen. Einen Benchmark muss ich auch so machen, dass er wirklich vernünftig ist. Da arbeite ich mit Libraries, da mach ich verschiedene Einstellungen und so weiter. Also da sind diese Sachen und das Zusammenspiel der Komponenten spielt da eine ganz, ganz große Rolle. Jetzt sehe ich grade, dass hier eine Frage reinkommen. Ach, die das mache ich gleich im Nachgang. Ich würde jetzt dann noch mal auf die nächste Seite gehen. Die Top 500 Liste ist der Stand vom November 24. Soll noch mal belegen, dass unsere Expertise da nicht aus der Luft gegriffen ist seit 2018 oder 2018 19, nee, 18 19 war's, ich weiß nicht mehr genau, haben hat die Lenormau die meisten Einträge durchgängig auf dieser Top 500 Liste, ja? Und im November waren noch annähernd jeder dritte Rechner dieser Welt, der schnellste Rechner dieser Welt aus unserem Haus. Das ist entscheidend. Wir haben die Expertise und noch mal dieses Thematik auf Spitzensport zurückzukommen, wer tunen kann, wer schnell kann, kann normal auch und normal ist eben das Rechnen, was nicht High Performance Computing ist. Natürlich kauft sich keiner, wenn er einen VDI bauen möchte, einen Virtalisierungscluster, irgendwas Langsames, aber es ist natürlich nicht für pausenloses Vollgas ausgelegt. Das heißt, das sind dann stabile Systeme, die ihren Job, der mal auch mal bedeutet, ich tu grad mal nichts, aber dann wieder Spitzenzeiten auch kann. Wenn ich aber die ganze Zeit Vollgas fahren kann, dann hat man eine Technologie, die wir hier realisieren können. Wir haben da die Erfahrung, wir können das umsetzen und ja, haben die Expertise. Es macht sehr, sehr viel Spaß. Wir können auch wirklich Kunden anbieten, mal sowas anzusehen. Unsere Referenzen sind auch immer mal bereit 'n Besuch zu gestatten, wenn man sich das mal anschauen möchte. Natürlich reiner Tourismus ist da natürlich nicht möglich, weil dort ja auch sinnvoll gerechnet werden möchte. Damit bin ich an der Stelle durch. Die die jetzt kam die Frage rein, das ist son bisschen relevant in Richtung HPC, weil das vielleicht 'n Gerät sein könnte, das dort auch eingesetzt werden könnte. Die SD 5 20 V4 haben wir zurückgezogen, weil sie eigentlich nicht wirklich so sehr 'n sehr sinnvolles Gerät geworden ist, ja? Man hat diese Dents Systeme gebaut für einen einen eher Hyperscaler, der bisweilen ähnliche Anforderungen hat wie ein HPC, aber doch nur ähnliche. An sich war diese luftgekühlten Systeme auf dieser Basis tatsächlich nicht mehr, der Prozessortechnologie, die nur bedingt in dem Fall Unfall richtig ist. Ich mein, wenn jetzt hier ein großer Kunde sagt, er braucht das ganz dringend in natürlich entsprechende Stückserkammer gegebenenfalls noch mal ins Gespräch kommen, aber ich würd sagen, dass nein und wenn tatsächlich hier harte Anforderungen in diese oder jene Richtung ist, bin ich gern bereit, Kontakt zu mir aufzunehmen. Dann können wir finden, ob man eine Alternative dazu finden. So, dann mach ich, beende ich meine Freigabe und gebe zurück an Michael. War das die einzige Frage auch, oder? Das war erst mal die einzige Frage. Besten Dank, Paul. Ich blende Sie noch wieder aus. Dann bleibt mir nur mich zu bedanken für Ihre Aufmerksamkeit, Ihre Zeit. Wir sehen uns allerdings gleich heute wieder, lieber Paul. Nicht vergessen, 13 Uhr 30 kommen wir noch mal zueinander. Lenovo Punkt d e, da können Sie sich anmelden für den Webcast heute Nachmittag, auch mit dem Paul Höcherl. Und zwar geht's da Trends. Da tut sicherlich der Begriff KI auch sicherlich auftauchen, aber eben auch noch 'n paar andere Dinge, Stichwort Wasserkühlung und so weiter. Also da plaudert der Paul auch mal eine halbe Stunde drauf rum, drauf los, was es so an Themen gibt, die Rechenzentrumsverantwortliche so in den nächsten Monaten und Jahren beschäftigen werden. So, der Paul hat, glaub ich, schon aufgelegt. Der hat das Browserfenster schon zugemacht, ist jedenfalls schon weg. Das macht nichts. Noch mal besten Dank von meiner Seite für Ihre Aufmerksamkeit und dann vielleicht bis heute Nachmittag. Machen Sie's gut? Bis. Bis dann. Bin doch eigentlich noch da gewesen. Na ja, egal. Schönen Tag. Höre ich noch. Ja, stimmt. Alles klar. Ja, schaltet Ich glaub, man kann nicht gleichzeitig 2 Menschen sehen und den Bildschirm. Das ist, glaub ich, dahinter. So, jetzt bist Du wieder da, ne. Neues Tool noch, ne, ungewohnt, ja, muss man 'n bisschen üben üben zu klicken. Alles klar. Alles gut. Tschüs. Später.