von Ingo Goldbeck, Alexander Stein und Alexander Fedtke
Nach einer viel zu langen Winterpause fand endlich wieder ein Treffen der Limited WiP Society Hamburg statt. Und zwar diesmal in den Räumlichkeiten des Deutschen Klima Rechenzentrums (DKRZ) und des Max-Planck-Institutes für Meteorologie (MPI) in der Bundesstraße. Um 19 Uhr waren bereits einige bekannte Gesichter zu sehen und man tauschte sich bei Bier und Softdrinks aus, welche freundlicherweise vom MPI zur Verfügung gestellt wurden. Es gab viel zu erzählen, viele hatten sich ja einige Monate nicht gesehen. Sehr beeindruckend war der hochmoderne, teilbare Konferenzraum, der locker Platz für 60 Besucher bietet und dabei mit modernstem Equipment wie mehreren Beamern, Lichttechnik, einer 3D Projektor Anlage sowie einem riesigen Smart Board ausgestaltet ist. Der Traum eines jeden Coaches.
Gegen 19:30 führte uns Gunnar Gorges (stellvertretender Leiter der IT-Abteilung und Projektmanager) zunächst in den „Kanban-Raum“. Hier präsentierte er uns zwei große, sehr ordentlich gestaltete Kanban Boards mit einer Vielzahl bunter Karten, WIP Limits, Avataren und Magneten, sowie einem in fetter Schrift ausgedruckten knappen Regelwerk zur Benutzung des Boards. Genau genommen handelt es sich um zwei Boards, eines zur Sammlung und Priorisierung von Projekten und eines zur Durchführung von maximal 6 parallelen Projekten sowie größer Aufgaben. Das tägliche Stand-up findet mit 15 festen Personen sowie freiwilligen Zuhörern statt. Diverse Fragen zum Board wurden gestellt und von Gunnar offen und fachkundig beantwortet.
Zurück im Konferenzraum begann nun Gunnar’s Vortrag über die Arbeit mit Kanban innerhalb der letzten 18 Monate. Gunnar arbeitet in der 30-köpfigen IT-Gruppe, die vor einem Jahr in 2 Teams aufgeteilt wurde. Die tägliche Arbeit umfasst den Betrieb diverser Server und Clientsysteme im Forschungs- und Universitätsumfeld mit 800-1000 Nutzern. Trotz einer hohen Kundenzufriedenheit im Service blieben aber viele Projekte unvollendet und es mangelte an Fokus auf die Projekte. Gemeinsam mit Rainer Weigle, dem Leiter der IT Gruppe, entschloss sich Gunnar, im August 2012 Kanban einzuführen. Nach drei Monaten und drei Retrospektiven, in denen das Kanban Board immer wieder angepasst wurde, kam es dann erst im Februar 2013 wieder zu einer Retrospektive, gefolgt von einer Phase der internen Reorganisation. Während dieser Zeit wurde die Arbeit mit Kanban vernachlässigt, gewann im dritten Quartal 2013 jedoch wieder an Fahrt. Im Oktober wurde das Board noch einmal mit Fokus auf die Projektarbeit umgestellt. Parallel dazu gab es die erste Kanban-Implementation für eine andere Gruppe am MPI, gefolgt von weiteren Implementierungen und Info-Veranstaltungen Anfang 2014. Während das initiale Board überfüllt war mit Tickets, ist das aktuelle Board wesentlich aufgeräumter und übersichtlicher. Ein einsames Ticket hat es allerdings bis auf das neue Board geschafft. ;-) An den gezeigten Cumulative Flow Charts lassen sich viele Dinge, wie die Trennung der Gruppe, interne Restrukturierung, sowie erfolgreiche Umsetzungen aus Retrospektiven und dem letzten Redesign des Boards erkennen. Als Gunnar mit dem Fazit "Es braucht immer wieder jemanden, der Input gibt und den Prozess vorantreibt“ sowie "Selbstorganisation passiert nicht einfach und ist nicht mit selbständigem Arbeiten zu verwechseln“ schließt, gibt es zu Recht begeisterten Applaus.
Nach einer abschließenden regen Fragerunde gab es einen weiteren kurzen Vortrag von Rainer Weigle, Leiter der IT-Abteilung des MPI. Das MPI für Meteorologie ist eines von 80 Instituten der Max-Planck-Gesellschaft und ist in die drei Abteilungen Atmosphäre, Ozean und Land unterteilt. Insgesamt arbeiten hier etwa 250 Menschen an Modellen zur Klimaberechnung. Diese Berechnungen stellen extrem hohe Anforderungen an Rechenleistung, Parallelisierung, Netzwerk und Speicherplatz. Für die Klimamodellierung steht den Forschern am MPI der Hochleistungsrechner “Blizzard” zur Verfügung. Er wird betrieben vom DKRZ und ist weltweit einer der leistungsstärksten Rechner, der ausschließlich für Klimaberechnungen eingesetzt wird. Er besteht aus 264 Nodes mit jeweils 16 Dual Core CPUs @ 4,7 Ghz, 20 Terrabyte RAM, 4,8 Petabyte Filesystem und einer 7,6 TB/s Datentransferrate zum Filesystem.
Das Datenarchiv besteht aus 7 Sun StorageTek Tape Libraries, die jeweils von 8 Robotern versorgt werden. Die Einspeisung erfolgt über insgesamt 88 Laufwerke mit einer Rate von 3GB pro Sekunde. Die Gesamtkapazität beläuft sich auf 100 Petabyte gespeichert auf 67000 Bändern. Pro Jahr werden etwa 10 Petabyte an Archivdaten produziert.
Nachdem wir nun die unglaublichen Parameter dieses Großrechners gehört hatten, war es an der Zeit, diesen zu besichtigen. Im vierten Stock konnten wir eine komplette Etage mit langen Korridoren zwischen laut rauschenden dunkelgrauen Schränken bestaunen. Einige davon öffnete Rainer und präsentierte uns fein säuberlich verkabelte Systeme. Ein beeindruckender Großrechner, der bereits ab 2015 durch ein 18 mal schnelleres System mit 3 PFLOPs und einem 45 Petabyte Filesystem ersetzt werden soll. Mit diesem lassen sich dann die Berechnungen und Simulationen mit einem noch engeren Raster durchführen.
Kommentar schreiben
Buford Fulgham (Donnerstag, 02 Februar 2017 16:59)
I do not know if it's just me or if perhaps everyone else experiencing issues with your blog. It appears as if some of the written text within your content are running off the screen. Can someone else please comment and let me know if this is happening to them too? This could be a issue with my browser because I've had this happen before. Thank you
Fallon Alcina (Freitag, 03 Februar 2017 08:58)
Hey there, You've done an incredible job. I will certainly digg it and personally suggest to my friends. I am sure they will be benefited from this web site.
John Player (Freitag, 08 September 2017 00:58)
Super Artikel.