dr. uwe konrad (r.) und dr. gudio juckeland im rechenzentrum. bereits jetzt müssen die supercomputer mehrere petabyte daten pro jahr speichern. und die anforderungen werden weiter steigen. > „wenn ein physiker zum beispiel ein experiment mit vielen detektoren plant, die 30 gigabyte daten pro sekunde liefern, und dann feststellt, dass er nur einen gigabit-anschluss zum rechenzentrum hat – spätestens dann kommt die erkenntnis, dass er uns frühzeitig als partner ins boot holen sollte, wenn er sein projekt plant“, unterstreicht dr. guido juckeland, der die querschnitts- abteilung für „computational science“ leitet. wichtig sei es, die benötigten speicher-, netzwerk- und rechen- kapazitäten für ein experiment frühzeitig abzuklären. big data: aus dem daten-rinnsal wird ein strom „für einige experimentier-anordnungen betreten wir infor- mationstechnologisches neuland. da fallen datenmengen an, bei denen man mit simpler pc-technik auf verlorenem posten steht“, so guido juckeland. bereits jetzt müssen die rechner am hzdr ein bis zwei petabyte (billiarden zeichen) daten pro jahr speichern. „wir rechnen mit datenmengen bis zehn petabyte pro jahr ab 2020“, kalkuliert uwe konrad. und dafür muss sich das hzdr, allen voran dr. henrik schulz und seine abteilung it-infrastruktur, rüsten. für das rechenzentrum heißt dies konkret, dass die rechenleistung und die speicher-ausstattung steigen werden. anders als es typischerweise die universitäten tun, werden uwe konrad und sein team aber keinen millionenteuren neuen supercomputer kaufen, sondern den kern erneuern und dann je nach bedarf weitere neue kapazitäten daran koppeln. „dadurch können wir immer die neueste technik verbauen und projektmittel einbe- ziehen“, betont der leiter der zentralabteilung. horizontales denken über grenzen hinweg jenseits dieser technischen herausforderungen sehen die informationstechnologen eine weitere strategische auf- gabe, bei der sowohl intelligente, plattformübergreifende 12 insider codes als auch der massive einsatz von rechentechnik („brute force“) helfen können: „bisher haben wir zu- sammen mit den partnern in den instituten oft vertikale lösungen realisiert, zum beispiel speziell für die strahlen- physik oder für die lebenswissenschaften“, erklärt guido juckeland. „die herausforderung ist nun, den brücken- schlag zwischen den disziplinen zu schaffen, zum beispiel bioinformatiker und mediziner zusammenzubringen.“ gerade wenn man an die personalisierte medizin den- ke, wird eine interdisziplinäre kooperation mit informati- onstechnologischer vermittlung wichtig: „wenn zum bei- spiel die genetiker verstanden haben, wie ein bestimmtes gen funktioniert, kann man sie mit den biochemikern zusammenbringen, die vielleicht schon längst wissen, welches medikament auf molekularer ebene dieses gen beeinflusst.“ daraus könnten sich ganz neue perspektiven für individualisierte therapien ergeben. ohne neue „big data“-lösungen in hard- wie software dürfte es nahezu unmöglich sein, die enormen daten- mengen zu beherrschen, die für personalisierte medizin auszuwerten sind. helfen sollen dabei auch hackathons, die die it-abteilung seit einiger zeit anbietet: diese veranstaltungen bringen wissenschaftler der institute, die ein ganz bestimmtes problem lösen wollen, in kleinen gruppen mit it-experten zusammen. letztere geben bei bedarf auch spontane impulsreferate und helfen den for- schern, eigene programm-codes zu schreiben. die nächsten it-espresso talks: x 16.08.2017, 12:30 uhr nils schmeißer: e-mail-sicherheit – s/mime zertifikate, signatur und verschlüsselung 20.09.2017, 12:30 uhr robby gorek: virenschutz am hzdr © detlev müller