Menü
Oberhessische Presse | Ihre Zeitung aus Oberhessen
Anmelden
Forschung Marburg Auf der Suche nach dem "Gottesteilchen"
Auf der Suche nach dem "Gottesteilchen"
Partner im Redaktionsnetzwerk Deutschland
16:12 16.11.2018
Die Administratoren des  CERN-Rechenzentrums könnten ihre Server in Zukunft mit einem Programm  überwachen, das Informatiker der Uni Marburg mit der Software AG aus Darmstadt entwickeln.
Die Administratoren des  CERN-Rechenzentrums könnten ihre Server in Zukunft mit einem Programm  überwachen, das Informatiker der Uni Marburg mit der Software AG aus Darmstadt entwickeln. Quelle: CERN
Anzeige
Marburg

„Google weiß, dass Sie gerade bei mir sind.“ Das ist eine der ersten Offenbarungen, die der Informatik-Professor für mich bereit hält. Wenn ich ein iPhone hätte, wüsste Apple, wo ich bin – das würde wenig ändern. Selbst, wenn ich den GPS-Empfänger meines Android-Smartphones abgeschaltet hätte, würde Google es wissen. Als die Google-Kamerawagen für Street View durch Deutschland fuhren, haben sie nicht nur Fotos von den Fassaden gemacht, sondern auch gespeichert, wo welche Funknetzwerke ausgestrahlt werden. Während ich dem Professor zuhöre, erkennt Googles Betriebssystem auf meinem Handy die Netzwerke der Fachbereiche Informatik und Mathematik – Aus der Schnittmenge der beiden Funknetzwerk-Bereiche lässt sich meine Position auf wenige Meter genau bestimmen.

Google weiß, wo ich bin… Angst macht mir das nicht. Sie wissen schließlich auch, wo all die anderen Menschen sind, die Google-Produkte nutzen. Warum sollten sich die Informatiker in Mountain View dafür interessieren, was machen sie mit diesen Daten?
Google weiß auch, wo ich wohne, weil meine Wohnung der Ort ist, an dem mein Handy in der Regel übernachtet. Der Ort, den ich in meinem Gmail-Adressbuch als Heimatadresse eingetragen habe. Sie könnten die Daten theoretisch gegen mich verwenden, sehen, dass ich gerade auf den Lahnbergen bei Professor Seeger sitze und jemanden in die Marbach schicken, der meine Wohnung ausräumt. Etwas beängstigend.

Sehr praktisch ist dagegen ein anderes Szenario: Wenn morgen früh 2000 Autos mit 30 km/h auf der A 5 in Richtung Frankfurt unterwegs sind, färbt sich der Streckenabschnitt in Google Maps rot und die Navigationssoftware sucht nach einer Alternativroute.
Google verdient sein Geld mit Werbung. Das Ziel all ihrer kostenlosen Dienste ist, Werbung gezielter anbieten zu können. Deshalb kann es für den Konzern interessant sein, dass ein Nutzer zum Beispiel regelmäßig im Segelhafen und auf See unterwegs ist – er wird sich für entsprechende Werbebanner im Internet interessieren, sie klicken und Geld in die Kassen von Google spülen.

Das Big-Data-Dilemma

Das ist die typische Problematik bei Big-Data: Die Daten können unser Leben vereinfachen, sie können aber auch gegen uns verwendet werden. Grundlage einer jeden Big-Data-Anwendung ist ein Muster, das auch Pattern genannt wird. Im Google-Maps-Beispiel sieht das so aus: Wenn viele Autos langsam auf der A 5 unterwegs sind, ist dort stockender Verkehr, wenn sie sehr langsam sind oder stehen, meldet die App „Stau“.

Dieses Muster ist leicht nachvollziehbar, aber quer durch alle Branchen suchen Wissenschaftler nach deutlich komplizierteren Zusammenhängen. Wirtschaftswissenschaftler bringen zum Beispiel den Börsenkurs eines Unternehmens damit in Verbindung, wie oft es in positivem oder negativem Zusammenhang in der Presse erwähnt wird.

Auch in der Forschung haben es die Wissenschaftler mit unüberschaubaren Mengen von Messwerten und Indikatoren zu tun, in denen sie Muster suchen. Im europäischen Kernforschungszentrum bei Genf sind die Datenmengen besonders groß. Im Teilchenbeschleuniger des CERN (Conseil Européen pour la Recherche Nucléaire)  werden Protonen aufeinander geschossen. Was bei dieser Kollision passiert, wird von gigantischen Detektoren „fotografiert“. Während der Experimente im Teilchenbeschleuniger entstehen so pro Sekunde rund 40 Millionen Bilder. Das ist im wahrsten Sinne des Wortes Big-Data – und „die Daten sind der eigentliche Wert der Experimente“, sagt Bernhard Seeger. „Die dürfen nicht verloren gehen.“

8000 einzelne Rechner

Die Bilder werden natürlich nicht einzeln von den Physikern am CERN geprüft, sondern von Computern und einer Sammlung von 20 000 Programmen. Um Computerausfälle kompensieren und die Bilderflut verarbeiten zu können, gehört zum Detektor im CERN auch ein Rechenzentrum mit 8000 einzelnen Rechnern. Und an dieser Stelle kommen Professor Seeger und seine Studenten ins Spiel.

Die Fachgruppe Datenbanksysteme am Fachbereich Mathematik und Informatik entwickelt seit zehn Jahren Verfahren und Programme zur Verarbeitung solcher Datenströme. Allerdings geht es in dem aktuellen Projekt nicht direkt um die Daten, die bei den Experimenten entstehen. Es geht um die Wartung und den Schutz des Rechenzentrums. Die Marburger entwickeln ein System, mit dem sie die Leistung jedes Bauteils der 8000 einzelnen Rechner im Rechenzentrum überwachen können. Sie wollen wissen, sobald einer der Rechner schwächelt, um ihn ersetzen und neu starten oder reparieren zu können. Sie können auch die Sicherheit des Systems steigern, weil sie erkennen, wenn jemand über eine „Hintertür“ die Speicher anzapft. Dazu müssen sie Unregelmäßigkeiten in einem Strom von hunderttausenden Ereignissen erkennen. Das Verfahren nennt sich Komplexe Ereignisverarbeitung (auf Englisch: Complex Event Processing, CEP. Siehe unten).

von Thomas Strothjohann

Marburger Startup von der Software-AG gekauft

Dass Marburger Informatiker für das Genfer CERN arbeiten, ist kein Zufall. Der Kontakt kam über die Software AG, nach SAP der zweitgrößte deutsche Anbieter für Software. Das CERN setzt bereits „Terracotta“, eine Datenbanklösung der Darmstädter Software-Schmiede ein. Nach guten Erfahrungen mit dem hessischen System zeigten die Genfer Forscher Interesse, auch zur Überwachung ihres Rechenzentrums ein Produkt der Software AG einzusetzen. Auf diesem Niveau werden Programme aber nicht einfach heruntergeladen, installiert und genutzt –
sie müssen auf den jeweiligen Einsatz angepasst werden.

Das Programm „Apama“ kann Börsenwerte, Wetterdaten, Lagerbestände oder auch Aufrufe einer bestimmten Seite im Internet verknüpfen und für den Benutzer veranschaulichen. Aber bis diese Informationen auf dem Bildschirm in schönen Grafiken erscheinen, müssen Informatiker geeignete Regeln finden und in das Programm eingeben. Beim Monitoring des CERN-Rechenzentrums muss die Software in Echtzeit hunderttausende Messwerte verarbeiten. Und auf diesem Gebiet, der komplexen Ereignisverarbeitung (CEP) sind Professor Seeger und die Marburger Informatiker erfahren. Aus langjähriger Forschung entstand im Oktober 2007 die Realtime Monitoring GmbH (RTM), die im April 2010 von der Software AG gekauft wurde.

Die Marburger Entwicklung  ist heute Teil einer Software, die Unternehmen zum Beispiel dabei hilft Lagerbestände, Lieferzyklen und Kundenaufträge aufeinander abzustimmen. Mit dem Verkauf der RTM verschwand das Fachgebiet nicht aus Marburg – Seeger blieb, eine Niederlassung der Software AG und sein Lieblingsthema CEP auch. „CEP finden Sie nicht in den Lehrplänen vieler Informatikstudiengänge“, sagt Jürgen Powik, der bei der Software AG für Unikooperationen zuständig ist. So lag die Kooperation zwischen Marburger CEP-Experten und dem CERN nahe und Powik brachte die Partner an einen Tisch.

Das Projekt hat schließlich auch den diesjährigen CeBIT-Preis der Software AG gewonnen. Der Gewinner darf ein Modell entwickeln, mit dem sich sonst schwer greifbare Informatik-Projekte am Stand der Software AG auf der kommenden CeBIT demonstrieren lassen. Wie die Studenten ihre Idee zur Server-Analyse in 3D und für jeden CeBIT-Besucher greifbar präsentieren werden, steht noch nicht fest.

Der Preis ist mit 10 000 Euro dotiert – noch wichtiger als das Preisgeld dürfte für die Entwickler aber der Kontakt zum Prestige-Projektpartner CERN sein. Die Software AG wiederum profitiert, weil zukünftige Softwarearchitekten aus Marburg sich mit ihren Produkten auseinandersetzen und diese dann vielleicht auch bei zukünftigen Aufträgen nutzen werden. Darüberhinaus könnte ein weiterer Verkauf an das CERN dabei herausspringen.

von Thomas Strothjohann

Der Mann, der mit den Daten tanzt 

Prof. Dr. Bernhard Seeger ist seit Juni 1999 Professor an der Universität Marburg im Fachbereich Mathematik und Informatik. Sein Forschungsschwerpunkt in der Arbeitsgruppe Datenbanksysteme ist die effiziente Verarbeitung von Anfragen an große Datenbanken.
Im Oktober 2007 gründete Seeger mit Kollegen die „Realtime Monitoring GmbH“ (RTM). Sie war auf Complex Event Processing (CEP) spezialisiert und wurde drei Jahre später von der Software AG gekauft. Bernhard Seeger ist 53 Jahre alt.