Großer Erfolg trotz großer Konkurrenz: Beim Zukunftsthema Big Data hat sich unsere Universität in Kooperation mit der Technischen Universität Dresden gegen zahlreiche Mitbewerber in einer deutschlandweiten Ausschreibung durchgesetzt und vom Bundesbildungsministerium im Oktober vergangenen Jahres den Zuschlag für die Etablierung eines Big-Data-Kompetenzzentrums bekommen. Es wird in seiner vierjährigen Aufbauphase mit zunächst mehr als fünf Millionen Euro gefördert. In den vergangenen Monaten hat nun diese Aufbauarbeit begonnen. Informatiker Erhard Rahm, der Projektleiter der Uni Leipzig, hat inzwischen ein Team von zehn Mitarbeitern zusammengestellt und sich mit diesem ehrgeizige Ziele gesetzt.

Neue Technologien für große Datenmengen entwickeln

„Überall fallen in den verschiedenen Bereichen unserer Gesellschaft mehr Daten an. Die Herausforderung ist für uns, neue Technologien zu entwickeln, um diese großen Datenmengen effizient auszuwerten“, sagt Rahm, der mit seinem Pendant von der TU Dresden, Wolfgang Nagel, Hand in Hand arbeitet. Am 13. Mai geht in Dresden ein „Super-Computer“ mit Tausenden von Prozessoren in Betrieb, der riesige Datenmengen in kurzer Zeit verarbeiten kann. Genutzt wird er von Wissenschaftlern unserer Uni sowie der TU. Zusätzlich dazu arbeiten die Informatiker der Alma mater an einem eigenen Hochleistungsserver. „Wir wollen zahlreiche preiswertere Computer zu einem leistungsfähigen Cluster zusammenschalten. Im Moment sind wir aber noch in der ersten Ausbaustufe. Die Endstufe soll am Universitätsrechenzentrum durch eine Neubeschaffung eingerichtet werden, deren Abschluss noch zwei bis drei Jahre dauern kann“, berichtet Rahm.

rahm lumag
Erhard Rahm vor einem Datenspeicher am Universitätsrechenzentrum. Foto: Michael Philipp/URZ

Das Anwendungsspektrum für Big-Data-Lösungen ist sehr breit.

Insgesamt sieben Professoren unserer Universität sind am „Competence Center for Scalable Data Services and Solutions Dresden/Leipzig“ (ScaDS Dresden/Leipzig) beteiligt – sechs Informatiker und ein Wirtschaftsinformatiker. Gerhard Heyer beispielsweise nutzt das Zentrum im Bereich Digital Humanities. Er wertet mit digitalen Methoden geisteswissenschaftliche Schriften aus, vergleicht unter anderem verschiedene Bibeltexte miteinander. Wirtschaftsinformatiker Bogdan Franczyk wertet große Geschäftsdatenmengen verschiedener Unternehmen – etwa aus der Energiebranche – aus. Bioinformatiker Peter Stadler nutzt das Big-Data-Kompetenzzentrum, um die Genome verschiedener Spezies abzugleichen.

„Das Anwendungsspektrum für Big-Data-Lösungen ist sehr breit. Es ist ein Informatikthema, das Querschnittscharakter hat“, erklärt Rahm. Er und sein Team möchten in naher Zukunft noch weitere Kooperationen innerhalb der Universität aufbauen, so unter anderem mit der Medizinischen Fakultät zur Auswertung der riesigen Datenmengen aus der Gesundheitsstudie des Leipziger Forschungszentrums für Zivilisationserkrankungen (LIFE).

„Wir wollen die Technologien für die Verarbeitung großer Daten weiterentwickeln und verschiedene Arten von Daten verknüpfen, um sie noch besser auswerten zu können“, umreißt Rahm ein wichtiges Ziel des Big-Data-Kompetenzzentrums. Viermal jährlich wird es Projekttreffen mit den Partnern der TU Dresden geben, wo sich die Experten über die Probleme der verschiedenen Anwendergruppen austauschen. Abwechselnd finden diese in Leipzig und Dresden statt.

Susann Huster

LUMAG

Originalartikel (einsehbar nur im Netz der Uni Leipzig)