„Die Menge an anfallenden Da­ten in den Wissenschaften ist in den letzten Jahren enorm an­ge­wachsen”, erklärt Erhard Rahm. Er ist Professor für Datenbank­sys­te­me an der Universität Leipzig. „Für die Verarbeitung und Darstellung die­ser Datenmenge reichen her­kömm­liche informationstechni­sche Methoden nicht mehr aus”, fährt Rahm fort.

Big-Data-Ana­ly­sen sind jedoch nicht nur in der Wis­senschaft gefragt, sondern auch in privaten Unternehmen. Mit­hilfe von Algorithmen wird in­ner­halb einer großen Datenmenge eine Vielzahl von Variablen in Rela­tion zueinander gesetzt. „Durch die Verknüpfung großer Da­ten­mengen und deren statis­ti­sche Auswertung können so neue Er­kenntnisse in der Forschung ge­won­nen werden”, so Rahm wei­ter.

Zum Thema Big-Data wird nun seit Oktober an der Uni Leipzig und der TU Dresden geforscht. Rahm ist wissenschaftlicher Koordinator des neu gegründeten „Com­pe­tence Center for Scalable Data Ser­vi­ces and Solutions Dres­den/Leipzig” (ScaDS). Zusammen mit Wolfgang Nagel, Professor für Rechnerarchitektur an der TU Dres­­den, betreut er die neue For­schungseinrichtung. Über die nächs­ten vier Jahre wird es mit 5,6 Millionen Euro vom Bundes­minis­te­rium für Bildung und Forschung geför­dert.

Das Zentrum spezia­li­siert sich auf Datenintegration, die Wis­sens­extraktion sowie die visu­el­le Ana­lyse von Daten. Dabei kon­zen­triert sich die Universität Leipzig auf die Anwendungs­be­rei­che Le­bens­wissenschaften, Digital Humanities und Business Data. Werkstoff- und Ingenieur­wis­sen­schaf­ten und Umwelt- und Ver­kehrs­wissenschaften sind hinge­gen an der TU Dresden angesie­delt.

Mit einer Big-Data-Analyse könn­te der größtmögliche Nutzen aus den Daten gezogen werden: „Genutzt wird die Technologie etwa in der Medizin”, erläutert Rahm. „Ein Beispiel: Bei der Be­handlung eines Krebspatienten wird auf die Daten von vorher be­handelten Krebspatienten zurück­ge­griffen und eine Analyse der Genetik des Patienten vorge­nom­men, um Erkenntnisse aus vorhe­ri­gen Behandlungen in die jetzige Methode einfließen zu lassen.”

Doch Big-Data-Analysen werden nicht nur für den Zweck der Wis­senschaft genutzt. Privatunter­neh­men wie Google, Amazon und Face­­book bedienen sich seit Jah­ren dieser Technologie und sam­meln im großen Umfang Nutzer­daten. Ziel: Die eigenen Nutzer besser einschätzen und Kauf- und Verhaltensentscheidungen der ei­ge­nen Kunden besser vorhersagen können. Die Unternehmen standen für diese Praxis jüngst in der Kritik der Datenschützer. Zu­dem bedienen sich auch Geheim­dienste, wie etwa die NSA, dieser Methode.

Julian Friesinger

erschienen in Leipziger Studenten-Zeitung student!, November 2014