Es existiert wahrscheinlich auch  keine einzelne Person mehr, die  das gesamte Knowhow noch vernetzen kann. Das originäre Wissen ist in Wirklichkeit schon ausgestorben, wir haben eigentlich schon die dritte Generation derjenigen, die das System nur mehr anwenden können. Eine Person zu finden, die ihnen die ursprünglichen fachlichen Algorithmen eines Systems aus den 70ern noch erklären kann, ist  schon mehr als schwer geworden.

Im Raiffeisensektor sind unterschiedliche Systeme noch im Einsatz - auch alte Mainframe-Systeme?
Es gibt sogar sehr aktuelle Mainframe-Systeme! Mainframes sind in der Bankenwelt nach wie vor massiv zu finden, Raiffeisen hat etwa das Kernbanksystem auf Großrechnern laufen. Man muss aber schon sagen, dass die Population an Großrechnern in Österreich überschaubar ist, es gibt vielleicht 20 namhafte Exemplare. Bei größeren Banken, wo eine immense Menge an Transaktionsarbeit durchgeführt wird, etwa bei der Deutschen Bank, ist der "Host" immer noch die Nummer eins. So oft der Großrechner totgesagt wurde - hinsichtlich Transaktionssicherheit und Prozessstabilität ist er nach wie vor eine sehr wichtige Plattform.

Sie haben eine Vielzahl an Kunden, die eine noch größere Menge an Daten anhäufen. Wie werden Sie des gewaltigen Datenbergs Herr?
Das Datenwachstum bereitet in unserer Branche allen Kopfzerbrechen, Big Data kommt in einem unglaublichen Ausmaß auf uns alle zu. Vor allem, wenn es um nicht mehr strukturierte Daten geht, etwa bei der Bildverarbeitung. Bei strukturierten Daten konnte man relativ speicherschonend vorgehen, das ist jetzt nicht mehr möglich. Wir halten bei einem Wachstum des Datenvolumens von ca. 50 Prozent pro Jahr. In Wirklichkeit wachsen wir um das Dreifache, schaffen es aber, durch intelligente De-Duplizierungsmechanismen, die Steigerungen einigermaßen in Grenzen zu halten. Der Rest geht über Miniaturisierung: Die Speichermedien werden immer kleiner, mit dem Nachteil, dass die Speichermedien langsamer werden, je dichter sie werden. Dem begegnet die Industrie mit SSD, das es mittlerweile auch für große Storage-Systeme gibt.

Big Data stellt im Grunde eigentlich kein räumliches Problem dar, sondern wirft die Frage auf, wie man genug Speicher mit genug Energie und der richtigen Zugriffsgeschwindigkeit zur Verfügung stellt. Da gibt es aber inzwischen schon sehr intelligente Ansätze, bei denen die Systeme sich merken, auf welche Datensätze häufiger zugegriffen wird und selbsttätig eine Speicherhierarchisierung vornehmen. Jene Daten, die am häufigsten abgerufen werden, kommen in SSD-Chips,  jene, die selten aufgerufen werden landen in einem Archivsystem. Das können dann Platten mit immenser Speicherdichte, aber eben langsamen Zugriffzeiten sein.