Benedikt Klotz  ist IT-Architekt und verantwortlich für das Software- und Cloud-Portfolio bei IBM. Datenanalysen auf Basis von Big Data sind nicht mehr nur Expertinnen und Experten vorbehalten. Die neuen Technologien eröffnen leichter zugängliche Möglichkeiten der Nutzung von Daten für alle Unternehmen, meint der Informatiker.

"Wiener Zeitung": IBM gehört zu den digitalen Urgesteinen. Es gibt wenige Bereiche, in denen keine Technologie von IBM steckt. Trotzdem die Frage: Was bietet IBM konkret in den Bereichen Data Management und Data Governance an?

Benedikt Klotz: Data Management in Form von Datenbanken gibt es bei uns seit den 1970-ern, später entstanden relationale Datenbanken, und in den späten 2000-ern haben wir begonnen, den Bereich umfassender zu bedienen, also Datenhaltung, Datenqualität, Data Security, Datensuche, Business Analytics und Business Intelligence. In der Zwischenzeit hat sich der Markt stark weiterentwickelt. Wir haben jetzt einen Fokus auf Cloud-Themen, weil die Cloud ganz andere Skalierungmöglichkeiten bietet, und wir damit ein neues Publikum ansprechen können. Das sind beispielsweise Self-Service Möglichkeiten auch für Nicht-Experten. Wir unterstützen verschiedene Open-Source-Technologien und bieten neben den klassischen relationalen Datenbanken auch NoSQL-Datenbanken oder Graph-Datenbanken an. Weiters gibt es neue Speicher-Technologien, die schnellere Zugriffe und andere Software Architekturen ermöglichen und dadurch neue Möglichkeiten im Analytics-Bereich schaffen. Letztendlich ist diese Datenarchitektur wichtig für die Nutzung von Artificial Intelligenz, die auch mit unstrukturierten Daten wie Video, Bildern und Text arbeiten kann. Es hat sich wirklich einiges verändert.

Wer sind die Hauptkunden für diese Leistungen bei IBM?

Benedikt Klotz ist Informatiker und IT-Architekt im Bereich Cloud-Services bei IBM. - © IBM
Benedikt Klotz ist Informatiker und IT-Architekt im Bereich Cloud-Services bei IBM. - © IBM

Das sind klassisch die großen Banken, Versicherungen und Telekommunikations-Unternehmen. Inzwischen ergeben sich neue Bereiche wie Manufacturing, Industrie 4.0 oder der Automotive-Bereich. Wir sind auch stark im Gesundheitsbereich aktiv, wo große Datenmengen erzeugt werden. Bestes Beispiel ist gerade Covid-19, wo Forscher mit dem Supercomputer Summit arbeiten, um neue Lösungsansätze gegen Covid-19 zu finden. Auch Forschungseinrichtungen gehören zu unseren Kunden. Hier analysieren wir zum Beispiel wissenschaftliche Publikationen, um Experten bei der Durchforstung großer Datenbestände zu unterstützen. IBM ist inzwischen in sehr vielen Industrien vertreten.

Auf welche Bereiche der Data Governance zielen Produkte von IBM ab?

Grundsätzlich sagt man ja, dass Daten beziehungsweise Big Data das "neue Öl" sind, die Ressourcen im Unternehmen, die oft ungeschürft bleiben. IBM versucht zu analysieren, welche Daten überhaupt vorhanden sind, und unterstützt die Katalogisierung und Klassifizierung. Wir helfen also, diese Schätze zu heben. Dann in zweiter Linie geht es darum, die Kernprozesse des Kunden zu unterstützen. In der Industrie sind das Produktionsprozesse, bei Banken Informationen rund um den Kunden, die besonderen regulatorischen Richtlinien unterliegen. Im Bereich von Kundeninteraktionen, wir nennen das "Customer Insight", versuchen wir, eine quasi 360-Grad-Sicht auf den Kunden zu ermöglichen und Anrufe, Emails, Call Center-Interaktionen, Kontakte am Schalter,  alles, was Relevanz hat, einzubeziehen. Wir binden auch Social Media ein, um etwa Customer Sentiments, also Stimmungen des Kunden, einzubeziehen. Zusammenfassend beinhaltet der Bereich Data Governance die Erfassung, Analyse, Katalogisierung und Sicherheit von Daten, Einhaltung von gesetzlichen oder internen Richtlinien, eine entsprechende Modellierung von Risiken sowie Compliance in Unternehmen.

Daten und Big Data sind Buzzwords geworden, es gibt einen regelrechten Boom. Spiegelt das die Realtität in den Unternehmen wider?

Mit dem Thema Big Data war oder ist ein Hype verbunden, das hat viele Unternehmen beschäftigt, zugleich sind Unternehmen des Begriffs Big Data ein bisschen müde geworden. Die Herausforderung besteht aber weiterhin, und wir sehen zwei neue Trends: Artifical Intelligence und Data Science. Das sind die neuen Hype-Themen, die in aller Munde sind. Data Scientisten sind die "neuen Wilden". Früher waren die Daten und die Bearbeitung sehr strukturiert, diese Leute sind aber interdisziplinär unterwegs mit Hintergründen aus Mathematik und Statistik, die ihre Kenntnisse nutzen, maximales Wissen über die Daten zu bekommen. Hier ergibt sich auch eine Überscheidung von AI und Data Governance, denn lernende Systeme benötigen gute Datenqualität um korrekte Entscheidungsgrundlagen zu liefern.

Was waren entscheidende technologische Entwicklungen, die es ermöglicht haben, dass das Thema jetzt plötzlich ein Allerweltsthema ist?

Die technischen Möglichkeiten haben sich verbessert und die Rechenkapazitäten haben sich unglaublich weiterentwickelt. Es gibt neue Softwarearchitekturen und Special Purpose Hardware mit GPUs, das sind Parallelisierungsmöglichkeiten mittels Grafikprozessoren, die im Bereich AI die Verarbeitungsgeschwindigkeit unglaublich beschleunigen. NoSQL-Datenbanken mit flachen Datenhierarchien erlauben große Datenmengen schnell und geografisch verteilt verfügbar zu machen.

Wo stehen wir heute aus Sicht von IBM?

In der Vergangenheit war die sichere Speicherung und Verarbeitung von Daten das zentrale Thema. Jetzt werden Daten mit Artificial Intelligence analysiert, um bessere Entscheidungsgrundlagen für die Zukunft zu haben. Artificial Intelligence und Machine Learning sind eine interessante Reise. Inzwischen ist Ethik immer mehr ein Thema von Big Data. IBM versucht mit "Trusted Intelligence" Schieflagen in den Daten zu vermeiden. In der Vergangenheit, ähnlich wie beim frühen Internet, war eine Datenanalyse nur durch Experten möglich. Das hat sich geändert. Es geht zum Beispiel darum, Serviceintervalle von Maschinen früher zu erkennen, also hier bessere Entscheidungsgrundlagen zu bekommen. Die Datenmengen werden weiterhin stark zunehmen, gerade im Automotive-Bereich, denn jedes Auto wird zum Datenlieferanten. Zusätzlich nutzen Hersteller "synthetische Daten" damit Umwelteinflüsse, wie Nebel, Spiegelungen oder unterschiedliche Tageszeiten beim Training der AI Algorithmen als Varianten berücksichtigt werden können.

Während große Plattformunternehmen europäische Regulation oft als Wachstumshemmnis wahrnehmen, gelten Regulatorien wie die Datenschutz-Grundverordnung (DSGVO) manchmal auch als Innovationsmotoren. Wie ist das für IBM?

Die Entwicklung der DSGVO führte dazu, dass auch in Wirtschaftsräumen außerhalb Europas ähnliche Ansätze gewünscht werden. Das bringt aus unserer Sicht positive Impulse. IBM hat an der "EU Standard Contractual Clause for Cloud Services" maßgeblich mitgearbeitet, als Umsetzung der DSGVO für Cloud-Anbieter. Wir haben hier ein Beispiel gesetzt und die Industrie hat sich daran orientiert. Europa ist sicher ein guter Markt und Europa hat hier eine gewisse Vorbildrolle in Bezug auf Datensicherheit und Datenschutz. Alle großen Cloud-Anbieter haben Rechenzentren verteilt über Europa, und unsere Kunden nutzen diese Daten-Services immer stärker. IBM sieht sich hier als starker Partner mit einem umfassenden Portfolio für die Cloud, aber auch für lokale Rechenzentren und kann das Sicherheitsbedürfnis von EU-Kunden bestens erfüllen.

Open Data, also offene Daten, gelten ebenso als Innovationstreiber. Sollten Unternehmen in dem Bereich ebenfalls transparenter agieren?

Grundsätzlich begrüßen wir Open Data wie zum Beispiel die Nutzung von Daten aus öffentlichen Forschungsvorhaben oder von europäischen Satellitendaten. IBM und Red Hat haben einen Fokus auf Open Source Software. Eine Initiative die den Bereich Data Governance unterstützt, nennt sich Egeria, das ist ein Open Metadata Governance Framework, das unter anderem Banken nutzen. Es geht darum, offene Standards im Bereich Data Governance zu etablieren. Weiters unterstützen wir die Standardisierung von Blockchain-Technologien wie Hyperledger und die Standardisierung von APIs, also Schnittstellen zum Austausch von Daten zwischen Unternehmungen, wie etwa PSD2 im Bankenumfeld.

Die Pandemie hat im Industriebereich einige Schwachstellen aufgezeigt. Sind Anwendungen im Bereich Big Data denkbar, die Produktionsanlagen oder Lieferketten resilienter machen?

Da sehe ich zwei Aspekte: Einmal der Schwerpunkt auf IT-Sicherheit. Andererseits versuchen wir, die Prozesseite der Unternehmen mit Technologien für  Predictive Maintenance zu unterstützen, um bei Maschinen Ausfälle zu reduzieren und die Verfügbarkeit durch die Analyse von Maschinendaten zu optimieren. Das war früher nicht möglich, da oft die Rechenkapazitäten fehlten.

In welche Richtung wird sich die datengetriebene Wirtschaft weiterentwickeln? Hat die Coronakrise die Aussichten verändert?

Ich persönlich glaube, dass die Fähigkeit,  Daten zu nutzen, zunehmend den Unternehmenserfolg bestimmen wird. Es wird Unternehmen geben, die diese Mittel ideal nutzen und Wettbewerbsvorteile daraus generieren. Sie können somit bessere Entscheidungen treffen. Hier ist noch viel Potential.

Wie wird sich der Markt  für Data Management-Systeme und Technologien zur Datenanalyse darauf einstellen?

Der Markt ist aktuell stark fragmentiert. Es gibt viele kleine Firmen, die Teilspekte abdecken und das gut machen. Für viele ist es aber schwierig, ein End-to-End-Lösungsportfolio wie die IBM anzubieten. Konsolidieren werden sich vornehmlich die Standards zur Interoperabilität, die immer höhere Akzeptanz finden.