Martin Kampel, Privatdozent am Computer Vision Lab der TU Wien, steht KIs wie ChatGPT einerseits skeptisch, andererseits euphorisch gegenüber. 
- © Irma Tulek

Martin Kampel, Privatdozent am Computer Vision Lab der TU Wien, steht KIs wie ChatGPT einerseits skeptisch, andererseits euphorisch gegenüber.

- © Irma Tulek

Künstliche Intelligenz – abgekürzt KI oder AI für Artificial Intelligence –, das klingt für die einen nach Science-Fiction, für andere nach Heilsversprechen und für wieder andere nach einer Bedrohung. Sie ist für Normalsterbliche aber vor allem eines: relativ kompliziert und relativ neu. Natürlich setzen Unternehmen und Technologien bereits seit geraumer Zeit darauf, einem breiten Publikum zugänglich gemacht wurde sie jedoch erst im vergangenen Jahr.

Im April 2022 wurde mit DALL-E 2 die verbesserte Version eines Programmes vorgestellt, das aus Wörtern Bilder kreiert. Man gibt also zum Beispiel in die Suchmaske "Ein Hund in einem Sandwich im impressionistischen Stil" ein und bekommt einige Bildvorschläge. Außerdem kann DALL-E 2 Bilder über die ursprüngliche Leinwand hinaus erweitern und so weitläufige Kompositionen erschaffen, Bilder bearbeiten (Elemente hinzufügen und entfernen und dabei Schatten, Reflexionen und Texturen berücksichtigen) oder neue Varianten eines Bilds erstellen.

Im Dezember 2022 wurde dann ChatGPT vorgestellt, ein Chatbot, der in Echtzeit natürlich klingende Antworten auf alle möglichen Fragen gibt. Er kann auch komplexe Aufgaben erledigen wie einen 500-Wörter-Text zum Thema KI schreiben. Dabei kann er sich an den Kontext einer Konversation anpassen, sich an vorherige Themen erinnern und darauf basierend angemessene Antworten geben.

Sowohl ChatGPT als auch DALLE-E 2 wurden von der Firma OpenAI auf den Markt gebracht. Investoren und Berater des Unternehmens sind unter anderem Elon Musk oder Microsoft. Wichtig ist den Gründern laut eigener Aussage, dass OpenAI "seine Technologie möglichst vielen Menschen zur Verfügung stellt, damit nicht nur wenige die Vorteile der KI allein für sich beanspruchen". Dieses Konzept der Non-Profit-Organisation sei die beste Verteidigung gegen missbräuchliche Verwendung von KI-Systemen.

Was aber sagen österreichische Experten zu den für alle zugänglichen KI-Softwares? Darüber sprachen Martin Kampel, Privatdozent am Computer Vision Lab der TU Wien, und Oliver Kartak, Professor der Klasse Grafik Design an der Universität für angewandte Kunst Wien, mit dem "Wiener Journal". Kampel beschäftigt sich damit, wie man ein Bild computergestützt analysieren kann, in welchen Relationen Objekte zueinander stehen und ob KI-Systeme diskriminieren, fair oder unverständlich sind. Kartak ist seit 16 Jahren Professor an der Angewandten und legt den Fokus seiner Lehre auf gegenwärtige digitale Medien und zukünftige Technologien wie Virtual Reality, Augmented Reality und KI.

Wiener Journal: Wie schätzen Sie die Entwicklungen im KI-Bereich im vergangenen Jahr ein?
Oliver Kartak: 2022 war rückblickend wohl ein historisches Jahr, weil KI im B2C-Bereich explodiert ist und nun einer breiten Öffentlichkeit zur Verfügung steht. Möglicherweise stellt diese Technologie eine Revolution dar, die wirkungsmächtiger ist als die Industrialisierung, die Computerisierung oder sogar die Elektrizität. Das liegt daran, dass diese technologische Entwicklung exponentiell verläuft, und nicht linear, das heißt der Zug nimmt an Fahrt auf. Daher ist es auch schwierig, eine genaue Prognose abzugeben. Aber der Gewinn an Wissen und die Steigerung an Effizienz wird rasant sein. Viele haben im Moment noch nicht am Radar, was das gesellschaftlich, wirtschaftlich oder für die Verteilung von Reichtum bedeuten wird.

Wo sehen Sie die Risiken?
Kartak: Ich sehe Chancen und Risiken. Einerseits sehe ich mögliche Verbesserungen wie wissenschaftlicher Fortschritt etwa in der Medizin, niederschwelliger Zugang zu Bildung und allgemeine Steigerung der Effizienz. Andererseits werden viele Tätigkeiten, die auf routinemäßigen Fähigkeiten, also Hard Skills, basieren, überflüssig werden und viele Menschen werden ihre Jobs verlieren. Darum nehme ich das Thema KI mit in meine Lehre, um meine Studierenden darauf vorzubereiten, dass sich die Produktionsprozesse von Design verändern werden. Es wird aber nicht nur im Design zu Veränderungen kommen, ich denke, dass auch neue Arten der Kunst entstehen werden. KI wird jeden Bereich unseres Lebens beeinflussen: Selbst, wenn ich nichts damit zu tun haben will, wird es mit mir zu tun haben. Man wird dem nicht entkommen, deswegen ist es besser davon zu lernen, als überrollt zu werden.
Martin Kampel: Ich bin wahnsinnig euphorisch bezüglich ChatGPT. Aber wenn ich einmal drüber schlafe, dann muss ich sagen, ist es eigentlich eine Gefahr. Einer meiner Forschungsschwerpunkte ist es, hier besonders kritisch zu sein. Wir an der TU sind natürlich ein bisschen verwöhnt von den letzten Jahren: Wir haben so viele Erfolgsstorys gehabt, sei es im autonomen Fahren oder mit Computer Vision Features mit Millionen von Usern und Userinnen. Aber es ist auch meine Aufgabe, weiterzudenken. Und bei ChatGPT muss ich mir die Fragen stellen: Stimmt die Auskunft überhaupt, kann ich mich darauf verlassen, woher kommen die Daten? Man weiß nur, dass es "Daten aus dem Netz" sind. Man weiß auch nicht, wie die Algorithmen wirken. Normalerweise stelle ich bei so einem System drei Fragen: Woher kommen die Daten (Preprocessing), wie läuft der Prozess ab (Inprocessing) und wie fair sind die Ergebnisse (Postprocessing). Und bei allen drei Punkten tue ich mir bei ChatGPT und auch bei DALLE-2 wahnsinnig schwer. Problematisch ist auch, dass die Software der perfekte Fake-News-Generator ist. Da kann innerhalb von zehn Minuten automatisiert ein passabler Text über Putins Angriffskrieg geschrieben werden. Technologien greifen auf bestehende Daten zu, deswegen ist der Informationspool für ChatGPT natürlich eingeschränkt und ein Bias nicht vermeidbar. Man bekommt auch keine Information über die Glaubwürdigkeit einer Aussage des Systems. In der Krebsforschung wird mit solchen Diagnose-Algorithmen gearbeitet, aber da wird die Glaubwürdigkeit natürlich überprüft: 70 Prozent, 80 Prozent Konfidenz usw. Wobei man sagen muss: Wir sind ja noch am Beginn, ChatGPT gibt es erst seit wenigen Wochen, mit der Zeit kommt mehr Seriosität, aber im Moment kann man es einfach missbrauchen. Was ich auch kritisiere, ist, dass man als User oder Userin von ChatGPT und DALL-E 2 komplett ausspioniert wird, da man sich für die Nutzung anmelden muss. Da weiß man auch nicht, ob nicht vielleicht in Zukunft Profile über uns angelegt werden und wer Zugang zu unseren Suchanfragen hat. Hoffentlich kommen von der Europäischen Kommission bald bindende Regeln für Ethical AI.

Oliver Kartak, Professor der Klasse Grafik Design an der Angewandten, versucht seine Studierenden darauf vorzubereiten, dass sich die Produktionsprozesse von Design aufgrund von KIs verändern werden. 
- © Irma Tulek

Oliver Kartak, Professor der Klasse Grafik Design an der Angewandten, versucht seine Studierenden darauf vorzubereiten, dass sich die Produktionsprozesse von Design aufgrund von KIs verändern werden.

- © Irma Tulek

Glauben Sie, dass KI in Zukunft eine "Bedrohung" für einige Berufsbilder sein wird?
Kartak: Die präzise Antwort darauf kann wohl nur Ja, Nein und Vielleicht sein. "Ja", weil der Warenwert von routinemäßiger kognitiver Arbeit quasi auf null fallen wird. Es ist nun sehr leicht, in kürzester Zeit visuelle Oberflächen, generelle Inhalte oder generative Strukturen zu erzeugen: ob Illustrationen, Fotografien, Marketingtexte, Übersetzungen oder Coding. Diese Automatisierung ist nicht aufzuhalten. Der Markt wird sich wahrscheinlich teilen, die Mitte wird wegbrechen und zwei Gruppen werden übrigbleiben: jene, die schnell und billig generelle Lösungen in Volumen anbieten, und jene, die einen spezialisierten Status haben, für den der Markt bereit ist, mehr zu zahlen.
"Nein", weil gutes Design nicht nur Oberfläche ist. Es ist ein komplexer Prozess, der damit beginnt, dass man eine Problemlösung entwickelt. Einerseits mit faktischer Recherche, aber eben auch mittels nicht-routinemäßiger Fähigkeiten, also Soft Skills, wie Empathie, Kreativität, Konfliktlösung, Kommunikation, kritischem Denken, Selbstreflexion und Teamfähigkeit. Verantwortungsvolle Grafikdesigner haben auch eine ethische Verantwortung in der Entscheidung mit wem sie zusammenarbeiten und welche positiven Veränderungen sie dabei anstreben. Die Dienstleistung von mündigen Designern besteht nicht darin, gefällige Propaganda zu liefern. Solange eine KI diese Qualitäten nicht replizieren kann, wird ihr Output reine Oberfläche bleiben. Jemand mit einer großen Kompetenz in diesen Soft Skills wird in Kombination mit KI zukünftig aber einen großen Vorteil haben. Und zuletzt die Antwort "Vielleicht", weil man nicht vorhersehen kann, ob KI diese Soft Skills nicht doch irgendwann erreicht.
Kampel: Ich glaube auch nicht, dass der Mensch sich abschafft. Es gibt ja auch einen Human Factor. Es hat immer Veränderungen gegeben und vielleicht ändert sich auch unser Alltag, aber ich glaube nicht, dass eine Berufsgruppe wie Grafikdesigner und -designerinnen da in Gefahr sind. Denn KI-Systeme sind nicht kreativ, ihre Grundlage sind Daten. Die Daten sind eingeschränkt, bei Menschen ist das anders: Sicher hat jeder ein eigenes Weltbild, aber der kreative Raum ist größer. Es gibt schon Bereiche, in denen Maschinen besser sind, etwa sind sie beim Fahren sicherer. Aber im Grafikdesign nicht. Wir entwickeln zum Beispiel Diagnosesysteme im medizinischen Bereich – aber das ersetzt auf keinen Fall einen Arzt oder eine Ärztin, auch wenn die Genauigkeit bei 98 Prozent liegt. Gerade bei der Krebsdiagnose ist es sehr wichtig, dass der Patient oder die Patientin am Schluss noch von einem Menschen untersucht wird. Sicher ist es sinnvoll, vorher das KI-Diagnosesystem laufen zu lassen, das spart dem medizinischen Personal viel Zeit, aber ersetzen kann es das nicht.

Wie ist die Rechtslage in Bezug auf DALL-E 2: Dabei werden Bilder von Kunstschaffenden als Ausgangsmaterial genommen, von denen die KI lernt. Dementsprechend groß ist der Aufschrei von Künstlern und Künstlerinnen aktuell weltweit.
Kartak: Es besteht legislativ aktuell eine Grauzone, da es kein Copyright auf Stil gibt. Dass das Werk eines Designers, einer Designerin oder Kunstschaffenden ohne vorheriges Einverständnis zu Trainingszwecken verwendet wird, war vor einem Jahr noch nicht weitreichend bekannt. Hier wird der Gesetzgeber reagieren müssen.
Kampel: In Bezug auf KI-generierte Bilder muss man auch bedenken, dass Bilder als Beweis vor Gericht zugelassen sind. Je einfacher es wird, Bilder nachzumachen oder zu verändern, ohne dass man einen Unterschied sieht, desto weniger wird das möglich sein. Synthetische Bilder sind im Moment schon sehr akkurat und für die Gesellschaft ist das eine Herausforderung, weil man Bilder von Menschen in Situationen herstellen kann, die so nie stattgefunden haben. Die Übergangszeit wird schwierig, bis wir uns daran gewöhnt haben oder bis es uns vielleicht egal ist. Wichtig ist, dass die Menschen über die Risiken aufgeklärt werden, und dass von höherer Stelle Regulativen kommen, besonders auch, was den Datenschutz angeht.

Sie meinen also, dass es eindeutig an Verordnungen mangelt?
Kampel: Ja, Algorithmen werden von allen genutzt und kaum jemand ist sich der Risiken bewusst. Das ist ähnlich wie vor 100 Jahren, als man ohne Straßenverkehrsordnung Auto fuhr: Irgendwann kam man zu der Erkenntnis, dass es ohne Regelwerk nicht geht. Aber im Moment gibt es im KI-Bereich zu wenige Verordnungen und die großen Unternehmen wollen das natürlich auch gar nicht: Sie nutzen aus, dass wir so unbedarft sind.

Die KI greift auf verschiedene Datenbanken zu und lernt daraus. Wenn irgendwann ein Großteil der
Grafiken von einer KI stammt, besteht dann die Gefahr, dass die KI irgendwann nur mehr von sich selbst lernt?
Kartak: Das glaube ich nicht, eher, dass sehr viel Gleichförmiges generiert wird. Ich kann den Stil von unterschiedlichen Imagegeneratoren mittlerweile oft erkennen, aber an dem immer Gleichen wird man sich auch wieder satt sehen und dann wird es wahrscheinlich eine Gegenbewegung geben. Andererseits stehen wir erst am Anfang, und solange Menschen die KI benutzen und neue Ergebnisse erschaffen, wird eine konstante Veränderung und Entwicklung stattfinden. Die KI lernt vom Menschen und der Mensch lernt von der KI. Eine ganz zentrale Frage wird sein, wer die Macht über diese Wissensprozesse innehaben wird.
Kampel: Wir, die mit KI arbeiten, haben immer zu wenig Daten und generieren Daten selbst, also ja, die Gefahr besteht schon ein bisschen. Aber dass sich das verselbstständigt, glaube ich nicht. Der Worst Case ist, dass man der KI in allen Dingen blind folgt. Aber ich glaube, wir sind das Problem, nicht die KI.