Künstliche Intelligenz managt immer mehr Lebensbereiche. Doch wie weit wollen wir sie wirklich in unser Leben lassen?
Hinweis: Der Inhalt dieser Seite wurde vor 5 Jahren in der Wiener Zeitung veröffentlicht. Hier geht's zu unseren neuen Inhalten.
Alpbach. Ob im Smartphone oder beim Online-Einkauf, ob im Börsenhandel oder beim Autofahren: Künstliche Intelligenz bietet die Freiheit, viele Dinge gleichzeitig und schnell zu erledigen. Doch wie wollen wir verhindern, dass Algorithmen uns überwachsen und kontrollieren? Für Jean-Pierre Bourguignon, den Präsidenten des Europäischen Forschungsrats (ERC), sind Freiheit und Sicherheit kein Widerspruch, die Kreativität beim Menschen sei aber von der Kreativität beim Roboter zu unterscheiden.
"Wiener Zeitung": Das Internet bietet freien, unbürokratischen Zugang zu Information, aber die Sicherheit, dass unsere Daten unsere bleiben, haben wir nicht: Jedes Unternehmen, dessen Dienste wir in Anspruch nehmen, besitzt persönliche Information über uns. Wie ist der Konflikt zu lösen?Jean-Pierre Bourguignon: Information ist ja nichts Immaterielles, sondern ein Signal, das irgendwo hingeschickt wird. Die Frage ist, wo das Signal gespeichert wird, wer darauf Zugriff hat und wer es verändern kann und zu welchem Zweck. Können wir Protokolle so entwickeln, dass nur jene zugreifen können, denen die Information gehört? Darum geht es und es ist ein mögliches Thema der Forschung. Die zweite Frage ist eine der Bildung: Verhalten wir uns als User so, dass es für Unbefugte ein Leichtes ist, an unsere Informationen zu kommen, oder bewegen wir uns im Netz so, dass wir uns davor schützen? Nur was wir verstehen, können wir willentlich annehmen oder ablehnen. Solche Sorgen müssen sehr früh in der Erziehung vorgebracht werden.
Wie meinen Sie das? User werden permanent gefragt, ob sie der Verwendung von Cookies zustimmen, nur damit Firmen ihnen Werbung schicken können. Man bräuchte zwei Leben, um alle Klauseln zu studieren, zu denen man ja sagt.
Das ist eine große Herausforderung. Derzeit ist es im Internet so, dass man klickt, ohne die Konsequenzen dieser Formalitäten zu kennen. Es gibt unheimlich viel Information, aber wie filtert man aus dieser Flut jene Teile heraus, die für einen selbst bedeutsam sind, und von denen man meint, dass sie eine Qualität haben, der man vertraut und die unsere Aufmerksamkeit verdient? Natürlich ist es schwierig, sich zurechtzufinden, denn im Moment scheint alles gleich: Mist wird einem mit derselben Priorität präsentiert wie wertvolle Information.
Roboter verrichten heute Routine-Arbeiten. Welche Durchbrüche in der Grundlagenforschung müssen passieren, damit sie mehr können und sich flexibel an Menschen anpassen?
In der Forschung müssen wir unterscheiden, was Kreativität beim Menschen und was Kreativität beim Roboter ausmacht. Natürlich sind die Fähigkeiten von Künstlicher Intelligenz alles andere als trivial, aber sie sind keineswegs mit den menschlichen Fähigkeiten vergleichbar. Maschinen lernen mit Hilfe von massiven Datenmengen: Je mehr Daten sie vergleichen können, desto "gescheiter" werden sie. Etwas radikal Neues stößt die Roboter vor den Kopf. Menschen hingegen sind richtig gut darin, neue, noch nie gesehene Situationen schnell zu begreifen. Wenn die Roboter flexibler werden sollen, müssen wir diese Unterschiede besser verstehen.
Nehmen wir an, es gelingt, künstliche und natürliche Intelligenz einander näherzubringen. Wie wird das das Leben verändern? Werden wir uns irgendwann von Maschinen dominiert fühlen?
Künstliche Intelligenz und Roboter müssen so gut genug funktionieren, dass wir sie verstehen. Wir müssen entscheiden können, ob wir sie ein- oder ausschalten. Wir müssen genau wissen, wann wir ihnen ausgesetzt sind, und wann nicht. Genau so müssen wir sie implementieren und organisieren. Dabei geht es nicht nur um die reine Ethik, sondern mutiger noch um sozial- und humanwissenschaftliche Fragen: Wie nehmen wir Künstliche Intelligenz wahr und wie verändert sie die Einstellungen der Menschen? All dies muss erforscht werden, auch um herauszufinden, ob wir dem Prozess Grenzen setzen sollten, damit er uns nicht auf den Kopf fällt.
Zwingen uns Maschinen, so wie sie zu denken?
Das kann in der Tat eine Frage sein. Viele Autos verlangen uns schon heute Tätigkeiten ab, die wir von uns aus vielleicht nicht oder anders machen würden. Das Auto bremst sich bei Kollisionsgefahr ein und zieht die Sitzgurten an, bevor die Insassen die Gefahr überhaupt merken. Und es kommt vor, dass Menschen sich so stark auf ein selbstfahrendes Auto verlassen, dass sie unaufmerksam werden. Das Zusammenwirken von Mensch und Maschine ist immer kritisch und hängt davon ab, was wir von der Maschine erwarten und womit wir sie ausstatten. Die Software tut, wozu sie programmiert wurde, die Aktionspalette von Menschen kennt keine Grenzen.
China verteilt über Algorithmen Bonuspunkte für erwünschtes Verhalten. In Europa lehnt man dies ab. Ist die Ethik eine Kategorie bei der Vergabe von Forschungsgeldern?
Der Europäische Forschungsrat stellt keine inhaltlichen Wünsche an Projekte, die Forscherinnen und Forscher anbieten. Sondern wir fördern Top-Grundlagenforschung themenoffen und prüfen dann, welche ethischen Implikationen die Anträge haben. Wo Forschung, Menschen, Tiere oder Daten zusammenkommen, ist Ethik entscheidend. Wir dürfen als ERC etwa keine dualen Forschungsarbeiten fördern, die gleichzeitig militärischen Interessen gerecht werden. Aber ob eine Software für Drohnen-Management als zivil oder militärisch einzustufen ist, muss von unabhängigen Experten begutachtet werden, weil sie nicht leicht zu kategorisieren ist. Aus diesem Grund schauen wir uns jede Einreichung auch im Hinblick darauf an, welche Folgesituationen daraus entstehen können.
Wie steht die europäische Forschungsförderung im Vergleich zu China oder den USA da?
Natürlich wissen wir, dass der Staat China heute das größte Wachstum in der Forschungsquote zuwege bringt. Doch es geht nicht nur um die Frage, wie viel Geld von jedem Land oder auf europäischem Niveau investiert wird, sondern auch darum, wie viel die Unternehmen für Forschung aufbringen. Bei einer ERC-Konferenz im Oktober 2018 über Künstliche Intelligenz machten zahlreiche Forscher darauf aufmerksam, dass mittlerweile Privatunternehmen mehr Geld in Wissenschaft und Innovation investieren als die öffentliche Hand. Wir müssen die besten Köpfe anlocken und ihnen die richtige Art von Freiheit geben, einerseits um zu forschen und andererseits, um Unternehmen zu gründen..
Tut Europa das, oder droht es zurückzufallen?
Das zu verhindern, ist die Herausforderung. Es ist eine neue Dimension entstanden. Wir reden von Firmen, die vor 30 Jahren nicht existierten. Google etwa hat mit Null angefangen und der Aufstieg ging so schnell, dass er sich nicht antizipieren ließ. Heute kaufen sie viele Startups, weil vielleicht die stärkste Dynamik nicht mehr aus ihren eigenen Abteilungen kommt. Die Grundbedingungen für derartige Entwicklungen müssen allerdings mit nationalen und europäischen Mitteln geschaffen werden, die die Basis für Erfolg in Europa sind.
Was bedeutet das Bestreben von Großbritanniens Premier Boris Johnson, einen Hard Brexit ohne Austrittsabkommen vollziehen zu wollen, für den ERC?
Die Gefahr ist offensichtlich, nicht nur für Forschung und höhere Bildung. Die intensive Verbindung zwischen der Wissenschaft im Vereinigten Königreich (UK) und allen Ländern der Europäischen Union lässt sich auch daran messen, dass mehr als 20 Prozent der ERC-Preisträger in UK arbeiten, und dass fast die Hälfte aller dortigen ERC-Laureaten nicht britisch sind. Ein Bruch würde diese Kontakte beschädigen, mit Verlusten auf beiden Seiten. Natürlich ist das Risiko höher für UK. Der ERC erhält sein Budget von der EU; deshalb kann man sagen, dass etwa 15 Prozent des ERC Budgets aus UK kommt. Doch UK holte bisher mehr aus dem EU-Forschungsrahmenprogramm, und insbesondere aus dem ERC, zurück als es einzahlt. Wenn doch noch eine gute Brexit-Vereinbarung zustande kommt, ändert sich wenig. Wenn aber ein Desaster entsteht, sind massive Schäden zu befürchten.