• vom 13.02.2018, 17:30 Uhr

Mensch

Update: 13.02.2018, 17:41 Uhr

Künstliche Intelligenz

Roboter wie halbwüchsige Kinder




  • Artikel
  • Lesenswert (3)
  • Drucken
  • Leserbrief




Von Eva Stanzl

  • Welche Werte zählen, wenn Roboter allgegenwärtig sind? Zu dieser Frage tagen Experten in Wien.

Mensch streichelt und freut sich - Hund folgt Programm: Roboter-Haustier "Aibo".

Mensch streichelt und freut sich - Hund folgt Programm: Roboter-Haustier "Aibo".© afp/Kazuhiro Nogi Mensch streichelt und freut sich - Hund folgt Programm: Roboter-Haustier "Aibo".© afp/Kazuhiro Nogi

Wien. Moral ist menschlich. Die Ethik fragt nach Werten, die im Zusammenleben eine Rolle spielen. Juristen gießen sie in Gesetze, auf denen Gesellschaften aufbauen. Auch Tiere und Pflanzen kooperieren - aber Maschinen? Welche Werte zählen, wenn Roboter in immer mehr Bereiche des Lebens einziehen, mit uns zusammenarbeiten, reden und sogar über den Schlaf wachen? Ändert das alles - oder eigentlich nichts?

Dieser Frage widmet sich eine Konferenz ab Mittwoch in Wien. Die Tagung "Envisioning Robots in Society" (sinngemäß: "Roboter als Mitglieder der Gesellschaft") läuft bis Samstag am Campus der Universität im neunten Wiener Gemeindebezirk. Schon heute werken Roboter-Teams in Fabriken und Lagerhallen, in Haus und Garten. Künftig sollen sie Heimhilfen für Pensionisten sein, Autos, Laster und Züge lenken, als Haustiere fungieren, die man nicht füttern muss, und die Kinder zur Schule bringen. Was sollen die Silicium-Assistenten können dürfen - und was nicht? "Zum einen ist zu überlegen, wo und wie Roboter zum Einsatz kommen sollen und mit welchen Fähigkeiten wir sie ausstatten wollen. Zum anderen stellt sich die Frage, inwiefern sie in der Lage sind, selbst ethisch zu handeln", sagt die Medienphilosophin Janina Loh von der Uni Wien, Ko-Organisatorin der Tagung.


Willensfreiheit, Vernunft und Empathie: In der Philosophie sind dies die Voraussetzungen für moralisches Handeln. Derzeit wird erforscht, inwiefern Maschinen solche Fähigkeiten an den Tag legen können. Denn während der Mensch Erfahrungen mit Gefühlen verbindet und sie alle im Gehirn verknüpft, lernt die Maschine, indem sie Bilder abgleicht und wiederkehrende Muster erkennt. "Die meisten Experten sind sich einig, dass Roboter nur in einem schwachen Sinn ethisch handeln können, weil sie nur über bestimmte kognitive Fähigkeiten verfügen und emotionales Benehmen simulieren", erläutert Loh. "Davon, dass Roboter wie Menschen fühlen und denken wird derzeit noch nicht ausgegangen. Dennoch müssen wir jetzt nachdenken, wie es wäre, wenn wir eine solche Entwicklung zu verantworten hätten."

Roboter-Verantwortung
Schon der Science-Fiction-Autor Isaac Asimov (1919 bis 1992) beschrieb Roboter. Sie waren so programmiert, dass sie dem Menschen keineswegs schaden durften. Als Ergebnis hörten sie irgend wann auf, sich weiterzuentwickeln. Sie erkannten, dass dies gegen die Maxime verstoßen würde, und zogen die Konsequenzen. Technologische Singularität heißt der Zeitpunkt, ab dem sich Maschinen mit Künstlicher Intelligenz (KI) vom Menschen unabhängig fortentwickeln. Experten gehen davon aus, dass dieser Durchbruch vor der Tür steht. Jedoch wird der erwartete Zeitpunkt seit Jahrzehnten verschoben. Während Tesla-Chef Elon Musk eine düstere Zukunft sieht, zeigt sich Facebook-Gründer Mark Zuckerberg zuversichtlich. Eine von Facebook erschaffene KI erschuf jüngst allerdings eine Sprache, der selbst ihre Erfinder nicht folgen konnten - das Experiment wurde abgebrochen. Kaum auszudenken, welch moralischer Gibberish herauskäme, wenn Forscher Roboter Willensfreiheit, Vernunft und Empathie lehren wollen würden. Zumindest zum jetzigen Zeitpunkt.

Schon möglich ist aber ein gewisses Unterscheidungsvermögen, das sich in einer Sensibilität für Moral äußert. Etwa wird an medizinisch-ethischen Expertensystemen gearbeitet, die mit Patientendaten und Daten zur Medikamentengabe gefüttert werden, sodass sie mit der Zeit zu eigenständigen Behandlungsempfehlungen kommen können, von denen Ärzte Gebrauch machen. "Ähnlich wie halbwüchsige Kinder entscheiden diese Systeme nicht alleinverantwortlich. Aber was sie können, spielt für Menschen im Nahebereich eine so große Rolle, dass sie als funktional moralfähig bezeichnet werden können", sagt Loh.

Was ist jedoch davon zu halten, wenn ein Roboter-Hund mit dem Schwanz wedelt, wenn er von einem an Demenz erkrankten Patienten gestreichelt wird? Patient freudig erregt - Hund folgt Programm. "Wir müssen uns jetzt Gedanken machen, was wir in diesen neuen Situationen als richtig und als falsch empfinden und in welcher Welt wir künftig leben wollen", betont Kongressorganisator Mark Coeckelbergh vom Institut für Philosophie der Uni Wien.




Leserkommentare




Mit dem Absenden des Kommentars erkennen Sie unsere Online-Nutzungsbedingungen an.


captcha Absenden

* Pflichtfelder (E-Mail-Adresse wird nicht veröffentlicht)


Dokumenten Information
Copyright © Wiener Zeitung Online 2018
Dokument erstellt am 2018-02-13 17:35:23
Letzte nderung am 2018-02-13 17:41:22



Beliebte Inhalte

Meistgelesen
  1. Älteste Höhlenkünstler
  2. Das Lehrbuch der Pferde muss neu geschrieben werden
  3. Zurück zur Wurzel
  4. Wissenschaftsfoto-Preis an Linzer Physiker für Bild eines Atoms
  5. Schweinepest bedroht Österreich
Meistkommentiert
  1. Meeresspiegel steigt rasant an
  2. Gastro-Bann würde 1.500 Spitalsaufenthalte verhindern
  3. Eizellen aus der Petrischale
  4. Die meisten Opfer waren Unbeteiligte
  5. Defekte Diamanten perfekt für Quanteninformationen

Werbung




Werbung


Werbung