Künstliche Intelligenz als Disziplin zwischen Ingenieurskunst und Kunst

09.05.2019
Beitrag von Prof. Dr. Oliver Bendel
Publiziert unter:  künstliche Intelligenz, Robotik, Ethik, Interview
Originalversion

Der zunehmende Einsatz von Künstlicher Intelligenz (KI) ist ein wesentliches Merkmal der digitalen Transformation von Gesellschaft und Wirtschaft und hat Folgen für unser Privat- und Arbeitsleben. Die Schweiz spielt auf diesem Gebiet heute in Forschung und Entwicklung weltweit eine bedeutende Rolle. Der Bundesrat hat eine interne Arbeitsgruppe eingesetzt, die bis Herbst 2019 eine Übersicht über bestehende Massnahmen, eine Einschätzung zu neuen Handlungsfeldern sowie Überlegungen zu einem transparenten und verantwortungsvollen Einsatz von künstlicher Intelligenz erarbeitet. Wir fragen bei Prof. Dr. Oliver Bendel nach, was Ethik und künstliche Intelligenz miteinander zu tun haben. Prof. Bendel ist Experte in den Bereichen Wissensmanagement, Informationsethik und Maschinenethik. Seine Forschung in der Maschinenethik wird weltweit mit großem Interesse aufgenommen. Seit 1998 sind über 350 Fachpublikationen entstanden, darunter verschiedene Bücher und Buchbeiträge sowie Artikel in Fachzeitschriften.

Sie sind Experte für Maschinenethik. Können Maschinen gut oder böse sein?

Maschinen können im eigentlichen Sinne nicht gut oder böse sein. Dafür braucht es einen guten oder bösen Willen. Wir sprechen in der Disziplin der Maschinenethik von maschineller Moral und von moralischen Maschinen. Das ist jeweils ein Terminus technicus – die autonomen Systeme, um die es in der Regel geht, haben keine Empathie, keine Intuition, kein Bewusstsein, keinen freien Willen, und sie sind eben nicht gut oder böse. Aber sie können zum Beispiel moralische Regeln befolgen, die wir ihnen mitgeben, und manche von ihnen können diese sogar abändern.

Was stellen sich für neue ethische Probleme im Zusammenhang mit der künstlichen Intelligenz?

Aus der Perspektive der Informationsethik interessiert, welchen Einfluss die künstliche Intelligenz auf die persönliche und informationelle Autonomie hat. Mit Gesichtserkennung sind zahlreiche Herausforderungen verbunden. Wir müssen diskutieren, ob technische Systeme in menschlichen Gesichtern lesen dürfen, und nach dem Erheben, Auswerten und Weitergeben von entsprechenden Daten fragen. Aus der Perspektive der Maschinenethik interessiert, wie man autonome Systeme mit moralischen Fähigkeiten ausstatten kann. In manchen Anwendungsbereichen sind moralische Maschinen sinnvoll, in anderen nicht. Autos, die für Tiere bremsen? Sehr gerne! Die über Leben und Tod von Menschen befinden? Bitte nicht!

Nehmen wir im Namen der Effizienzsteigerung und des Wirtschaftswachstums unabschätzbare Risiken der Künstlichen Intelligenz in Kauf? Falls ja, ist dies im Namen des Fortschritts gerechtfertigt?

Zunächst einmal halte ich die Künstliche Intelligenz für eine Disziplin zwischen Ingenieurskunst und Kunst. Sie ist also nicht bloß ein Teilgebiet der Informatik, sie hat nicht bloß Bezüge zur Robotik, sondern sie muss umfassender verstanden werden. Man ahmt Aspekte menschlicher oder tierischer Intelligenz nach oder versucht eine neuartige Intelligenz zu erreichen. Dafür benötigt man mehr als technisches Verständnis. Sollen wir humanoide Roboter oder künstliche Intelligenz mit analytischen, kreativen und natürlichsprachlichen Fähigkeiten entwickeln? Wir sollen nicht, wir müssen. Es ist ein alter Menschheitstraum, das zu tun. Ovid schrieb über die von Pygmalion geschaffene Galatea: «Dass es nur Kunst war, verdeckte die Kunst.» Natürlich kann die eine oder andere Erfindung im Labor bleiben. Nicht alles muss hinaus in die Welt.

Effizienzsteigerung und Wirtschaftswachstum sind Strategien und Ideologien, die man mit künstlicher Intelligenz verbinden kann. Es sind zahlreiche Chancen vorhanden, nicht allein im medizinischen Bereich. Aber auch Risiken, etwa wenn KI-Systeme zur Überwachung von Menschen eingesetzt werden, wenn sie über Bewerber und Kunden urteilen und dabei undurchsichtig oder vorurteilsbehaftet sind oder wenn sie weitreichende Entscheidungen für Unternehmen treffen. Hier würde ich ebenfalls sagen, dass wir möglichst frei forschen und entwickeln, in der Anwendung aber regulieren sollten. Ein offensichtliches Problem ist, dass Roboter und KI-Systeme uns als Arbeiter und Angestellte verdrängen. Wichtig ist, dass man die Gewinne, die in den Unternehmen ohne uns erzielt werden, gerecht verteilt. Wenn dies geschieht, können Roboter und KI-Systeme zu einem guten Leben beitragen, mit weniger Lohnarbeit, mit mehr Lustarbeit und Freizeitvergnügen.

Mit welchen Fragen sollte sich die Politik und Verwaltung heute unbedingt auseinandersetzen? 

Sind Maschinen die besseren Politiker oder Verwaltungsangestellten? Sollen sie die Bürgerinnen und Bürger analysieren und kontrollieren? Welche Einspruchs- und Einflussmöglichkeiten haben diese? Braucht es eine Robotersteuer und ein bedingungsloses Grundeinkommen? Welche Formen von KI- Forschung sind zu fördern, welche nicht?

Die Politik hat die Ethik entdeckt, vor allem mit Blick auf KI. In den einschlägigen Kommissionen der EU sitzen oft wenige philosophische Ethiker, dafür viele theologische Ethiker und Unternehmensvertreter. Die Schweiz kann das anders machen. Habt den Mut, mehr philosophische Ethiker aufzunehmen! Aber habt vor allem den Mut, ihnen ihre Freiheit zu lassen! Der Philosoph liebt den Zweifel. Dieser muss sich auch auf Politik und Verwaltung sowie die Wirtschaft beziehen können. Gerade das Grundsätzliche und Gewohnte muss in Frage gestellt werden. Der Ethiker, der zu fest umarmt wird, bekommt keine Luft mehr.

Prof. Dr. Oliver Bendel
Prof. Dr. Oliver Bendel
Fachhochschule Nordwestschweiz (FHNW)