Ethik und Vertrauen – Prinzipien und Überprüfung moralischer Computer

Dagstuhl-Seminar Ethics and Trust: Principles, Verification and Validation, 22. – 26. April 2019

Donnerstag, 4 April, 2019

Künstliche Intelligenz, Roboter, maschinelles Lernen und autonome Systeme spielen eine immer größere Rolle in unserer Gesellschaft. Wenn ein autonomes System mit einer schwierigen Entscheidungssituation konfrontiert wird, können wir uns darauf verlassen, dass das System die moralisch richtige Entscheidung trifft?

Wachsende Bedeutung von verschiedenen Technologien

Technologien mit wachsender Bedeutung sind zum Beispiel: 

• autonome, selbstgesteuerte Fahrzeuge; 

• unbemannte, autonome Drohnen im Militär; 

• Behandlungs- und Pflegeroboter sowie computergestützte Diagnosesysteme in der Medizin; 

• autonome Systeme auf den Finanzmärkten, die eigenständig Investitionsentscheidungen treffen; 

• maschinelle Systeme, die die Kreditwürdigkeit von Bankkunden beurteilen;

• Algorithmen, die über die Vergabe von Studienplätzen an Bewerber entscheiden;

• und sogar algorithmische Entscheidungssysteme in der Justiz (z. B. in den USA), die das Rückfälligkeitsrisiko von verurteilten Straftätern bewerten. 

Anwendung bringt ethische Herausforderungen

Mit der zunehmenden Anwendung solcher Systeme in der Gesellschaft wachsen die ethischen Herausforderungen. Wenn ein autonomes System mit einer schwierigen Entscheidungssituation konfrontiert wird, können wir uns darauf verlassen, dass das System die moralisch richtige Entscheidung trifft? Würde zum Beispiel ein selbstgesteuertes Fahrzeug eine fatale Kollision mit einem Fußgänger vermeiden, selbst wenn dies ein geringfügiges Verletzungsrisiko für die Fahrzeuginsassen beinhaltet? Würde eine autonome militärische Drohne Kollateralschäden vermeiden? Würde ein medizinischer Roboter die richtige Entscheidung in einer Notfallsituation treffen? Treffen algorithmische Entscheidungssysteme bei der Kreditvergabe oder erst recht in der Justiz möglicherweise diskriminierende Entscheidungen?

Schlüsselfragen

In all diesen Fällen stellen sich zwei Schlüsselfragen:

• Können sich künstlich-intelligente Systeme tatsächlich ethisch verhalten, und was genau bedeutet das? 

• Können wir Menschen uns auf das ethische Verhalten solcher Systeme verlassen? 

Interdisziplinäres Seminar

Mit diesen Fragen beschäftigt sich vom 22. bis zum 26. April ein internationales interdisziplinäres Seminar im Schloss Dagstuhl, dem Leibniz-Zentrum für Informatik. Die Teilnehmerinnen und Teilnehmer sind Wissenschaftler aus unterschiedlichen Ländern und aus den verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften. 

Grundlagenforschung notwendig

Um intensiv und informiert zu diskutieren, ist eine sorgfältige Grundlagenforschung erforderlich, und es bedarf einer engen Zusammenarbeit von theoretischen Forschern aus der Philosophie, Ethik und Rechtswissenschaft, technischen Forschern aus der Informatik, Robotik und Ingenieurwissenschaft und gesellschaftswissenschaftlichen Forschern aus der Wirtschaft, Politik und Soziologie. Selbst grundsätzliche Fragen – wie etwa, ob die Moral ein und für alle Male in expliziten Prinzipien zusammengefasst werden kann oder ob die Moral ein flexibles, sich ständig weiterentwickelndes System sein sollte – gilt es zu klären. 

Zu dieser Thematik ist sehr viel wissenschaftliches Neuland zu erschließen, und Ziel des einwöchigen Seminars im Schloss Dagstuhl ist es, durch interdisziplinäre Zusammenarbeit Fortschritte zu machen.