„Auch Maschinen brauchen moralische Regeln“

Vom 02.12.2015

Der Mainzer Philosoph Thomas Metzinger warnt vor einem Kontrollverlust bei der Erforschung der Künstlichen Intelligenz.

Thomas Metzinger lehrt Philosophie an der Universität Mainz. Er ist Autor des „Ego-Tunnels“, in dem er für eine stärkere Zusammenarbeit der Disziplinen Philosophie und Hirnforschung plädiert. (Foto: JGU)

Thomas Metzinger lehrt Philosophie an der Universität Mainz. Er ist Autor des „Ego-Tunnels“, in dem er für eine stärkere Zusammenarbeit der Disziplinen Philosophie und Hirnforschung plädiert. (Foto: JGU)

 

Der Mainzer Philosoph Thomas Metzinger (57) warnt vor den Folgen einer ungezügelten Entwicklung und Erforschung der Künstlichen Intelligenz. Dies berichtet die BILANZ in ihrer am Freitag erscheinenden Dezember-Ausgabe.

Gefahren sieht Metzinger vor allem beim Einsatz der Künstlichen Intelligenz in den Bereichen Militär und Finanztransaktionen, etwa an der Börse. Die Menschen sollten hier „keine weitere Autonomie an Maschinen abgeben, weil der mögliche Schaden die Allgemeinheit betrifft“.

Denkende Maschinen könnten zu der Überzeugung gelangen, „dass die Menschen irreparable Störkräfte sind, die man in Reservaten friedlich aussterben lässt“.

Rechner, die menschliche Wahrnehmung und menschliches Handeln nachbildeten, bieten Metzinger zufolge jedoch auch Chancen: „Wenn wir in den nächsten 20 bis 50 Jahren erkennen, dass wir die Kontrolle über globale Krisen wie Migration oder Klimawandel verloren haben, dann könnte es auch eine Künstliche Intelligenz geben, die mit unendlich vielen Fakten gefüttert wird und gute Vorschläge“ zur Bewältigung der Probleme mache.

Um dieses Ziel zu erreichen, müssten die Wissenschaftler Maschinen jedoch verantwortungsvoll programmieren: „Zum einen müssen wir Menschen klären, was wir selbst mit Maschinen tun wollen – sei es beim Drohnenkrieg, bei autonomen Kampfrobotern, bei Pflegerobotern. Aber auch die Maschinen selbst brauchen moralische Regeln.“

Doch die Entscheidung darüber, welche ethischen Maßstäbe angelegt würden, sei insofern problematisch, als weltweit unterschiedliche Wertsysteme existierten. „Stellen Sie sich Google-Autos in Saudi-Arabien vor: Es könnte sein, dass das System Ungläubige beim Autounfall eher sterben lässt als Gläubige“, sagte Metzinger der BILANZ.

Metzinger hat zusammen mit anderen Wissenschaftlern für die „Stiftung für Effektiven Altruismus“ ein Diskussionspapier über Chancen und Risiken der Künstlichen Intelligenz verfasst.