Frankfurt am Main – Google will künstliche Intelligenz in wichtigen Bereichen erst dann einsetzen, wenn die Logik hinter ihren Entscheidungen den Menschen erklärt werden kann. «Heute funktionieren die modernen maschinellen Lernmodelle eher wie eine Blackbox. Daher arbeiten wir daran, die Erklärbarkeit für einige wichtigere Anwendungen zu verbessern», sagte Google-Chef Sundar Pichai der «Frankfurter Allgemeinen Sonntagszeitung». Als Beispiel nannte er Entscheidungen in der Medizin.
«Solange wir diese Erklärbarkeit nicht haben, können wir für diese Bereiche kein maschinelles Lernen einsetzen», betonte Pichai. Das sei die Position von Google. Die Computersysteme müssten dem Menschen untergeordnet sein. «Letztendlich sollten wir als Gesellschaft entscheiden, wie es funktionieren soll, und sicherstellen, dass unsere Systeme diese Regeln befolgen.»
Wie reagiert die Technologie?
Die Transparenz der Entscheidungen von Systemen auf Basis maschinellen Lernens und künstlicher Intelligenz ist eine der grossen Sorgen mit Blick auf die Technologie. Ein oft genanntes Beispiel ist die Frage, wie sich ein selbstfahrendes Auto verhalten wird, wenn ein Unfall unvermeidlich ist, und es möglicherweise zwischen dem Wohl der Insassen und von Menschen auf der Strasse wählen muss.
Der Google-Chef versicherte auch, dass Google daran arbeite, mit weniger Daten-Verarbeitung auf seinen Servern auszukommen. «Zum Beispiel: Weil im Smartphone unsere Chips zum maschinellen Lernen besser werden, können wir immer mehr direkt auf dem Gerät erledigen und müssen weniger Informationen in die Cloud schicken.» So warne der Google-Webbrowser Chrome vor gefährlichen Seiten lokal. Die Liste potenziell gefährlicher Websites werde auf das Gerät geschickt, statt den Namen der Seite, die ein Nutzer gerade aufrufen will, zum Abgleich auf die Google-Server zu senden. Mehr Rechenarbeit auf dem Gerät zu erledigen, ist ein Ansatz, mit dem sich bisher Apple beim Datenschutz von Google abgrenzen wollte. (awp/mc/pg)