Im Innern des Supercomputers HAL 9000: Szene aus Stanleys Kubricks Film «2001: Odyssee im Weltraum».
Cambridge – In der Science Fiction ist spätestens seit der «Terminator»-Reihe klar, dass allzu hoch entwickelte Technologien die Menschheit auslöschen könnten. Ob dem wirklich so ist, wollen nun Wissenschaftler an der University of Cambridge klären. Ein Philosoph, ein Naturwissenschaftler und ein Softwareentwickler haben sich zusammengetan und mit dem Centre for the Study of Existential Risk (CSER) ein eigenes Forschungszentrum gegründet. Ziel ist es, sich mit potenziell existenziellen Bedrohungen in Bereichen wie Bio- oder Nanotechnologie sowie insbesondere auch Künstlicher Intelligenz (KI) zu befassen.
Fluch oder Segen
Schon 1965 hatte der britische Mathematiker Irving John Good in einer Arbeit vorgesagt, dass eine ultra-intelligente Maschine gebaut werden würde, die in einer «Intelligenzexplosion» resultiert. Das werde die letzte Erfindung sein, die der Mensch machen müsse und das Überleben der Menschheit hänge davon ab. Nur wenige Jahre später war Good aber als wissenschaftlicher Berater für ein Filmprojekt tätig, das lang vor «Terminator» die Angst vor wildgewordenen KIs schürte: Stanley Kubricks «2001: Odyssee im Weltraum» mit dem Bordcomputer HAL.
«Irgendwann in diesem oder dem nächsten Jahrhundert könnten wir einen grossen Umbruch in der Menschheitsgeschichte erleben, wenn Intelligenz biologischen Beschränkungen entweicht», meint nun Cambridge-Philosophieprofessor Huw Price, einer der CSER-Mitgründer. Gemeint ist die Umsetzung einer Goodschen ultra-intelligenten Maschine in Form einer Artificial General Intelligence (AGI). Price zufolge ist es wichtig, potenzielle Risiken solch einer technologischen Entwicklung zu erforschen. Er beschwört das Bild einer etwaigen Büchse der Pandora.
Gefahr ohne Feindseligkeit
Der ehemalige Softwareentwickler und Skype-Mitgründer Jaan Tallinn ist ebenfalls einer der Köpfe hinter CSER und spricht gemeinsam mit Price an, dass AGIs, welche die Menschheit in Sachen Intelligenz ausstecken, auch ohne «Terminator»-artige Feindseligkeit zur Gefahr werden könnten. Denn Menschen müssten dann quasi mit einer dominanten Spezies konkurrieren, so der Philosoph unter Verweis auf Gorillas. «Der Grund, dass sie Aussterben, ist nicht aktive Feindseligkeit der Menschen, sondern dass wir die Umwelt auf eine Weise gestalten, die uns zusagt, aber nachteilig für ihr Überleben ist.»
Dritter CSER-Mitgründer ist der Kosmologe und Astrophysiker Martin Rees, der 2003 prognostizierte, dass sich die Menschheit mit 50-prozentigfer Wahrscheinlichkeit bis Ende des Jahrhunderts selbst vernichtet. Die Arbeit am interdisziplinären CSER soll helfen, genau das zu verhindern. Dazu will man als potenzielle Bedrohungen neben hochentwickelten KIs auch Themen wie Risiken der Biotechnologie, die Gefahr eines Atomkriegs oder die Auswirkungen des vom Menschen verursachten Klimawandels studieren. (pte/mc/ps)