Künstliche Intelligenz: Forscher gehen Risiken nach

In der Science Fiction ist spätestens seit der "Terminator"-Reihe klar, dass allzu hoch entwickelte Technologien die Menschheit auslöschen könnten. Ob dem wirklich so ist, wollen nun Wissenschaftler an der University of Cambridge klären. [...]

Ein Philosoph, ein Naturwissenschaftler und ein Softwareentwickler haben sich zusammengetan und mit dem Centre for the Study of Existential Risk (CSER) ein eigenes Forschungszentrum gegründet. Ziel ist es, sich mit potenziell existenziellen Bedrohungen in Bereichen wie Bio- oder Nanotechnologie sowie insbesondere auch Künstlicher Intelligenz (KI) zu befassen.

Schon 1965 hatte der britische Mathematiker Irving John Good in einer Arbeit vorgesagt, dass eine ultra-intelligente Maschine gebaut werden würde, die in einer „Intelligenzexplosion“ resultiert. Das werde die letzte Erfindung sein, die der Mensch machen müsse und das Überleben der Menschheit hänge davon ab. Nur wenige Jahre später war Good aber als wissenschaftlicher Berater für ein Filmprojekt tätig, das lang vor „Terminator“ die Angst vor wildgewordenen KIs schürte: Stanley Kubricks „2001: Odyssee im Weltraum“ mit dem Bordcomputer HAL.

„Irgendwann in diesem oder dem nächsten Jahrhundert könnten wir einen großen Umbruch in der Menschheitsgeschichte erleben, wenn Intelligenz biologischen Beschränkungen entweicht“, meint nun Cambridge-Philosophieprofessor Huw Price, einer der CSER-Mitgründer. Gemeint ist die Umsetzung einer Goodschen ultra-intelligenten Maschine in Form einer Artificial General Intelligence (AGI). Price zufolge ist es wichtig, potenzielle Risiken solch einer technologischen Entwicklung zu erforschen. Er beschwört das Bild einer etwaigen Büchse der Pandora.

Der ehemalige Softwareentwickler und Skype-Mitgründer Jaan Tallinn ist ebenfalls einer der Köpfe hinter CSER und spricht gemeinsam mit Price an, dass AGIs, welche die Menschheit in Sachen Intelligenz ausstecken, auch ohne „Terminator“-artige Feinseligkeit zur Gefahr werden könnten. Denn Menschen müssten dann quasi mit einer dominanten Spezies konkurrieren, so der Philosoph unter Verweis auf Gorillas. „Der Grund, dass sie Aussterben, ist nicht aktive Feindseligkeit der Menschen, sondern dass wir die Umwelt auf eine Weise gestalten, die uns zusagt, aber nachteilig für ihr Überleben ist.“

Dritter CSER-Mitgründer ist der Kosmologe und Astrophysiker Martin Rees, der schon 2003 prognostiziert hat, dass sich die Menschheit mit 50-prozentigfer Wahrscheinlichkeit bis Ende des Jahrhunderts selbst vernichtet. Die Arbeit am interdisziplinären CSER soll helfen, genau das zu verhindern. Dazu will man als potenzielle Bedrohungen neben hochentwickelten KIs auch Themen wie Risiken der Biotechnologie, die Gefahr eines Atomkriegs oder die Auswirkungen des vom Menschen verursachten Klimawandels studieren. (pte)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*