Das Future of Life Institute (FLI) will mit einer eigenen Forschungsinitiative sicherstellen, dass die Künstliche Intelligenz (KI) nicht eines Tages die Menschheit zerstört. Wie das Institut nun wissen lässt, sollen insgesamt 37 verschiedene Forschungsprojekte weltweit finanziell unterstützt werden, die sich der Aufgabe verschrieben haben, die KI-Entwicklung zum Wohle der Menschheit in ihre Schranken zu weisen. Die Fördergelder hierfür kommen unter anderem vom US-Tech-Mogul Elon Musk und der technikorientierten Stiftung Open Philanthropy Project. [...]
„Es gibt einen Wettlauf zwischen der wachsenden Macht der Technologie und der wachsenden Weisheit, wie wir die Macht kontrollieren“, zitiert „BBC News“ FLI-Präsident Max Tegmark. Bislang sei dieser Wettlauf ausschließlich von Investments angetrieben worden, die darauf abzielten, die Technik schlauer zu machen. Die größten Investoren in diesem Bereich sind Google, Facebook und der chinesische Internet-Gigant Baidu. Das nun initiierte Forschungsprogramm sei hingegen das erste, das auch in die Kontrolle der KI investiere, so Tegmark.
„Es gibt genug Gründe, um zu glauben, dass die unregulierte und zwanglose Entwicklung im KI-Sektor eine Reihe signifikanter Gefahren mit sich bringt“, betont Nick Bostrom, Leiter des Future of Humanity Institute (FHI) an der University of Oxford. Diese könnte etwa leicht von „bösen Buben“ wie verantwortungslosen Regierungen missbraucht werden. „Wir müssen uns auf die strategische Implementierung von leistungsfähigen KI-Systemen fokussieren und Regeln aufstellen, mit denen sich die potenziellen Risiken dieser Technologien entschärfen lassen“, meint der FHI-Experte.
Eine ähnlich kritische Haltung in Bezug auf die KI-Entwicklung nimmt auch der bekannte Technologie-Guru Elon Musk ein. „Ich glaube all diesen KI-Experten, wenn sie sagen, wie wichtig es ist, die Entwicklung in gewisse Schranken zu verweisen und habe deshalb zehn Mio. Dollar gespendet, um Forschungsprojekte zu fördern, die darauf abzielen, die KI nur zum Wohle der Menschheit einzusetzen“, erklärt der Chef von Tesla Motors.
Mehr als 300 Forschungsgruppen haben sich seitdem für die finanziellen Unterstützungen beworben. Die FLI hat daraus 37 Projekte ausgewählt, die sich ganz unterschiedlichen Aspekten widmen. Dabei geht es beispielsweise um die Frage, wie man KI-Systemen ethisches Denken und Handeln beibringen kann oder wer im Fall eines durch selbstfahrende Autos oder Drohnen angerichteten Sachschadens haftbar gemacht werden kann. (pte)
Be the first to comment