Stoppt die Maschinen?!

Die Petition einiger KI-Forscher, die Entwicklung von GPT-4 zu stoppen, beruht auf berechtigten Bedenken. Ihr liegt das nachvollziehbare Ziel zugrunde, vertrauenswürdige und verantwortungsvolle KI-Systeme zu schaffen. Die Frage ist, ob eine Petition, die die Weiterentwicklung großer KI-Modelle einschränkt, dafür der richtige Weg ist. [...]

Peter van der Putten, Director AI Lab bei Pegasystems (c) Pegasystems
Peter van der Putten, Director AI Lab bei Pegasystems (c) Pegasystems

Große Sprachmodelle bergen Risiken, darüber lässt sich nicht streiten. Sie halluzinieren zuweilen, sind voreingenommen und es mangelt ihnen an Transparenz. Erschwerend findet ein Wettlauf um immer größere Modelle statt. Erweitert man sie um Plug-ins, wie OpenAI es vorschlägt, steigt das Schadenspotenzial dieser Systeme ins Unermessliche. Es ist daher logisch und sinnvoll, dass Forscher dazu aufrufen, die Entwicklung noch leistungsfähigerer KIs als GPT-4 zu stoppen, oder? Nun, nicht unbedingt.

Mir stellt sich zunächst die Frage, was genau mit „leistungsfähiger als GPT-4“ gemeint ist. Vielleicht meinen die Initiatoren der Petition ja größere Modelle. Bis dato hat OpenAI allerdings noch keine Details zur Architektur ihrer aktuellen KI-Iteration veröffentlicht. Das Modell PanGu-Σ, das dessen Entwickler Ende März veröffentlichten, ist aber beispielsweise bereits mehr als sechs Mal größer als GPT-3. Und was genau meinen die Verfasser des Brandbriefes mit „stoppen“? Selbst wenn KI-Entwickler einem sechsmonatigen Moratorium zustimmen würden, wirklich sinnvoll scheint es nicht: Die Entwicklungszeit so großer Modelle beträgt in der Regel über ein Jahr und einzelne Akteure könnten sich über ein solches Gebot ohne gesetzliche Grundlage auch einfach hinwegsetzen. Es wird außerdem schwer sein, eine solche Pause durchzusetzen. Viele Organisationen weltweit arbeiten bereits an ähnlichen Modellen wie ChatGPT, darunter Google, DeepMind, Amazon, Meta, Baidu und eine Reihe von Start-ups und Open-Source-Kollektiven wie Eulether.ai und das Big-Science-Konsortium.

Entwicklungsstopp ist der falsche Ansatz

Wir können OpenAI jedenfalls keinen Vorwurf machen, ein unzulängliches Produkt veröffentlicht zu haben. Sie haben große Mühe in die Bewertung und die Verbesserung von GPT investiert – etwa im Hinblick auf Sicherheit und die Anpassung der KI an menschliche Werte. Dennoch liegt sehr viel, vielleicht zu viel Macht in den Händen eines einzelnen Unternehmens. Diese Kritik muss sich OpenAI gefallen lassen, zumal das Unternehmen zumindest vorerst noch so wenige Details wie möglich über die verwendeten Daten und die Architektur ihrer Anwendung preisgeben möchte.

Ich bin der Meinung, wir sollten der Entwicklung von Modellen auf dem Niveau von GPT-4 nicht aus Prinzip im Wege stehen. Was wir eher brauchen, sind sowohl neue Marktteilnehmer als auch wettbewerbsfähige Forschungs- und Open-Source-Modelle – neue KIs also, die nicht nur über den Preis konkurrieren, sondern auch über Sicherheit, Offenheit und den Reifegrad ihrer „menschlichen Gesinnung“. Ganz zu schweigen von Marktteilnehmern, die Modelle mit ähnlicher Leistung wie GPT-4, aber viel geringerer Komplexität und geringerer Umweltbelastung bieten.

Amazon hat zum Beispiel gerade das Projekt Bedrock angekündigt, das Nutzern die Wahl aus einer Reihe von Modellen ermöglicht – darunter auch die neuen Foundation Models von Amazon Titan. Ein guter Schritt, denn Auswahl ist eine gute Sache. Sie ermöglicht es Unternehmen, den Einsatz von KI-Modellen je nach Leistung, Kosten, ethischen Grundsätzen und deren Auswirkungen auf das Klima abzuwägen. Als einer der Early Adopter wird Pega seine GPT-basierten Use Cases auf deren Kompatibilität und Performance mit einer Reihe alternativer Modelle vergleichen.

Sich ausschließlich auf die Gefahren großer Sprachmodelle, Superintelligenzen oder Künstlicher allgemeiner Intelligenzen (sogenannte AGIs) zu fokussieren, ist wenig sinnvoll. Dann nämlich verlieren wir die „künstliche Unintelligenz“, also nicht-generative KIs, aus den Augen. Auf ihnen basieren rund 99 Prozent der KI-Systeme, die sich aktuell im Einsatz befinden. Es ergibt daher eher Sinn, die KI-Regulierung voranzutreiben, etwa mit der US-amerikanischen „AI Bill of Rights“ und dem EU AI Act. Zudem bedarf es Richtlinien für den sinnvollen Einsatz von KI im Rahmen des gesetzlich Zulässigen.

Es gibt Stimmen innerhalb der Europäischen Kommission, nach denen der EU AI Act sich nicht verzögern soll, trotz des Aufsehens, den die Petition erregt hat. Allein die Tatsache, dass die Politik sich zu dieser Art der Kommunikation genötigt sieht, zeigt deutlich, dass die ganze Aktion eher eine Ablenkung ist. Die Petition trägt somit eher nicht zur Verabschiedung einer gründlichen Gesetzgebung bei, die die Europäische Kommission bereits 2018 eingeleitet hat. Sie lenkt eher davon ab.

Statt die Entwicklung neuer KI-Modelle temporär auf Eis zu legen, sollten wir uns auf andere Bereiche konzentrieren. Etwa darauf, gemeinnütze Einsatzzwecke für sie zu ersinnen. Wir sollten zudem an der Robustheit und Genauigkeit der Modelle arbeiten, angelernte Vorurteile beseitigen und Wege finden, das Schadenspotenzial zu senken und automatisierte Entscheidungen transparenter zu machen. Viele der Bedenken gegenüber Diensten im Stil von ChatGPT fußen auf diesen Problemen.

Mit anderen Worten: Wir brauchen mehr, nicht weniger Alternativen zu GPT-4. Dazu gehört allerdings auch eine intensivere Forschung in Bezug auf die ethischen Grundlagen und die Sicherheit dieser mächtigsten Klasse von KI-Modellen. Vor allem aber müssen wir an unserer Vorstellung arbeiten, wie eine „gute“ Nutzung Künstlicher Intelligenz in Zukunft aussehen sollte. Nur so können wir sicherstellen, dass KI uns allen gleichermaßen zugutekommt.​

*Peter van der Putten ist Director AI Lab bei Pegasystems.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*