AGI: Künstliche Intelligenz mit eigenem Bewusstsein

AGI ist die nächste Super-KI. Die soll eigentlich erst in gut 20 Jahren erfunden sein. Was aber, wenn OpenAI viel weiter ist, wie man glauben machen will? Bekommt das Hin- und Herr um die Causa «Sam Altman» so einen Grund? Zum Stand der Dinge. [...]

Foto: GerdAltmann/Pixabay

Der KI-Schmiede OpenAI soll es, zumindest teilweise, gelungen sein, bei der AGI-Entwicklung (AGI = Artificial General Intelligence), einen Durchbruch erzielt zu haben. Laut den Informationen des amerikanischen Nachrichtendienst Reuters soll nämlich das Aufsichtsratsgremium von OpenAI einen Brief von Mitarbeitern bekommen haben, in dem diese vor den neuesten Entwicklungen im Bereich Künstlicher Intelligenz warnen.

Konkret soll OpenAI einen Durchbruch in der Entwicklung einer AGI erreicht haben, die «intelligenter sein soll als der Mensch». Der Brief, der übrigens von keinem geringeren als Elon Musk auf X veröffentlicht wurde, war eventuell auch einer der Gründe für die Kündigung von Altman.

Geheimsache «Q-star»

In dem Brief stand, so Reuters, dass es sich bei den Entwicklungen um eine «Bedrohung für die Menschheit» handeln könnte. Mira Murati (vor einer Woche noch designierte Nachfolgerin von Altman) soll dabei vor den Mitarbeitern über das sogenannte «Project Q*»(= Q-star) gesprochen und den Brief erwähnt haben.

Q-star steht nach einer mit der Sache vertrauten Person, auf die sich Reuters beruft, für ein neuartiges KI-Modell, das wohl in der Lage ist, spezifische mathematische Aufgaben eigenständig zu lösen. Diese Entwicklung hat bei den OpenAI-Angestellten bezüglich der erzielten Resultate, die eben auf eine erste AGI-Lösung abzielen, für großen Optimismus gesorgt.

Gibt es also einen Kündigungsgrund? Ja. Damit allemal: Denn der OpenAI-Vorstand könnte mit der Entlassung Altmans schlicht und einfach die Reißleine gezogen haben, und zwar mit dem Versuch, das immer grösser werdende, womöglich exponentiell ausufernden KI-Potenzial erst einmal kaltzustellen.

Nur Humbug und Science-Fiction?

Konkret bestätigt ist das aber nicht! Dennoch könnte man sich damit das Szenarium vorstellen, dass Satya Nadella, seines Zeichens Micosoft-CEO, ein Machtwort gesprochen hat, und Altman so zurück in das Chefamt von OpenAI beordert hat. Schließlich hat Microsoft rund 13 Milliarden US-Dollar in OpenAI investiert, viel Geld und alles andere als ein Pappenstiel.

Unterschied zwischen «KI» und «AGI»?

Ein Ausflug in die Zukunft: KI (=Künstliche Intelligenz) kann spezifische Aufgaben hervorragend ausführen, indem eine Kombination von komplexen Algorithmen, maschinellem Lernen und zahlreichen anderen Techniken eingesetzt werden.

Anwendungsfälle gibt es zuhauf: Maschinelle Bild-, Spracherkennung, automatische Dialogisierung, Modelle zur Entwicklung von autonomen Systeme, kooperativ zusammenarbeitende KI-Systeme (Schwarmintelligenz), Robotik, Internet der Dinge (IoT, z.B. vernetzte Haushaltgeräte). Dies sind nur einige Beispiel einer klassischen KI-Lösung respektive ihrer Implementierung.  

AGI als KI mit «Bewusstsein»

Dem gegenüber steht eine deutlich stärkere KI, die eben auch im Fachjargon als «Artificial General Intelligence» (=AGI) bezeichnet wird. Sie soll die Intelligenzstufe nochmals auf ein höheres Niveau heben: Unterm Strich die von Menschen erreichen und Aufgaben erfüllen können, welche eben nur von einem Menschen bewerkstelligt werden können.

Und es geht noch mehr: Denn eine AGI soll sogar in der Lage sein, komplexe Probleme zu lösen, für die es bislang keine vorgefertigte Lösung gibt. Sie setzt somit ebenso auf Flexibilität und Kreativität wie ein Mensch – und zusätzlich nicht nur auf die programmierte, generative Intelligenz eine klassischen KI.

Nochmal zur Erinnerung: Diese generiert quasi nur Inhalte, auf die sie mit vorhandenen Informationen und Vorgaben trainiert wurde (z.B. Bildkennung etc.). Das Spannende an der Sache: Ursprünglich solle KI von AGI frühstens im Jahr 2045 abgelöst werden.

Und wie «denkt» eine AGI?

Eine AGI kann dabei auf mehreren Standbeinen fußen: Deep Learning, Verarbeitung der Sprachmodelle und Robotik. Der große Unterschied und technologische Fortschritt ist die Kombination aus diesen Methoden. Zwei Beispiele: Ein AGI-konformer Autopilot im Auto erkennt den/die Fahrer/Insassen, unterhält sich mit ihnen (gleichzeitig, auf Anfrage und in verschiedenen Sprachen).

Der Pilot bekommt, während der Fahrt, eine neue, geänderte Fahrtroute mitgeteilt und wählt daraufhin die passende aus – mit neuen Zwischenstopps bei Bedarf. Die Route wird, sofern Gefahrengebiet durchkreuzt wird, an örtliche Behörden übermittelt. Im Falle eines Unfalls wird unverzüglich nach den Insassen des Autos gesucht wird.         

Und wo könnte AGI eingesetzt werden? Die kurze Antwort: theoretisch in allen (!) Bereichen. Etwa in der Medizin, sämtlichen technologischen und wissenschaftlichen Bereichen (Forschung und Entwicklung), Industrie und Fertigung, Sicherheit oder auch dem Militär.

Kann eine AGI auch gefährlich werden?

Natürlich ja. Vor allem ohne eine bestehende und angewandte Regulierung, hängt der positive oder negative Nutzungsgrad schlicht und einfach von der Wirkungsstätte der AGI ab. Es bedarf unter Umständen eines ethischen Grundsatzkatalogs: Was darf die AGI und was nicht. Außerdem muss auch geklärt werden, ob oder auch wer eine AGI überwacht.

Meinung: Die Büchse der Pandora

Portrait des Autors Daniel Bader der sich hier zu AGI äußert.
Stv. Chefradaktor: Daniel Bader
Quelle: PCtipp

Stellen Sie sich vor, Sie lassen einen kleinen Böller auf dem Boden explodieren. Es macht puff, richtig. Was aber passiert, wen Sie den gleichen Böller in einer abgeschlossenen und ummantelten Dose zum Explodieren bringen. Genau. Dann haben Sie einen Bumms mit weit größerer Sprengkraft.

Und genau so verhält es sich mit KI und AGI. Viele, wohl auch Sam Altman, sehen AGI als den nächsten großen Evolutionsschritt einer Künstlichen Intelligenz. Technologisch sicherlich ein Meilenstein. Aber auch ein Schritt in eine schönere Zukunft? Aus der jetzigen Perspektive herausbetrachtet mehr als ein heikles Thema!

Fange ich mal an, technologische Errungenschaften aufzuzählen, so ist bei dem ganzen «Revolutionären» immer eine dunkle Seite mit dabei: Schwarzpulver, die Atomspaltung, Gentechnologie, bis hin zum Smartphone – um etwas aus dem täglichen Leben, das wohl nahezu alle benutzen, konkret aufzuzählen.

Leider nicht nur gute Seiten

Dynamit wurde zum Bau von Straßen, Eisenbahnstrecken, dem Tunnelbau oder beim Bergwerk verwendet. Fortschrittlich! Und auch die Kernkraft hat, sagen wir mal, solange alles nach Plan läuft, ein immenses Energiepotenzial, eine fast unerschöpfliche Energiequelle. Gentechnik respektive -Therapien können, sinnvoll eingesetzt, bei der Heilung von schweren Krankheiten helfen.

Und selbst das Smartphone ist so etwas wie eine Eier legende Wollmilchsau unter den Kommunikationszentralen, die es ermöglicht, immer up-to-date zu sein. Schwierig wird es allerdings, um beim Handy und dessen Umgang zu bleiben, wenn es dabei um Kinder geht: Wenn die Jüngsten das «Ich-muss-eigentlich-nichts-mehr-lernen,-weil-das-Handy-weiss-eh alles-Werkzeug in die Hände bekommen.

Und nicht mehr loslassen können. Kurzum: All diese «Errungenschaften» haben auch ihre Schattenseiten.

Ordnet sich eine AGI mit Bewusstsein unter?

Schöpft die AGI eines Tages einmal ihr Potenzial aus, kann sie viele Dinge im Leben erleichtern. Keine Frage. Eine, die wir dafür stellen müssen: Wo bleibt dann der Mensch? Ordnet sie sich immer noch (freiwillig) unter? Wenn sie wie ein Mensch handelt, denkt und folglich die Dinge (auch wie wir Menschen jetzt) in Eigenregie erledigt. Klar ist: Eine AGI muss auch einen sozialen IQ haben!

Denn eine AGI, die wissenschaftliche und technische Probleme eigenständig löst, muss ja nicht nur zwangsläufig aufs effiziente Rechnen oder Kalkulieren beschränkt sein. Man kann ihr auch eine Kompetenz bei sozialen Themen zutrauen. Muss es sogar! Und vielleicht liegt hier ja auch die Chance, dass da etwas wirklich Großes herauskommt. Um den Kreis zu schließen: Zu wünschen wäre es OpenAI und seinem Entwicklerteam.

Der philosophische AGI-Ansatz: «Ich denke, also bin ich»

Neben dem mathematisch-wissenschaftlichen Ansatz, gibt es auch noch den der Philosophie. Die Gretchenfrage hierbei: Ist eine AGI, die tatsächlich ein Bewusstsein entwickelt, bereits ein Lebewesen? Darf man es dann eigentlich noch abschalten?

Muss man es im Gegenzug nicht erhalten? Hier der Ansatz des Naturwissenschaftlers René Descartes: «Cogito ergo sum», oder auf deutsch: «Ich denke, also bin ich». Dieser lateinische Satz stammt vom Philosophen, Mathematiker und Naturwissenschaftler René Descartes, der diese Erkenntnis in seinen Prinzipien der Philosophie niedergeschrieben hat. Im Folgenden der Textauszug.

Zum Mitphilosophieren

In der betreffenden Textstelle heißt es: «Indem wir so alles nur irgend Zweifelhafte zurückweisen und für falsch gelten lassen, können wir leicht annehmen, dass es keinen Gott, keinen Himmel, keinen Körper gibt; dass wir selbst weder Hände noch Füße, überhaupt keinen Körper haben; aber wir können nicht annehmen, dass wir, die wir solches denken, nichts sind; denn es ist ein Widerspruch, dass das, was denkt, in dem Zeitpunkt, wo es denkt, nicht bestehe.

Deshalb ist die Erkenntnis: »Ich denke, also bin ich,« (lateinisch: ego cogito, ergo sum) von allen die erste und gewisseste[…] Erkenntnis.

*Daniel Bader Spezialist für Drucker, Netzwerke, TVs und Heimkino. Aber auch PCs, Smart Home, coole Haushaltsgeräte und alles, was nachaltig ist, begeistern mich. 


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*