Künstliche Intelligenz: Genial und begrenzt zugleich

Künstliche Intelligenz (KI) weist heute schon in zahlreichen Anwendungsbereichen ihre Fähigkeiten nach: unter anderem in der Industrie bei der Steuerung von Geräten und Maschinen, in der Robotik, bei Automatisierungsprozessen bis hin zur Medizin, wo sie Ärzte insbesondere in der Diagnostik wertvolle Unterstützung bietet. [...]

Foto: GordonJohnson/Pixabay

Oder in Form von Gesundheits-Apps, die für manche Menschen bereits zum Lifestyle gehören. Gleichzeitig nehmen die Diskussionen über die Grenzen, aber auch die Risiken von KI weiter Fahrt auf.

In einem viel beachteten Essay in der aktuellen Ausgabe 619 der Fachzeitschrift ‚Nature‘ diskutiert Celeste Biever, wie KI-basierte LLMs (large language models) an vergleichsweise einfachen Aufgaben aus standardisierten Intelligenztests scheitern.

Für Aufsehen sorgt, dass Modelle, die mühelos Aufnahmeprüfungen renommierter Hochschulen bestehen und komplizierte Anforderungen in vielen Bereichen in Rekordzeit bewältigen, regelmäßig bei einfachen Abstraktionsaufgaben versagen.

Ihr Plädoyer vor diesem Hintergrund: „Wir müssen grundsätzlich verstehen, was sie können und wo sie scheitern.“ Im Hintergrund steht hier die Frage danach, ob KI-Systeme als unbeschränkt „genial“ einzustufen sind oder ob die Fähigkeiten Künstlicher Intelligenz nicht doch begrenzt sind?

Beides, meint Prof. Marco Barenkamp, KI-Experte und stellvertretender Vorsitzender des Aufsichtsrats und Gründer der auf die Anwendung von KI in der Industrie spezialisierten LMIS AG in Osnabrück.

ChatGPT vom US-Start-up OpenAI oder Bard von Google, aber auch andere LLM beherrschen so manche Fähigkeit, die noch vor wenigen Jahren als Meilenstein der Künstlichen Intelligenz (KI) gefeiert worden wäre, macht Prof. Barenkamp die Bedeutung dieser Entwicklung deutlich: Eloquent beantworten die Bots Fragen, bestehen akademische Prüfungen mit Bravour und verblüffen mit erstaunlichem Allgemeinwissen.

Allerdings bereiten dem Transformermodell „Chat Generative Pre-trained Transformer“, so die ausgeschriebene Bezeichnung von ChatGPT, bereits einfache visuelle Logik-Rätsel erhebliche Schwierigkeiten, während Menschen solche Aufgaben meist mühelos meistern.

Wie kann Künstliche Intelligenz realistisch bewertet werden?

Vor diesem Hintergrund rätseln Wissenschaftler derzeit, wie die Fähigkeiten von ChatGPT realistisch zu bewerten sind. Prof. Barenkamp verweist hierzu auf eine Studie, die jüngst in der akademischen Welt einige Aufmerksamkeit erregte und auch Grundlage des Essays von Celeste Biever ist: Ein Team um Melanie Mitchell vom Santa Fe Institute hatte dem Sprachmodell GPT 4 Aufgaben vorgelegt, bei denen farbige Blöcke in einem Raster anzuordnen waren.

Aus mehreren Beispielen sollte auf die zugrunde liegende Regel geschlossen und vorhergesagt werden, wie sich die Blöcke als nächstes verändern.

„Die meisten Menschen lösen solche Aufgaben mühelos“, erklärt Prof. Barenkamp. GPT 4 hingegen schaffte nur ein Drittel in einer Kategorie richtig und erreichte in anderen teils nur 3 Prozent. Andere KI-Systeme, die speziell für solche Rätsel entwickelt wurden, kamen demnach zwar auf bessere, aber immer noch deutlich schlechtere Ergebnisse als Menschen.

Die Studie zeige, dass es den künstlichen Systemen aktuell noch schwerfalle, zugrunde liegende Konzepte zu erkennen und daraus zu lernen, resümiert Experte Barenkamp. Eines der Kennzeichen menschlicher Intelligenz sei aber gerade die Fähigkeit zur Abstraktion und zum Transfer auf neue Situationen, betont er.

Künstliche Intelligenz lernt anders

So weit, so gut. Aber woran liegt es denn nun, dass KI-Systeme den Menschen in solchen Basisfähigkeiten noch so deutlich unterlegen sind, während sie in Konversationen zum Teil mit überraschender Eloquenz verblüffen? Zur Erklärung führt Prof. Barenkamp an, dass KI-Anwendungen eben anders lernen als Menschen.

So werden große Sprachmodelle wie GPT 4 zum Beispiel mittels Durchforsten gewaltiger Mengen an Texten trainiert. Dabei erkennt die Künstliche Intelligenz statistische Korrelationen zwischen Wörtern, wie Prof. Barenkamp erläutert, um bei einer Eingabe das wahrscheinlich nächste Wort zu ermitteln.

Menschen hingegen erleben schon als Kind konkrete Erfahrungen mit Objekten und Situationen, bauen ihr eigenes Abbild (Repräsentation) der Welt auf und entwickeln kognitive Fähigkeiten wie Abstraktionsvermögen und logisches Denken.

Dies kann aus Sicht von KI-Experte Barenkamp erklären, warum GPT 4 zwar Texte, wie von Menschen verfasst, in hoher Qualität auszugeben in der Lage ist, aber an einfachen visuellen Tests scheitert: Weil das Training in diesem Fall ausschließlich auf Sprache beruht und nicht auf realen Erfahrungen sowie dem notwendigen Verbinden von Sprache mit konkreten, erlebten Dingen.

Manche Forscher vermuten daher, dass KI-Systeme Wörter auch nicht so „verstehen“ wie wir Menschen, da sie dadurch keine echte Begrifflichkeit der Welt entwickeln können.

ai-society.org/

powered by www.it-daily.net


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*