Wie eine ereignisgesteuerte Architektur (EDA) die Schwächen von ChatGPT beheben und Mehrwert für das Unternehmen schaffen kann

Künstliche Intelligenz, auch maschinelles Lernen genannt, hat das Potenzial, die Art und Weise, wie wir leben, lernen und arbeiten, zu revolutionieren. [...]

Thomas Kunnumpurath, Vice President of Systems Engineering for Americas bei Solace (Quelle: Solace)

Studien zufolge wird KI bis 2030 einen Beitrag von 15,7 Billionen Dollar zur Weltwirtschaft leisten. Insbesondere ChatGPT, das beliebte generative KI- und Sprachverarbeitungstool von OpenAI, hat sich in der technischen Community einen Spitzenplatz gesichert. Es bietet eine Vielzahl innovativer Anwendungen, und seine Fähigkeiten entwickeln sich rasant weiter.

Was sind die nächsten Schritte für diesen fortschrittlichen Chatbot? Thomas Kunnumpurath, Vice President of Systems Engineering for Americas bei Solace, ist überzeugt, dass  eine  ereignisgesteuerte Architektur (Event-Driven Architecture, EDA) neue ChatGPT-Geschäftspotenziale erschließen und dem Anwender die Kontrolle sichern kann.

Von Sofortübersetzungen und Ideenfindung bis zum vollständigen Verfassen von E-Mails und Aufsätzen: ChatGPT hält Einzug in unser tägliches Leben. Laut einer USB-Studie erreichte der Chatbot im Januar, nur zwei Monate nach seiner Einführung, 100 Millionen monatlich aktive Nutzer und ist damit die am schnellsten wachsende Verbraucheranwendung aller Zeiten.

Die andere Seite der Geschichte: Einschränkungen, die ChatGPT bremsen

Es gibt jedoch einige Nachteile und Einschränkungen, die ChatGPT und die KI im Allgemeinen daran hindern, ihr volles Potenzial auszuschöpfen. Hier erleichtert EDA den Informationsfluss zwischen den Systemen, die Ereignisse „veröffentlichen“, und anderen Systemen, die ihr Interesse an dieser Art von Informationen durch das „Abonnieren“ von Themenbekunden.

Die Entwicklung von Anwendungen mit EDA ist ein ideales Mittel, um interne Funktionen miteinander zu verbinden und sie reaktionsfähiger zu machen. Das bedeutet, dass EDA Anfragen entgegennimmt und bearbeitet, wenn ChatGPT aufgerufen wird. Das hilft, Reaktionszeiten zu verkürzen und unnötigen Energieverbrauch zu reduzieren. Und es bietet sogar neue E-Commerce-Chancen für B2B- und B2C-Unternehmen. Und so funktioniert es.

Fünf Wege, auf denen EDA das Potenzial von ChatGPT freisetzt

Ohne Frage: Automatische Antworten durch Straffung des Frage/Antwort-Zyklus  

Heute funktioniert ChatGPT auf eine Art und Weise, die wir Techniker „Anfrage/Antwort“ nennen. Man könnte auch sagen: Bittet und ihr werdet empfangen. Stellen Sie sich nun vor, ChatGPT könnte Ihnen proaktiv etwas schicken, von dem es weiß, dass es interessiert!

Nehmen wir an, Sie verwenden ChatGPT, um To-Dos aus einem Zoom-Meeting mit einem Dutzend Teilnehmern zusammenzufassen und zu notieren. Statt dass jeder Teilnehmer um die Notizen bitten muss, würde EDA es ChatGPT überlassen, die Notizen an alle Teilnehmer gleichzeitig zu senden, auch an diejenigen, die das Meeting verpasst haben. Jeder wäre automatisch und sofort auf dem neuesten Stand der Besprechungsergebnisse, was ChatGPT erheblich entlastet, da es proaktiv eine Nachricht an ein Dutzend Empfänger sendet, statt im Laufe der Zeit eine Reihe von Frage/Antwort-Interaktionen zu verarbeiten. Das verbessert die Servicequalität für die Benutzer.

Jede Gruppenaktivität, die von ChatGPT unterstützt wird und dieselben Vorschläge benötigt, kann von dieser Funktion profitieren. Zum Beispiel Teams, die gemeinsam an einer Codebasis arbeiten. Statt dass ChatGPT jedem Entwickler in seiner integrierten Entwicklungsumgebung (IDE) Änderungen/Verbesserungen vorschlägt, könnte die IDE die Vorschläge „abonnieren“. Die zugrundeliegende EDA-Technologie wäre dann in der Lage, diese an alle registrierten Entwickler weiterzuleiten, wenn sie die Codebasis veröffentlichen.

Reduzieren Sie den Energieverbrauch von ChatGPT durch intelligente Ressourcennutzung

ChatGPT ist sehr ressourcenintensiv und daher teuer in der Verarbeitung, Und es benötigt spezielle Chips, sogenannte Grafikprozessoren (GPUs). Und davon braucht es eine ganze Menge. Die hohe Auslastung der GPUs (derzeit schätzungsweise mehr als 28.936), die für das Training des ChatGPT-Modells und die Verarbeitung von Benutzeranfragen erforderlich sind, verursacht erhebliche Kosten, die schätzungsweise zwischen 0,11 und 0,36 Dollar pro Anfrage liegen.

Und dann sind da noch die Umweltkosten des Modells. Der hohe Stromverbrauch der Grafikprozessoren trägt zur Energieverschwendung bei. Data Scientists schätzen den täglichen CO2-Fußabdruck von ChatGPT auf 23,04 kgCO2e, was dem anderer großer Sprachmodelle wie BLOOM entspricht.

Der Bericht weist jedoch darauf hin, dass „die Schätzung des täglichen CO2-Fußabdrucks von ChatGPT zu hoch sein könnte, wenn die OpenAI-Ingenieure intelligente Wege finden, alle Anfragen effizienter zu verarbeiten.“ Es gibt also eindeutig Raum für Verbesserungen bei der CO2-Bilanz.

Durch die Implementierung von EDA kann ChatGPT seine Ressourcen besser nutzen, indem es Anfragen nur dann bearbeitet, wenn sie eingehen, statt ständig zu laufen.  

Erhöhen Sie die Verfügbarkeit von ChatGPT trotz Kapazitätsüberlastung

ChatGPT muss eine große Zahl von Benutzeranfragen verarbeiten. Die Beliebtheit, das schnelle Wachstum und die Unvorhersehbarkeit von ChatGPT führen dazu, dass es häufig überfordert ist, mit der Nachfrage umzugehen, die extrem unbeständig und „sprunghaft“ sein kann.

Heute führt das zu „Sorry, wir können Ihnen gerade nicht helfen“-Fehlermeldungen, und zwar sowohl für Premium- als auch für kostenlose ChatGPT-Benutzer. Die jüngsten Ausfälle von ChatGPT zeigen, wie überlastet das System ist, während es darum kämpft, schnell zu skalieren, um den ständig wachsenden Datenverkehr zu bewältigen und mit neuen Rivalen wie Google Bard zu konkurrieren. Wo kommt dabei die EDA ins Spiel?

Im Falle einer Überlastung von ChatGPT kann die EDA Anfragen puffern und sie asynchron über mehrere ereignisgesteuerte Microservices abarbeiten, sobald der ChatGPT-Dienst wieder verfügbar ist. Bei entkoppelten Diensten führt der Ausfall eines Dienstes nicht zum Ausfall der anderen.

Der Event-Broker, eine Schlüsselkomponente der ereignisgesteuerten Architektur, ist ein statusabhängiger Vermittler, der als Puffer fungiert, indem er Ereignisse speichert und sie weiterleitet, wenn der Dienst wieder online ist. Aus diesem Grund können Service-Instanzen schnell hinzugefügt werden, ohne dass dies zu Ausfallzeiten des gesamten Systems führt. Das verbessert die Verfügbarkeit und Skalierbarkeit.

Mit EDA-Unterstützung können Benutzer von ChatGPT-Diensten jederzeit und überall auf der Welt die gewünschten Informationen anfordern, und ChatGPT kann ihnen die Ergebnisse senden, sobald sie verfügbar sind. Das stellt sicher, dass die Benutzer ihre Anfrage nicht erneut eingeben müssen, um eine generierte Antwort zu erhalten, was die allgemeine Skalierbarkeit verbessert und die Antwortzeit verkürzt.

Integrieren Sie ChatGPT in Ihre Geschäftsprozesse, um den E-Commerce-Markt mit KI zu revolutionieren

KI spielt eine entscheidende Rolle im E-Commerce-Markt. Es wird erwartet, dass der Markt für KI im E-Commerce bis 2032 ein Volumen von 45,72 Milliarden US-Dollar erreichen wird. Es überrascht daher nicht, dass führende E-Commerce-Unternehmen beginnen, ChatGPT in ihre Geschäftsprozesse zu integrieren. So hat beispielsweise Shopify mit ChatGPT einen Einkaufsassistenten entwickelt, der den Nutzern Produkte empfiehlt, indem er ihre Suchmaschinenanfragen analysiert.

EDA hat das Potenzial, das Einkaufserlebnis noch weiter zu verbessern und B2C- und B2B-Unternehmen dabei zu helfen, mehr über ihre Kunden zu erfahren, indem sie Schlüsselereignisse von E-Commerce-Plattformen in großem Maßstab verfolgen.

Auf diese Weise können die Unternehmen Muster im Kundenverhalten erkennen, z. B. welche Artikel in bestimmten Regionen am profitabelsten sind und welche Faktoren Kaufentscheidungen beeinflussen. Diese Informationen können dann an einen Datenspeicher gesendet werden, damit das maschinelle Lernmodell von ChatGPT das Kundenverhalten vorhersagen und personalisierte Produktempfehlungen geben kann. Und das ist erst der Anfang der Entwicklung solcher Modelle auf Basis von ChatGPT.

Verbessern Sie Ihre Fähigkeit, auf die globale Nutzerbasis zu reagieren

Da ChatGPT und ChatGPT-Anwendungen eine globale Nutzerbasis haben, ist es wichtig, dass Sie die Daten Ihrer GPT-Abfragen effizient verteilen. Ein Event-Mesh ist die perfekte Architektur, um diese Anforderung zu erfüllen.  

Ein Event-Mesh ist eine Architekturschicht, die aus einem Netzwerk von Event-Brokern besteht und es ermöglicht, dass Ereignisse von einer Anwendung zu jeder anderen Anwendung gesendet und von ihr empfangen werden können, unabhängig davon, wo die Anwendungen eingesetzt werden.

Auf diese Weise können Sie Daten dynamisch und nach Bedarf an interessierte Teilnehmer weiterleiten, statt Ihre ChatGPT-Ergebnisse an alle Anwendungen zu senden und sie anschließend durch Anwendungslogik zu filtern. Das verbessert die Benutzerfreundlichkeit und spart Rechen- und Netzwerkressourcen.

Erschließen Sie das volle Potenzial von ChatGPT mit EDA

ChatGPT mag noch in den Kinderschuhen stecken, aber die rasche Akzeptanz durch die Nutzer und die regelmäßigen Ankündigungen neuer Funktionen deuten darauf hin, dass die Geschichte noch lange nicht zu Ende ist.

Ganz gleich, ob es darum geht, Serviceausfälle und übermäßigen Energieverbrauch zu beheben, die Skalierbarkeit, Ausfallsicherheit und Flexibilität zu erhöhen oder neue Geschäftsanwendungen für B2B- und B2C-Unternehmen bereitzustellen: Die EDA kann diesem neuen generativen KI-Tool helfen, seinen Erfolg weiter auszubauen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*