Effizienzmotor mit Datendurst 

Generative KI beziehungsweise GenAI wird in immer mehr Unternehmen zum Effizienzmotor und Innovationstreiber. Auch die Kosten lassen sich mit Hilfe der Technologie deutlich senken. Voraussetzung ist jedoch ein einwandfreies Datenmanagement, denn ohne das entsprechende Rohmaterial ist auch die beste künstliche Intelligenz hilflos. Ein Kommentar von Dennis Scheutzel von Dell Technologies. [...]

Dennis Scheutzel, Director & General Manager Unstructured Data Solutions and AI Germany bei Dell Technologies (c) Dell Technologies
Dennis Scheutzel, Director & General Manager Unstructured Data Solutions and AI Germany bei Dell Technologies (c) Dell Technologies

Im KI-Zeitalter sind auch alte oder auf den ersten Blick irrelevante Daten langfristig wertvoll: Durch sie erhält künstliche Intelligenz nämlich nicht nur eine aktuelle Informationsbasis, um Vorschläge zu machen oder Entscheidungen zu treffen, sondern eine empirische. Erst auf diese Weise kann der digitale Mitarbeiter nicht nur reaktive, sondern durchdachte Aktionen durchführen.

Das A und O: Gut aufbereitete unstrukturierte Daten

Die gute Nachricht: Die meisten Unternehmen verfügen heute über einen enormen Fundus an unstrukturierten Daten. Ein wahrer Schatz, der zudem immer weiter wächst. Um ihn aber auch wirklich nutzen zu können, müssen Unternehmen unstrukturierte Datenquellen zunächst erschließen, aufbereiten und klassifizieren. Ein wichtiger Schritt in diesem Zusammenhang ist das Aufbrechen von Datensilos und deren Zentralisierung. Viel zu oft kommt es nämlich vor, dass Abteilungen ihre Informationen nicht teilen, unterschiedliche Systeme einsetzen oder die wertvollen Daten an verschiedensten Orten speichern. Das bremst KI aus, macht sie ineffizient und frisst die wertvolle Zeit von Data Scientists. Sobald die Konsolidierungsphase abgeschlossen ist, müssen Letztere die Daten aufbereiten. Nach der initialen Explorationsphase, in der sie das Ausgangsmaterial beurteilen, müssen Data Scientists die vorhandenen Daten von Dubletten, Fehlern und Abweichungen bereinigen – damit steigern sie die Qualität des Datenschatzes und bilden das Fundament für die spätere KI-Modellierung. Nach der Datenextraktion müssen sie noch deren sauberen Export ermöglichen. Es lohnt sich also für Unternehmen, ein System zu nutzen, dass via APIs mit beliebten KI- und ML-Tools kommunizieren kann. Eine Data-Preparation-Lösung ist an dieser Stelle eine sinnvolle Wahl, da sie alle Prozesse erleichtert, die vor der eigentlichen KI-Modellierung stehen, gleichzeitig aber auch bei der Einhaltung von Compliance-Richtlinien hilft.

Die richtige Infrastruktur ist erfolgsentscheidend für KI

Unternehmen, die mit großen Datenmengen und leistungshungrigen KI-Modellen arbeiten, benötigen zudem eine entspreche IT-Infrastruktur mit ausreichend Rechenleistung. Diese sollte möglichst kosteneffizient sein, denn sonst ist der ROI von KI-Modellen den Aufwand ihrer Entwicklung nicht wert. GPU-Instanzen spielen hardwaretechnisch eine entscheidende Rolle, da sie die Anlernzeit von Modellen sowie Latenzzeiten verkürzen. Compute-, Storage- und Dateninstanzen in einem Rechenzentrum zusammenzufassen, ist ebenfalls ein guter Ansatz, um keine unnötigen Verzögerungen zu provozieren. Die Speicherung der Daten kann in Form eines Data Warehouse, Data Lakes oder Data Mesh erfolgen – je nach Geschmack und Anwendungszweck.

Validierte Designs sind der einfachste Weg, die zahlreichen Herausforderungen von KI-Projekten zu meistern. Durch die Verschmelzung einer Software-Suite für KI-Anwendungen mit Frameworks, vortrainierten Modellen und Hochleistungs- sowie Storage-Servern bekommen Unternehmen mit ihnen eine schlüsselfertige Lösung, die sofort einsatzbereit ist. Auf diese Weise mit einem guten Datenfundament ausgestattet, kann die KI-Reise ein voller Erfolg werden.

*Der Autor Dennis Scheutzel ist Director & General Manager Unstructured Data Solutions and AI Germany bei Dell Technologies.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*