9 künftige Innovationen, die die IT neu definieren könnten

CIOs sollten den Horizont im Auge behalten. Die folgenden zukunftsweisenden Strategien und Technologien sind auf dem Vormarsch und könnten das nächste Jahrzehnt der IT beeinflussen. [...]

(c) pixabay.com

Aufstrebende Technologien haben die Rolle von CIOs in den letzten Jahren stark erweitert, da zuvor weit entfernte Innovationen wie maschinelles Lernen und natürliche Sprachverarbeitung in den Mittelpunkt der digitalen Transformation gerückt sind, die die Unternehmenslandschaft erschüttert.

Doch mit diesem neuen Status ist auch die Notwendigkeit gewachsen, die neuesten Entwicklungen im Auge zu behalten. Die Rolle des CIO besteht nicht nur darin, die vorhandene Technologie zu pflegen, sondern auch zu planen, wie die IT-Abteilung künftige Herausforderungen und Chancen bewältigen kann, denn der Wandel ist nicht aufzuhalten.

Hier finden Sie neun große Ideen, Schlagworte und sich entwickelnde Technologien, die schon heute an Dynamik gewinnen. Eine Idee zu übernehmen, bevor sie ausgereift ist, kann sehr belebend sein – wenn Sie richtig liegen. Zu warten, bis sie sich durchgesetzt hat, ist zwar sicherer, kann aber auch zu einem Rückstand gegenüber der Konkurrenz führen.

IT-Abteilungen müssen diese neu aufkommenden Ideen und Technologien im Auge behalten und herausfinden, wann – und ob – der richtige Zeitpunkt gekommen ist, sie für ernsthafte Aufgaben einzusetzen. Nur Sie wissen, wann dieser Zeitpunkt für Ihren Tech-Stack gekommen ist.

Composable Technologies

Die Idee ist ein Dauerbrenner unter Programmierern: eine einfache Möglichkeit, Software ohne jegliche Arbeit zu integrieren. Einst sprach man von Software-Agenten. Ein anderes Mal war es eine Ökologie von APIs. Heute spricht man von Composable Technologies. Sie stellen sich vor, dass der Output eines Software-Blocks problemlos neben dem Code eines anderen in einer langen Pipeline läuft.

Kompatibilität ist eine gute wirtschaftliche Strategie für Unternehmen, denn eine gut durchdachte Sammlung kompatibler APIs und Bibliotheken ermöglicht es einem Team, mehr zu entwickeln und weiter zu gehen. Die Codebasen sind in der Regel einfacher zu pflegen und leichter zu erweitern. Wenn alles gut funktioniert, kann ein Team schnell umschwenken und neue Funktionen hinzufügen, zumindest wenn diese Funktionen die vorhandene Codebasis nutzen. Die Strategie schützt aber auch die geistige Gesundheit, sowohl von Managern als auch von Neulingen, denn ein gut durchdachter Plan für kompatiblen Code ist eine starke architektonische Blaupause für Projekte und in einigen Fällen für das gesamte Unternehmen selbst.

Hauptakteure: Entwickler auf allen Ebenen, vor allem aber diejenigen, die den Benutzern voll funktionsfähige Plug-in-Architekturen zur Verfügung stellen wollen.

Erfolgsaussichten: Zum Teil bereits vorhanden, und es wird noch besser.

Datenverarbeitung überall

Zuerst war da das Internet der Dinge. In letzter Zeit spricht man vom „Internet der Materialien“, da clevere Entwickler intelligente Chips in Stoffe, Ziegelsteine, Holz oder so ziemlich alles einbetten, was zur Herstellung von etwas anderem verwendet wird. Durch den Einbau von Computerintelligenz in Ausgangsmaterialien, so die Überlegung, lassen sich bessere Dinge bauen.

Der Beton in einem Gebäude könnte eine E-Mail-Warnung absetzen, bevor er versagt. Ein T-Shirt könnte feststellen, wie viel Schweiß sein Träger produziert. Da einfache Computer immer billiger werden, wachsen die Möglichkeiten für Low-Level-Intelligenz weiter.

Hauptakteure: Unternehmen, die stärkere, schnellere, sicherere und widerstandsfähigere Produkte herstellen wollen.

Erfolgsaussichten: Die kleinen, billigen Chips sind bereits da; es geht nur noch darum, die besten Stellen zu finden, an denen sie eingesetzt werden können.

Dezentralisierte Identität

Die Idee, unsere so genannte Identität aufzuteilen, entwickelt sich auf zwei Ebenen. Auf der einen Seite entwickeln Befürworter des Datenschutzes clevere Algorithmen, die gerade genug Informationen preisgeben, um eine Identitätsprüfung zu überstehen, während alles andere über eine Person geheim bleibt. Ein möglicher Algorithmus könnte zum Beispiel ein digitaler Führerschein sein, der garantiert, dass ein Bierkäufer über 21 Jahre alt ist, ohne seinen Geburtsmonat, -tag oder gar -jahr preiszugeben.

Eine andere Version scheint sich in umgekehrter Richtung zu entwickeln, da die Werbeindustrie nach Möglichkeiten sucht, all unsere verschiedenen Pseudonyme und das halb-anonyme Surfen im Internet miteinander zu verknüpfen. Wenn Sie in einem Kataloggeschäft nach Regenschirmen suchen und dann auf Nachrichtenseiten Werbung für Regenschirme sehen, können Sie sehen, wie sich diese Entwicklung vollzieht. Selbst wenn Sie sich nicht anmelden oder Ihre Cookies löschen, finden diese cleveren Teams Wege, um uns überall zu verfolgen.

Hauptakteure: Unternehmen wie die medizinische Versorgung oder Banken, die mit persönlichen Daten und Kriminalität zu tun haben.

Erfolgsaussichten: Die grundlegenden Algorithmen funktionieren gut; die Herausforderung ist der gesellschaftliche Widerstand.

Massive lokale Datenbanken

Datenbanken begannen als Programme, die Informationen auf einem Computer speichern, aber in letzter Zeit haben sie ihre Ranken über die gesamte Cloud ausgedehnt, bis sie jetzt am Rande oder zumindest in der Nähe davon arbeiten. Das bedeutet schnellere Antworten und weniger Datenbewegungen zurück zum Mutterschiff. Im Laufe der Zeit haben die Entwickler bessere Möglichkeiten gefunden, Konsistenzprobleme und Deadlocks zu vermeiden. Heute bieten zahlreiche Cloud-Unternehmen Dienste an, die buchstäblich den ganzen Globus umspannen.

Unternehmen mit vielen Kunden werden die Möglichkeit zu schätzen wissen, mehr Speicherplatz in die Nähe ihrer Nutzer zu bringen. Die gesamte Arbeit des Aufbaus eines globalen Netzes wurde von den Cloud-Unternehmen übernommen, und nun werden die Unternehmen und ihre Kunden von der schnellen Reaktion profitieren.

Hauptakteure: Teams, die hochgradig interaktive Tools entwickeln, die Daten speichern müssen.

Erfolgsaussichten: Die Fähigkeit, lokale Arbeitskräfte zu schaffen und Informationen am Rand zu speichern, ist in den großen Clouds bereits vorhanden. Die Entwickler müssen sie nur noch nutzen.

GPUs

Grafikprozessoren wurden zunächst entwickelt, um das Rendering komplexer visueller Szenen zu beschleunigen, aber in letzter Zeit haben Entwickler entdeckt, dass die Chips auch Algorithmen beschleunigen können, die nichts mit Spielen oder 3D-Welten zu tun haben. Einige Physiker nutzen GPUs schon seit einiger Zeit für komplexe Simulationen. Einige KI-Entwickler haben sie eingesetzt, um Trainingsdaten zu verarbeiten. Jetzt beginnen die Entwickler damit, allgemeinere Aufgaben wie die Suche in Datenbanken mit Hilfe von GPUs zu beschleunigen. Die Chips glänzen, wenn dieselben Aufgaben zur gleichen Zeit mit riesigen Datenmengen parallel ausgeführt werden müssen. Wenn das Problem richtig ist, können sie die Aufgaben um das 10- bis 1000-fache beschleunigen.

Hauptakteure: Datengesteuerte Unternehmen, die rechenintensive Herausforderungen wie KI oder komplexe Analysen angehen wollen.

Erfolgsaussichten: Clevere Programmierer nutzen GPUs schon seit Jahren für spezielle Projekte. Jetzt erschließen sie das Potenzial in Projekten, die sich mit Problemen befassen, mit denen eine größere Anzahl von Unternehmen konfrontiert ist.

Dezentrales Finanzwesen

Manche nennen es eine Blockchain. Andere bevorzugen den banaleren Ausdruck „Distributed Ledger„. In jedem Fall besteht die Herausforderung darin, eine gemeinsame Version der Wahrheit zu schaffen – auch wenn nicht alle Beteiligten damit einverstanden sind. Diese „Wahrheit“ entwickelt sich weiter, wenn jeder Ereignisse oder Transaktionen in die gemeinsame verteilte Liste einträgt. Kryptowährungen, die sich stark auf solche mathematisch garantierten Listen stützen, um zu verfolgen, wem die verschiedenen virtuellen Münzen gehören, haben die Idee berühmt gemacht, aber es gibt keinen Grund zu glauben, dass dezentrale Ansätze wie dieser auf Währungen beschränkt sein müssen.

Das dezentrale Finanzwesen ist eine solche Möglichkeit, deren Potenzial zum Teil darin besteht, dass mehrere Unternehmen oder Gruppen zusammenarbeiten müssen, obwohl sie einander nicht wirklich vertrauen. Die Transaktionskette, die im verteilten Hauptbuch gespeichert ist, könnte Versicherungszahlungen, Autokäufe oder eine beliebige Anzahl von Vermögenswerten verfolgen. Solange alle Parteien das Hauptbuch als wahr anerkennen, können die einzelnen Transaktionen garantiert werden.

Hauptakteure: Jeder, der seine Arbeit mit einem anderen Unternehmen oder einer anderen Einrichtung sowohl vertrauenswürdig als auch verifizierbar machen muss.

Erfolgsaussichten: Es gibt sie bereits, aber nur in der Welt der Kryptowährungen. Konservativere Unternehmen ziehen langsam nach.

Nicht fälschbare Transaktionen (NFTs)

Jemand hat erkannt, dass die verschiedenen Blockchains und verteilten Ledger mehr als nur Geld verfolgen können – sie können auch die Besitzer jeder beliebigen digitalen Datei definieren. Diese sogenannten nicht-fungiblen Token, umgangssprachlich als NFTs bezeichnet, tauchen nun überall auf, da Künstler digitale Rechte an ihren Werken verkaufen und Sportligen hoffen, dass NFTs eine moderne, digitale Version von Sammelkarten werden. Einige Leute spotten über diese Idee und fragen sich, warum jemand einen Aufpreis für die mystischen „Eigentumsrechte“ an einem digitalen Block von Bits zahlen sollte, den jeder raubkopieren kann. Andere weisen darauf hin, dass die Leute regelmäßig Hunderte von Millionen Dollar hinlegen, um das Original eines Ölgemäldes zu besitzen, obwohl es überall digitale Kopien gibt.

Diese können für jedes Unternehmen von praktischem Wert sein, das einem digitalen Erlebnis einen Hauch von Authentizität verleihen möchte. Vielleicht könnte ein Baseballteam eine NFT-Version der Spielstandskarte an jeden ausgeben, der ein echtes Ticket gekauft hat, um auf der Tribüne zu sitzen. Oder ein Sportschuhhersteller könnte NFTs mit dem Zugang zur nächsten Ausgabe einer bestimmten Farbe ausgeben.

Hauptakteure: Unternehmen, die mit digitalen Elementen arbeiten und mehr Authentizität und vielleicht eine künstliche Verknappung benötigen.

Erfolgsaussichten: Einige lieben die Exklusivität von NFTs. Andere halten sie für ein Schneeballsystem. Den größten Erfolg werden sie in Unternehmen haben, die fälschungssichere Artikel wie Konzertkarten herstellen müssen.

Green Computing

Jeden Tag hören wir neue Geschichten über riesige neue Rechenzentren mit riesigen Computern, die die Cloud mit Energie versorgen und die Leistung unglaublich komplizierter Algorithmen und Anwendungen der künstlichen Intelligenz freisetzen. Nachdem sich das Gefühl der Ehrfurcht gelegt hat, erschaudern zwei Arten von Menschen: die CFOs, die die Stromrechnung bezahlen müssen, und die Befürworter des Green Computing, die sich Sorgen machen, was dies mit der Umwelt macht. Beide Gruppen haben ein gemeinsames Ziel: die Verringerung des Stromverbrauchs, um die Magie zu erzeugen.

Es stellt sich heraus, dass viele Algorithmen verbesserungswürdig sind, und das treibt die Bemühungen um eine umweltfreundliche Datenverarbeitung voran. Muss der Algorithmus für maschinelles Lernen wirklich ein Terabyte historischer Daten untersuchen oder könnte er die gleichen Ergebnisse mit einigen hundert Gigabyte erzielen? Oder vielleicht nur mit zehn oder fünf oder einem? Das neue Ziel für die Entwickler von Algorithmen besteht darin, die gleichen Ergebnisse mit viel weniger Strom zu erzielen und so Geld und vielleicht sogar den Planeten zu schonen.

Hauptakteure: Alle, denen die Umwelt am Herzen liegt – oder die eine Stromrechnung bezahlen.

Erfolgsaussichten: Programmierer wurden durch das Mooresche Gesetz vor den wahren Kosten der Ausführung ihres Codes geschützt. Es gibt noch viel Raum für besseren Code, der Strom spart.

Quantenresistente Kryptografie

Es ist immer noch eine unausgegorene Idee, für die es noch nicht viele praktische Demonstrationen gibt, aber das hat einige Leute nicht davon abgehalten, sich vorzustellen, was passieren könnte, wenn magische Quantencomputer vom Fließband rollen. Ihre Angst treibt eine sehr praktische Revolution in der Kryptografie voran, da Mathematiker nach einer neuen Generation von Protokollen suchen, die der Kraft der Quantenhardware widerstehen können.

Das National Institute of Standards and Technology befindet sich derzeit mitten in einem mehrjährigen Wettbewerb zur Auswahl der besten Algorithmen. Auch wenn die Quanten-Hardware eine verlockende Fata Morgana am Horizont bleibt, könnte die Software, die aus der Angst vor ihr geboren wird, die Grundlage für die nächste Generation von Protokollen zum Schutz von Transaktionen und Kommunikation bilden. Auf dieser Seite finden Sie die neuesten Informationen des Komitees, das den Wettbewerb durchführt.

Hauptakteure: Jedes Team, das sich auf Sicherheit und Authentifizierung verlässt.

Erfolgsaussichten: Effiziente Quantencomputer werden vielleicht nicht kommen, aber quantenresistente Algorithmen werden die Sicherheitsebene in vielen Systemen erneuern.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*