Serverless Computing: Mit neuer Technologie werden die Karten bei der Datenintegration neu gemischt

Die Vorteile von Serverless Computing sind erhöhte Agilität, unbegrenzte Skalierbarkeit, einfachere Wartung und niedrigere Kosten. Darüber hinaus unterstützt Serverless Computing Multi-Cloud-Umgebungen und lässt das Pay-As-You-Go-Modell Wirklichkeit werden. [...]

Thomas Steinborn ist VP Product Management bei Talend. (c) Talend
Thomas Steinborn ist VP Product Management bei Talend. (c) Talend

Die Entwicklung des Serverless-Konzeptes lässt sich mit einem Blick auf die Erfolgsgeschichte der Cloud aufzeigen. So gibt es das Cloud-Computing-Konzept schon seit einiger Zeit, aber erst mit dem Aufkommen virtueller Maschinen und der Einführung von Amazon Elastic Compute wurden CloudServices ab 2006 wirklich für alle Unternehmen nutzbar. Im Jahr 2008 folgte Google mit der Google App Engine, 2010 kam Microsoft Azure auf den Markt. Anfangs unterschieden sich die Angebote gar nicht so sehr voneinander. Doch wie in fast jedem Markt folgte dem Wachstum rasch eine Zersplitterung. In den letzten Jahren ist der Markt für Cloud Computing so stark gewachsen, dass es sich für die Anbieter mittlerweile lohnt, spezifischere Angebote zu entwickeln, denn sie können sich darauf verlassen, einen relevanten Markt vorzufinden. Cloud-Anbieter haben bei ihren Angeboten und den darin unterstützten Funktionen wie zum Beispiel KI, Machine Learning, Streaming, Batch usw. auf eine immer stärkere Differenzierung gesetzt.

Die Cloud-Vielfalt wächst

Aufgrund der Eigenarten des Cloud Computing, der Fülle von Angeboten und der relativ niedrigen Kosten für die Services hat die Segmentierung mittlerweile ein beispielloses Niveau erreicht, denn heute können die Kunden Cloud-Lösungen in einer Multi-Cloud-Umgebung einsetzen und anpassen. Daher sind Nischenanbieter, die auf die Bedürfnisse bestimmter Marktsegmente eingehen, eher selten: Zahlreiche Cloud-Anbieter sind vielmehr in der Lage, die unterschiedlichen Anforderungen derselben Kunden zu bedienen.

Der neueste Treiber dieser extremen Segmentierung ist das Serverless Computing. Serverless Computing ist ein Modell, bei dem der Cloud-Provider sozusagen als Server auftritt und die Zuteilung von Ressourcen und Nutzungszeiten dynamisch verwaltet. Der Preis richtet sich nach dem tatsächlichen Ressourcenverbrauch einer Anwendung und nicht nach vorausbezahlten Kapazitätseinheiten.

Bei diesem Modell sind Entscheidungen zur Serververwaltung und zur Kapazitätsplanung für den Nutzer transparent. Zudem kann Serverless-Code gemeinsam mit Code verwendet werden, der in Microservices eingesetzt wird.

Das Marktforschungsunternehmen Gartner sagt zu: „Serverless Computing ist ein neuartiges Software-Architekturmuster, das eine Bereitstellung und Verwaltung von Infrastrukturen überflüssig macht.“ Nach Ansicht von Gartner müssen IT-Führungskräfte beim Serverless Computing einen anwendungszentrischen Ansatz verfolgen. Dabei werden anstelle physischer Infrastrukturen Schnittstellen für die Anwendungsprogrammierung (APIs) und Service-Level-Agreements (SLAs) verwaltet.

Funktionen werden als Service verfügbar

Das Serverless-Konzept wird meistens mit Functions-as-a-Service (FaaS) verknüpft. FaaS eignet sich perfekt, um ereignisbasierte Echtzeitintegrationen bereitzustellen. FaaS ist ohne Containertechnologien nicht denkbar, denn Container treiben nicht nur die zugrundeliegende Funktionsinfrastruktur an, sondern sind optimal für rechenintensive Workloads mit langer Ausführungsdauer geeignet.

Das Praktische bei dem Container-Konzept ist die Tatsache, dass mehrere Big Player wie Google, AWS, Azure, RedHat und andere in enger Kooperation ein gemeinsames Containerformat erstellen. Hier liegt ein wesentlicher Unterschied etwa zu den virtuellen Maschinen vor, bei denen jeder Hersteller sein eigenes Süppchen kocht: AWS hat AMI entwickelt, VMware setzt auf VMDK, Google hat sein Google Image. Dagegen erlauben Container den IT-Architekten die Nutzung desselben Pakets für alle Plattformen. Ein solches Paket kann eine Workload mit langer Ausführungsdauer, genauso gut aber auch einen einzelnen Service enthalten.

Beschleunigte Entwicklungsarbeiten

Serverless Computing muss immer zusammen mit Continuous Integration/Continuous Delivery (CI/CD) eingesetzt werden, denn nur so können die Unternehmen die Time-to-Market verkürzen. Durch Verringerung der Entwicklungsdauer können die Unternehmen neue Produkte und Funktionen schneller liefern – in globalen Märkten ein wichtiger Vorteil. CI/CD verwaltet die zusätzliche Komplexität, die Entwickler unter Verwendung eines differenzierten Serverless-Bereitstellungsmodells administrieren.

Nach Ansicht von Talend muss das Rückgrat der Datenintegration bei Unternehmen nativ und portabel sein. Nativer Code reduziert Laufzeiten und vermeidet zusätzliche Entwicklungen. Dabei ist noch nicht einmal der Code proprietär, es gibt also keine Beschränkungen auf eine bestimmte Umgebung. Dies führt zu einem Mehr an Flexibilität, Skalierbarkeit und Leistung.

Fazit

Die Vorteile von Serverless Computing sind erhöhte Agilität, unbegrenzte Skalierbarkeit, einfachere Wartung und niedrigere Kosten. Darüber hinaus unterstützt Serverless Computing Multi-Cloud-Umgebungen und lässt das Pay-As-You-Go-Modell Wirklichkeit werden. Weiterhin fördert der Serverless-Ansatz die Nachhaltigkeit datengestützter Strategien in finanzieller Hinsicht. Und genau deswegen werden durch Serverless Computing die Karten im Bereich der Datenintegration neu gemischt. Jetzt sind die Möglichkeiten im Bereich Data-on-Demand nahezu unbegrenzt. Denn die Unternehmen entscheiden nun, wie, wo und wann sie Daten auf eine für sie wirtschaftlich sinnvolle Weise verarbeiten.


* Thomas Steinborn ist VP Product Management bei Talend.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*