Wie Public Clouds Innovationen im Bereich KI hervorbringen

Unternehmen, die nicht die Ressourcen haben, um eigene Modelle für maschinelles Lernen zu entwickeln, wenden sich an die großen Cloud-Anbieter. [...]

(c) pixabay.com

Die drei großen Cloud-Anbieter, insbesondere Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP), wollen, dass Entwickler und Datenwissenschaftler Modelle für maschinelles Lernen in ihren Clouds entwickeln, testen und einsetzen. Das ist ein lukratives Unterfangen für sie, denn Testmodelle benötigen oft ein hohes Maß an Infrastruktur, und Modelle in der Produktion erfordern oft eine hohe Verfügbarkeit.

Dies sind lukrative Dienste für die Cloud-Anbieter und bieten ihren Kunden Vorteile, aber sie wollen nicht nur über Infrastruktur, Service-Level und Preise um Ihr Geschäft konkurrieren. Sie konzentrieren sich auf vielseitige On-Ramps, um den Kunden die Nutzung ihrer maschinellen Lernfunktionen zu erleichtern.

Jede Public Cloud bietet mehrere Optionen für die Datenspeicherung, darunter Serverless-Datenbanken, Data Warehouses, Data Lakes und NoSQL-Datenspeicher, so dass Sie Ihre Modelle wahrscheinlich in der Nähe des Ortes entwickeln, an dem sich Ihre Daten befinden. Sie bieten beliebte Frameworks für maschinelles Lernen an, darunter TensorFlow und PyTorch, so dass ihre Clouds für Data-Science-Teams, die Flexibilität wünschen, alles aus einer Hand bieten. Alle drei bieten Modelops, MLops und eine wachsende Anzahl von Funktionen zur Unterstützung des gesamten Lebenszyklus des maschinellen Lernens.

Eine kürzlich durchgeführte Studie zeigt, dass 78 % der Projekte für künstliche Intelligenz (KI) und maschinelles Lernen (ML) in Unternehmen mit einer hybriden Cloud-Infrastruktur durchgeführt werden, so dass die Public Clouds noch viel Platz zum Wachsen haben. Das bedeutet, dass sie weiterhin mit neuen und differenzierenden Funktionen innovieren müssen.

Diese Innovation umfasst mehrere Kategorien, die Unternehmen dabei helfen sollen, maschinelles Lernen in großem Umfang, mit mehr Services und benutzerfreundlicheren Plattformen durchzuführen. Hier sind einige Einzelheiten.

Schlacht der KI-Chips

Die Experimente im Bereich des maschinellen Lernens werden immer umfangreicher und komplexer, was ein Training auf großen Datenmengen erfordert. Microsoft und Nvidia kündigten kürzlich einen Sprachprozessor mit 530 Milliarden Parametern an, während Google nach eigenen Angaben Anfang des Jahres ein Modell mit 1,6 Billionen Parametern trainiert hat.

Das Trainieren von Modellen dieser Größe und Komplexität kann sehr lange dauern und teuer werden, weshalb die öffentlichen Clouds mit KI-Chips und Infrastrukturoptionen innovativ sind. AWS verfügt bereits über Inferentia und Trainium und kündigte vor kurzem neue EC2-Instanzen an, die von Habanas Gaudi angetrieben werden und im Vergleich zu den neuesten GPU-getriebenen EC2-Instanzen ein 40 % besseres Preis-Leistungs-Verhältnis bieten.

In der Zwischenzeit hat Google Anfang 2021 TPU v4 angekündigt. Seine Tensor Processing Unit der vierten Generation zeigt eine durchschnittliche Verbesserung der Leistung um das 2,7-fache gegenüber TPU v3. Erwarten Sie weitere Hardware-Innovationen mit KI-Chips und Beschleunigern von Cerebras, Graphcore, Nvidia und SambaNova.

Chips sind nicht die einzige KI-fähige Infrastruktur, und alle drei öffentlichen Clouds verfügen über Edge-Computing-Plattformen, die bei der Bereitstellung von Machine-Learning-Modellen für das Internet der Dinge und andere Streaming-Anwendungen helfen.

Kampf der KI-Dienste

Die meisten Data-Science-Teams werden keine KI im großen Stil entwickeln, wollen aber fortgeschrittene maschinelle Lernmodelle erstellen und konfigurieren. Alle drei Cloud-Anbieter entwickeln Dienste für maschinelles Lernen, und ich gehe davon aus, dass diese in den nächsten Jahren erheblich zunehmen werden.

Nachfolgend finden Sie einen kurzen Überblick über die Dienste für maschinelles Lernen, die auf Azure, GCP und AWS angeboten werden:

  • Zu den Cognitive Services von Microsoft gehören Sprachdienste, Sprachdienste für die Stimmungsanalyse sowie Frage- und Antwortdienste, die häufig in Chatbots verwendet werden. Zu den Bildverarbeitungsdiensten gehört die Gesichtserkennung, und es gibt entscheidungsunterstützende Dienste, die für die Personalisierung und die Erkennung von Anomalien verwendet werden.
  • Microsoft hat vor kurzem den OpenAI-Dienst angekündigt, der mit dem GPT-3-Modell für natürliche Sprache verbunden ist und Suche, Konversation, Textvervollständigung und andere Dienste unterstützt.
  • Google Cloud bietet mehrere KI-Dienste für die Dokumentenverarbeitung an, darunter DocAI für die allgemeine Dokumentenverarbeitung und vertikale Lösungen für die Kreditvergabe, das Beschaffungswesen, Kontaktzentren und das Vertragsmanagement.
  • Zu den AWS-Services für maschinelles Lernen gehören Rekognition für Computer Vision, Textract für die Dokumentenverarbeitung, Lex für Chatbots, CodeGuru für Code-Reviews und Personalize für die Anpassung von Webanwendungen.
  • AWS bietet auch branchenspezifische KI-Lösungen wie Amazon HealthLake, um Vorhersagen zu Gesundheitsdaten zu ermöglichen, Amazon Lookout, um abnormales Geräteverhalten zu erkennen, und Amazon Fraud Detector für Finanzdienstleistungen und andere Branchen.

Werden wir mehr Modelle für maschinelles Lernen als Service (MLaaS) von öffentlichen Clouds und anderen Wettbewerbern sehen? Dr. Kirk Borne, Chief Science Officer bei DataPrime, glaubt das. „Wir werden mehr MLaaS- oder Model-as-a-Service-Angebote sehen, da diese Modelle immer ausgefeilter werden und die Kosten für ihre Ausbildung entsprechend hoch sind. Immer weniger Unternehmen werden die Zeit und das Talent investieren wollen, um ihre eigenen Instanzen dieser vortrainierten Modelle zu erstellen.“

Borne fährt fort: „Eine große Anzahl von kleinen und mittelständischen Unternehmen, die sich mit ML und KI beschäftigen, werden diese X-aaS-Angebote perfekt für ihre Zeit, ihr Budget und ihre strategischen Anforderungen geeignet finden. MLaaS hilft auch dabei, die allgegenwärtige Talentlücke zu schließen, indem es die Vorteile von vortrainierten Modellen als Service nutzt, die hochentwickelte und leistungsstarke Algorithmen verwenden.“

Kampf um die Zugänglichkeit von KI

Die nächste Herausforderung für Public Clouds besteht darin, ihre maschinellen Lern- und KI-Funktionen auch Unternehmen zugänglich zu machen, die nicht über fortschrittliche Softwareentwicklungs- und Data-Science-Teams verfügen. Dies geschieht durch Low-Code-Technologien, die entweder über integrierte Funktionen für maschinelles Lernen verfügen oder Entwicklern helfen, Schnittstellen zu anderen KI-Services zu schaffen.

Die IDE von AWS SageMaker vereinfacht das Entwickeln, Testen und Bereitstellen von Modellen für maschinelles Lernen. Die IDE bietet mehrere fortschrittliche Funktionen, darunter einen Data Wrangler zur Unterstützung von Datenwissenschaftlern bei der Datenvorbereitung, einen Funktionsspeicher zur Förderung der Zusammenarbeit und Wiederverwendung zwischen Data-Science-Teams sowie Devops-Funktionen für die Bereitstellung mit nur einem Klick. AWS Sagemaker konkurriert mit Data Science-Plattformen wie Alteryx, Dataiku, KNIME und SAS.

Microsoft bietet Azure Machine Learning Studio, ein Portal, das No-Code- und Code-First-Erfahrungen für Datenwissenschaftler kombiniert. Das fortschrittlichere Low-Code-KI-Angebot ist AI Builder für die Power Apps-Plattform, mit dem Low-Code-Entwickler Textklassifizierung, Objekterkennung und Formularverarbeitung durchführen können.

Google verfolgt mit AutoML für das Training von Modellen einen ähnlichen Ansatz. Die integrierte Intelligenz von AppSheet umfasst Trendvorhersagen, Inhaltsklassifizierung, Stimmungsanalyse und andere Funktionen. Die Public Clouds konkurrieren mit anderen Low-Code-Plattformen, die Funktionen für maschinelles Lernen anbieten, darunter Creatio, Outsystems, Thinkwise, Vantiq und andere.

Es wird interessant sein zu sehen, wie die öffentlichen Clouds, Start-ups, Anbieter von Unternehmenssoftware, Chiphersteller, Infrastrukturanbieter und Open-Source-Plattformen bei Innovationen im Bereich künstliche Intelligenz und maschinelles Lernen konkurrieren, um größere Modelle, mehr Dienste und einfachere On-Ramps für die Integration von Anwendungen zu unterstützen.

*Isaac Sacolick ist Präsident von StarCIO und der Autor des Amazon-Bestsellers Driving Digital: The Leader’s Guide to Business Transformation through Technology, der viele Praktiken wie agile Planung, Devops und Data Science behandelt, die für erfolgreiche digitale Transformationsprogramme entscheidend sind. Sacolick ist ein anerkannter Top-Social-CIO und Influencer im Bereich der digitalen Transformation. Er hat mehr als 700 Artikel auf InfoWorld.com, CIO.com, seinem Blog Social, Agile, and Transformation und anderen Websites veröffentlicht.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*