Facebook, Twitter und Co: 5 Tipps zur Skalierung von Maschine Learning

Twitter und Facebook können uns viel über effektive künstliche Intelligenz beibringen. [...]

Nur etwa ein Drittel aller Unternehmen haben Machine Learning bereits in ihren Geschäftsablauf integriert. Facebook und Twitter sind mit ihrer Technologie dagegen schon recht weit voraus (c) Pixabay.com

Viele Unternehmen haben gerade erst begonnen, maschinelles Lernen einzusetzen, und nur insgesamt 37 Prozent der Unternehmen haben künstliche Intelligenz bereits implementiert; so zeigt eine kürzlich von Gartner durchgeführte Umfrage. Maschinelles Lernen entwickelt sich ständig weiter, mit neuen kommerziellen Durchbrüchen, wissenschaftlichen Fortschritten, Rahmenverbesserungen und bewährten Verfahren, über die immer häufiger berichtet wird.

Wir können viel von denjenigen Unternehmen lernen, die schon jetzt über umfangreiche Machine Learning Programme verfügen und künstliche Intelligenz als den Kern ihres Geschäfts betrachten. Auf der O’Reilly Artificial Intelligence Conference in New York im vergangenen Monat haben wir beispielsweise einige sich überschneidende Trends bei den Machine Learning-Programmen von Facebook und Twitter beobachten können.

Geschäftsbedürfnisse und Wettbewerbsfaktoren verstehen

Bei Facebook wird maschinelles Lernen in vielen Bereichen eingesetzt. Auf der Facebook-Startseite sucht es, übersetzt Sprachen, scannt den News-Feed, erkennt Gesichter in hochgeladenen Fotos und erkennt, welche Werbeanzeigen geschaltet werden. Hinter den Kulissen wird maschinelles Lernen zum Verständnis von Inhalten, zur Spracherkennung, zur Integrität von Inhalten, zur Stimmungsanalyse, zur Erkennung unerwünschter Inhalte und zur Erkennung betrügerischer Konten verwendet.

In ähnlicher Weise können Sie das maschinelle Lernen von Twitter bei der Tweet-Rangfolge, der Anzeigenauswahl, den Suchfunktionen und den Benutzerempfehlungen beobachten. Maschinelles Lernen wird auch dazu verwendet, missbräuchliche Tweets, Spam und Bilder zu kennzeichnen, die für die Arbeit nicht sicher sind.

Was weniger offensichtlich ist, ist der Umfang jedes maschinellen Lernvorgangs und wie die beiden Unternehmen in Differenzierungsfähigkeiten investieren.

Facebook führt für seine 2,6 Milliarden Nutzer pro Tag mehr als 200 Billionen Vorhersagen durch. Viele seiner Benutzer sind global, haben Bandbreitenbeschränkungen, und eine beträchtliche Anzahl der Interaktionen wird über Smartphones abgewickelt.

Dies stellt einige Herausforderungen dar, da 61 Prozent der weltweiten Mobilfunknutzer über ein Smartphone verfügen, das mindestens 6 Jahre oder sogar älter ist. Weniger als 10 Prozent der Benutzer nutzen wirklich die fortschrittlichsten und aktuellsten Smartphones. Ein Teil der Strategie von Facebook ist es, mehr neuronales Netzwerk-Computing auf Edge-Geräte zu verlagern, um die Skalierbarkeit zu steigern, die Latenz zu verringern und mehr personalisierte Machine-Learning-Modelle anzubieten. Der Machine-Learning-Technology-Stack von Facebook spiegelt seine Ziele wider, die Recherche nach neuen Modellen zu erleichtern, während Inferenz in großem Maßstab geliefert und einiges an Computing auf Edge-Geräten entlastet werden soll.

Twitter optimiert seine Modelle hinsichtlich Skalierungs- und Latenzanforderungen. Es führt mehrere zehn Millionen Vorhersagen pro Sekunde durch und trainiert einige Modelle mit mehreren zehn Terabyte pro Tag. Das Unternehmen konzentriert sich auf die Optimierung der Latenzzeit, die Zeit, die ein Modell für die Reaktion benötigt, und hat ein Latenzbudget für die Vorhersage von zehn Millisekunden definiert.

Standardisieren Sie Plattformen, um Skalierung voranzutreiben

Sowohl Facebook als auch Twitter hatten ihre Machine Learning Programme relativ früh. Sie begannen mit unstrukturierten Ansätzen, unternehmen nun jedoch Schritte zur Standardisierung ihrer Plattformen, Frameworks und Pipelines. Twitter zielt darauf ab, das Teilen von Modellen zu erleichtern, und die Doppelarbeit zu reduzieren. Facebook geht Problempunkte an, die sich auf Zuverlässigkeit, Skalierbarkeit, Effizienz beim Ausführen von Modellen und die Entwicklererfahrung seiner Wissenschaftler und Ingenieure beziehen.

Die Plattformen beider Unternehmen sind nach ähnlichen Prinzipien der Datenpipeline-Verarbeitung optimiert. In beiden Phasen werden Daten verarbeitet, Features extrahiert, Modelle trainiert und Modelle in Produktionsumgebungen bereitgestellt.

Die beiden Social-Media-Giganten unternehmen Schritte, um ausgewählte Frameworks fürs maschinelle Lernen zu standardisieren. Facebook nutzte PyTorch, um eine einfache Recherche zu ermöglichen, und Caffe2 ermöglichte es, Produktionsinferenzmodelle im großen Maßstab zu betreiben. Dies hat es zu PyTorch 1.0 konsolidiert, das beide Funktionen kombiniert, und es verwendet Caffe2Go, um seine mobilen neuronalen Netzwerke zu betreiben. Twitter verwendete eine Mischung aus Lua Torch, TensorFlow, Scikit, PyTorch sowie anderen Plattformen. Es wird jetzt auf Scalding, PySpark, Tensorflow und Apache Airflow standardisiert.

Die Zusammenarbeit von Wissenschaftlern, Entwicklern und Ingenieuren ermöglichen

Twitter und Facebook setzten einiges daran, die Produktivität, den Wissensaustausch und die Wiederverwendbarkeit von Code zwischen Datenwissenschaftlern, Entwicklern und Ingenieuren zu ermöglichen.

Viele Datenteams erstellen Datenkataloge und Wörterbücher als Teil ihrer Data-Governance-Programme. Diese Tools erleichtern es allen, die zugrunde liegenden Datenmodelle, Felddefinitionen und Qualitätseinschränkungen bei der Verwendung von Daten für Analysen oder maschinelles Lernen zu verstehen.

Twitter geht noch einen Schritt weiter, indem es die Features für maschinelle Lernexperimente standardisiert und in einem Feature-Store-Katalog erfasst. Dies reduziert Doppelarbeit und hilft Wissenschaftlern, neue Modelle mit weniger Aufwand für die Verarbeitung von Daten in Features zu trainieren.

Facebook katalogisiert und standardisiert außerdem seine Funktionen, automatisiert Schulungen und entwickelt Tools für die Verwaltung und Bereitstellung von Modellen. FBLearner ist hierbei seine Standardplattform zur Unterstützung dieser Funktionen.

Darüber hinaus standardisiert Facebook auch die verwendeten Arten des maschinellen Lernens. Beispielsweise verwenden Rankings für Newsfeeds, Anzeigen, Suche und Anomalieerkennung mehrschichtige Perzeptrone. Es verwendet auch konvolutionelle neuronale Netzwerke und supportet Vektormaschinen zur Gesichtserkennung und wiederkehrende neuronale Netzwerke zur Übersetzung von Sprache.

Automatisches kontinuierliches Training von Machine Learning-Modellen

Maschine Learning Modelle erfordern ebenso wie Softwareanwendungen ständiges Training und Modifikation. Sowohl Facebook als auch Twitter automatisieren dieses Training, sodass Modelle mit neuen Daten immer wieder von neuem abgestimmt werden.

Twitter erkannte, dass die zwanghafte Einführung von Modellen in die Produktion neue Anforderungen mit sich bringt, nach denen die Modelle an die neuesten Daten angepasst werden, und diese aktualisiert werden müssen, sobald ihre Datenwissenschaftler Modellverbesserungen entwickelt haben. Apache Airflow automatisiert dabei sowohl die Trainings- als auch die Implementierungspipelines.

Facebook war bei seinen Strategien sehr spezifisch. Häufig wechselnde Modelle wie News-Feeds werden stündlich oder in geringeren Abständen neu trainiert, während Sprachübersetzungs- und Gesichtserkennungsmodelle in einem Zyklus von Wochen bis Monaten trainiert werden.

Die Berechnungskosten und die Verfügbarkeit von Rechenressourcen sind auch Faktoren für Umtrainieren von derlei Modellen. Facebook hat hier möglicherweise einen strategischen Computing-Vorteil, da es Hardware-Stacks entwickelt hat, die speziell für verschiedene Arten von Machine Learning-Workloads optimiert wurden. Twitter konzentriert sich auf die Optimierung der Algorithmus-Leistung und das Planen von Trainingseinheiten außerhalb der Hauptverkehrszeiten, wenn die Rechenressourcen auf der ganzen Welt nicht voll ausgelastet sind.

Langfristig planen

Im Vergleich zu den meisten anderen Unternehmen sind Twitter und Facebook der Reifekurve bei der Anwendung und Skalierung von maschinellem Lernen weit voraus. Was jedoch können Sie aus ihrem Erfolg lernen?

Beginnen Sie mit kleinen Anstrengungen, beweisen Sie geschäftlichen Nutzen, indem Sie Modelle trainieren und in der Produktion einsetzen lassen, und steigern Sie dann ihre Bemühungen, diese Praktiken zu skalieren und weiterzuentwickeln. Reifungspraktiken erfordern ähnliche Disziplinen wie die Anwendungsentwicklung, einschließlich der Standardisierung von Frameworks, der Definition der Architektur, der Auswahl von Wartungszyklen, der Leistungsoptimierung und der Automatisierung der Implementierungspipelines.

Sie sehen: Maschinelles Lernen bring einen erheblichen Nutzen, aber es erfordert auch laufende Untersuchungen im Bereich Leistung und Investition, um weitere Verbesserungen vornehmen zu können. Modelle werden stetig trainiert, eingesetzt, optimiert und durch noch bessere Modelle ersetzt. Maschinelles Lernen ist ein neues Tool und Skillset gleichermaßen, und doch wird es für Unternehmen, die die Benutzererfahrung verbessern oder mit ihren Daten einen Wettbewerbsvorteil erzielen müssen, immer wichtiger.

*Isaac Sacolick ist der Autor von „Driving Digital: The Leader’s Guide to Business Transformation through Technology“, der viele Praktiken wie Agilität, Devops und Data Science abdeckt, die für erfolgreiche digitale Transformationsprogramme entscheidend sind. Sacolick ist ein anerkannter sozialer Top-CIO, ein langjähriger Blogger bei Social, Agile und Transformation und CIO.com sowie Präsident von StarCIO.


Mehr Artikel

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*