Wie Open Source alles verändert hat (schon wieder)

Wir lassen die größten Open-Source-Innovationen des Jahrzehnts, von Git und Docker über Data Science bis hin zu Cloud, Revue passieren. [...]

Open Source ist ein wichtiger Bestandteil der Unternehmensentwicklung geworden, aber wir haben noch einen langen Weg vor uns (c) Pixabay.com

Wir sind dabei, ein weiteres Jahrzehnt mit Open Source abzuschließen, und was für eine lange, seltsame Reise das war! Wenn man sich die Vorhersagen von 2009 ansieht, hatte niemand die geringste Ahnung, dass GitHub die Softwareentwicklung für immer (und für alle) verändern würde, oder dass Microsoft vom Open-Source-Pariah zum größten Beitragszahler der Welt übergehen würde, oder eine Vielzahl anderer dramatischer Veränderungen, die während eines Jahrzehnts, das alles andere als normal war, zum neuen Standard wurden.

Mit dem Abschluss des Jahrzehnts sind wir jetzt alle Open Sourcer. Lassen Sie uns auf einige der wichtigsten Open-Source-Innovationen zurückblicken, die uns bis hierher geführt haben.

Eine wolkige Zukunft

Open Source machte natürlich schon vor 2010 Schlagzeilen, doch ein Großteil der Open-Source-Nachrichten damals bestand aus „Free Software“ vs. „Open Source“ Religionskriegen und Klagen gegen Linux. Um Open-Source-Software auszuführen, riefen Sie immer noch die IT-Abteilung an, damit sie die Server bereitstellen konnte (oder ein Ersatzteil, das gerade unter Ihrem Schreibtisch lag, verwenden konnte). Die Cloud hat das alles verändert. Plötzlich mussten die Entwickler keinen Passierschein mehr von der IT bekommen, um ihren Open-Source-Code auszuführen. So wie Open Source die Entwickler von der Kauf-/Rechtsgenehmigung befreit hat, so hat auch die Cloud die Entwickler frei von der Reibung, die der Hardware innewohnt, erschüttert.

Die Cloud war jedoch nur der Auslöser. Wie Corey Quinn betont, ist die Infrastruktur selbst zu „Open Source“ geworden, jedoch nicht etwa, weil die Clouds selbst unter einer Open-Source-Lizenz verfügbar sind: „Es läuft auf Clouds, aber ich kann mir einen Terraform-Plan oder eine Serverless-Konfiguration von GitHub besorgen und habe eine Sache am Laufen, um sie praktisch sofort auszutesten“. Open-Source-Lizenzierung und swipe-and-go-Zugriff auf Cloud-Hardware haben die Entwicklerproduktivität auf eine Weise erschlossen, die Anfang 2010 vielleicht nur schwach sichtbar war (AWS wurde schließlich 2006 gestartet), aber erst weit in das Jahrzehnt hinein realisiert wurde.

Es ist eigentlich nur Git

„Das Beste, was Open Source in den letzten zehn Jahren passiert ist, ist die Einführung der Pull-Anfrage durch GitHub“, erklärt Tobie Langel. Ermöglicht durch die Cloud, fährt er fort: „GitHub verschaffte Open Source Aufmerksamkeit und senkte das Wettbewerbsumfeld für die Zusammenarbeit um eine Größenordnung“. Diese Zusammenarbeit war immer das Herzstück des Open-Source-Versprechens, aber erst als GitHub den sozialen Aspekt der Programmierung freischaltete, wurde sie Realität.

Wie vvvvv: „Wir hatten schon früher die Versionskontrolle, aber GitHub/Lab machte es jedem wirklich leicht, Code zu verteilen, Dinge auszuprobieren und Ideen einzubringen. Kommentare, Probleme, Genehmigungen – es hat wirklich das Versprechen eingehalten, dass der Code geöffnet wird.“ Git wurde nicht erst in den letzten zehn Jahren geboren, aber wie die Cloud boomte es erst in den 2010er Jahren wirklich.

Docker und die Container-Revolution

Wie Versionskontrolle und Git wurden Container nach 2010 nicht neu geprägt. Tatsächlich entstand die Idee für Container erstmals 1979 mit Chroot (obwohl die Samen sogar noch früher gepflanzt wurden). Aber es war Docker, wie Steven Vaughan-Nichols behauptet, der Container wirklich zum Leben erweckte: „Docker, oder genauer gesagt… Docker tech verwandelte Container von einer obskuren Technologie zur Grundlage für den heutigen Softwarekonsum. Es hat alles verändert.“

Alles? Nun, ja, zumindest für die Entwicklung von Unternehmensanwendungen, und das nicht, weil es eine coole neue Art ist, über Virtualisierung nachzudenken. Wie Gordon Haff erklärt, waren „Pre-Docker/Kubernetes-Container nur eine weitere Partitionstechnik“. Die eigentliche Magie begann, als Docker die Entwickler-Erfahrung auf den Punkt brachte, und von dort aus, fährt er fort, „kam es zu einem Schneeballeffekt“, was zu einer vollständigen Neuentwicklung der CI/CD-Pipeline und vielem mehr führte. Vor einem Jahrzehnt hatte noch niemand von Docker und Kubernetes gehört. Letzten Monat kamen mehr als 13.000 Besucher zur KubeCon 2019, um diese moderne Anwendungsmöglichkeit zu erkunden, an deren Entwicklung Docker beteiligt war.

Die Datenwissenschaft wird zum Mainstream

Große Datenmengen waren schon immer eher ein Traum für „den Rest von uns“ (d.h. Unternehmen, die nicht Google sind), und vor 2010 hatten wir ernsthafte Mühe, sie zu verwirklichen. Wir haben Data Marts seit den 1970er Jahren, Business Intelligence kam etwas später, und haben 2005 sogar Roger Magoulas den Begriff „Big Data“ prägen sehen. Aber keiner von ihnen ahnte wirklich, wie groß diese Daten sein und wie entscheidend sie werden würden, bis weit in das Jahrzehnt hinein, in dem Apache Hadoop (gegründet 2008) zu seinem Vorteil kam und dann schnell durch eine Welle von NoSQL-Datenbanken und anderen Open-Source-Infrastrukturen ersetzt wurde.

Die Infrastruktur zur Speicherung und Übertragung großer Datenmengen ist heute meist Open Source. Ob moderne Datenbanken wie MongoDB, die die Arbeit mit unstrukturierten Daten erleichtern, oder die verschiedenen Tools wie Apache Kafka, mit denen Daten bewegt werden, Open Source hat moderne Datenwissenschaft ermöglicht, und das alles ist in den letzten 10 Jahren passiert.

Darüber hinaus sind die Werkzeuge, mit denen wir Daten analysieren, zunehmend Open Source. Tatsächlich war ein Großteil der Tools (wie TensorFlow) vom ersten Tag an Open Source und nicht mehr der Ave Mary!-Pass eines proprietären Anbieters, der versucht, das verblassende Vermögen seines einst geliebten Datenanalysetools wiederherzustellen. Numpy und Scikit-Learn sind „allgegenwärtig“ geworden“, bemerkt Python-Experte Matt Harrison. Beide existierten 2010 nicht. Open Source war von zentraler Bedeutung, um diese Welt wachsen zu lassen, wie Jacob Redding anführt: „Die Datenwissenschaft wäre ohne Pandas, Scikit, Jupyter und die ganze Welt von R nicht so groß wie sie jetzt ist.“ Alle von ihnen sind Open Source, natürlich, was die Messlatte für jeden, der die neue Technologie ausprobieren will, höher legt.

Open-Source-Programmiersprachen

Erinnern Sie sich noch daran, als Programmiersprachen geschlossen waren? Das letzte Jahrzehnt scheint die Tür zu dieser Ära für immer verschlossen zu haben, wobei sogar Apple letztendlich der Open-Source-Bewegung erliegt und Swift als Open Source herausbringt. Gleichzeitig kam (und ging) eine Vielzahl von JavaScript-Frameworks (Node.js, Angular, React, Vue, etc.) in einer wütend fruchtbaren Zeit der Sprach- und Frameworkinnovation. In der Tat, neben dieser Welt von JavaScript-Frameworks (die größer wird als die Browser, für die sie einst gedacht waren, wie Alberto Ruiz andeutet), sahen wir auch eine Schar neuer, untergeordneter Sprachen entstehen, wie Go, Rust und WebAssembly.

Während der „weitere Marsch“ Javas in Richtung Open Source vor 2010 begann, stellte Rich Sharples fest, dass in den letzten zehn Jahren der Schub an Dynamik gewonnen hat, wobei die OpenJDK-Implementierung von Java der Sprache immer wieder neues Leben einhauchte. Mit Blick auf die Zukunft wird die bevorstehende höchstrichterliche Überprüfung von Google vs. Oracle, wie Danese Cooper betont, jedoch monumentale Auswirkungen haben, so groß wie die Bedrohung durch SCO damals (über die Zukunft von Linux). Es geht natürlich um die Urheberrechte von APIs, aber auch um die Zukunft von Java. Bleiben Sie dran.

Curveball des Jahrzehnts

Interessanterweise ist Microsoft in fast allen diesen Bereichen tätig, aber Microsoft begann das Jahrzehnt unter Steve Ballmer und kämpft immer noch einen nicht so guten Kampf gegen Open Source. Nun steht 2020 vor der Tür, und „die Microsoft-Mutation vom heftigsten Anti-Open-Source-Anwalt („Open Source ist ein Krebs!“) zu einem der größten Beitragszahler“ stellt eine massive Veränderung dar, wie Benoit Jacquemont feststellt. Heute verwenden viele Entwickler Open Source Visual Studio Code als Code-Editor, Open Source TypeScript zum Erstellen von Webanwendungen und GitHub zum Speichern ihres Codes. Microsoft ist jeweils der Eigentümer.

Was vielleicht ein geeigneter Zeitpunkt ist, um damit zu enden. In diesem Jahrzehnt ist so viel passiert (und wir haben noch nicht einmal darüber gesprochen, wie Open-Source-Android einen Großteil des Mobiltelefons antreibt, oder über die Auswirkungen von Let’s Encrypt auf die Zertifizierungsstellenindustrie, oder wie Open Source an der Spitze des maschinellen Lernens steht, usw.), und doch haben wir noch einen langen Weg vor uns. Die Metamorphose von Microsoft erinnert uns daran, dass sich Organisationen und Branchen verändern können und dass es in unserem eigenen Interesse liegt, Open Source zu nutzen. Angesichts der Unvorhersehbarkeit des letzten Jahrzehnts wage ich es nicht, die nächsten 10 Jahre vorherzusagen, außer zu behaupten, dass es zwangsläufig noch viel mehr Open Source beinhalten wird.

*Matt Asay schreibt unter anderem für InfoWorld.com


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*