Wie Open Source alles verändert hat (schon wieder)

Wir lassen die größten Open-Source-Innovationen des Jahrzehnts, von Git und Docker über Data Science bis hin zu Cloud, Revue passieren. [...]

Open Source ist ein wichtiger Bestandteil der Unternehmensentwicklung geworden, aber wir haben noch einen langen Weg vor uns (c) Pixabay.com

Wir sind dabei, ein weiteres Jahrzehnt mit Open Source abzuschließen, und was für eine lange, seltsame Reise das war! Wenn man sich die Vorhersagen von 2009 ansieht, hatte niemand die geringste Ahnung, dass GitHub die Softwareentwicklung für immer (und für alle) verändern würde, oder dass Microsoft vom Open-Source-Pariah zum größten Beitragszahler der Welt übergehen würde, oder eine Vielzahl anderer dramatischer Veränderungen, die während eines Jahrzehnts, das alles andere als normal war, zum neuen Standard wurden.

Mit dem Abschluss des Jahrzehnts sind wir jetzt alle Open Sourcer. Lassen Sie uns auf einige der wichtigsten Open-Source-Innovationen zurückblicken, die uns bis hierher geführt haben.

Eine wolkige Zukunft

Open Source machte natürlich schon vor 2010 Schlagzeilen, doch ein Großteil der Open-Source-Nachrichten damals bestand aus „Free Software“ vs. „Open Source“ Religionskriegen und Klagen gegen Linux. Um Open-Source-Software auszuführen, riefen Sie immer noch die IT-Abteilung an, damit sie die Server bereitstellen konnte (oder ein Ersatzteil, das gerade unter Ihrem Schreibtisch lag, verwenden konnte). Die Cloud hat das alles verändert. Plötzlich mussten die Entwickler keinen Passierschein mehr von der IT bekommen, um ihren Open-Source-Code auszuführen. So wie Open Source die Entwickler von der Kauf-/Rechtsgenehmigung befreit hat, so hat auch die Cloud die Entwickler frei von der Reibung, die der Hardware innewohnt, erschüttert.

Die Cloud war jedoch nur der Auslöser. Wie Corey Quinn betont, ist die Infrastruktur selbst zu „Open Source“ geworden, jedoch nicht etwa, weil die Clouds selbst unter einer Open-Source-Lizenz verfügbar sind: „Es läuft auf Clouds, aber ich kann mir einen Terraform-Plan oder eine Serverless-Konfiguration von GitHub besorgen und habe eine Sache am Laufen, um sie praktisch sofort auszutesten“. Open-Source-Lizenzierung und swipe-and-go-Zugriff auf Cloud-Hardware haben die Entwicklerproduktivität auf eine Weise erschlossen, die Anfang 2010 vielleicht nur schwach sichtbar war (AWS wurde schließlich 2006 gestartet), aber erst weit in das Jahrzehnt hinein realisiert wurde.

Es ist eigentlich nur Git

„Das Beste, was Open Source in den letzten zehn Jahren passiert ist, ist die Einführung der Pull-Anfrage durch GitHub“, erklärt Tobie Langel. Ermöglicht durch die Cloud, fährt er fort: „GitHub verschaffte Open Source Aufmerksamkeit und senkte das Wettbewerbsumfeld für die Zusammenarbeit um eine Größenordnung“. Diese Zusammenarbeit war immer das Herzstück des Open-Source-Versprechens, aber erst als GitHub den sozialen Aspekt der Programmierung freischaltete, wurde sie Realität.

Wie vvvvv: „Wir hatten schon früher die Versionskontrolle, aber GitHub/Lab machte es jedem wirklich leicht, Code zu verteilen, Dinge auszuprobieren und Ideen einzubringen. Kommentare, Probleme, Genehmigungen – es hat wirklich das Versprechen eingehalten, dass der Code geöffnet wird.“ Git wurde nicht erst in den letzten zehn Jahren geboren, aber wie die Cloud boomte es erst in den 2010er Jahren wirklich.

Docker und die Container-Revolution

Wie Versionskontrolle und Git wurden Container nach 2010 nicht neu geprägt. Tatsächlich entstand die Idee für Container erstmals 1979 mit Chroot (obwohl die Samen sogar noch früher gepflanzt wurden). Aber es war Docker, wie Steven Vaughan-Nichols behauptet, der Container wirklich zum Leben erweckte: „Docker, oder genauer gesagt… Docker tech verwandelte Container von einer obskuren Technologie zur Grundlage für den heutigen Softwarekonsum. Es hat alles verändert.“

Alles? Nun, ja, zumindest für die Entwicklung von Unternehmensanwendungen, und das nicht, weil es eine coole neue Art ist, über Virtualisierung nachzudenken. Wie Gordon Haff erklärt, waren „Pre-Docker/Kubernetes-Container nur eine weitere Partitionstechnik“. Die eigentliche Magie begann, als Docker die Entwickler-Erfahrung auf den Punkt brachte, und von dort aus, fährt er fort, „kam es zu einem Schneeballeffekt“, was zu einer vollständigen Neuentwicklung der CI/CD-Pipeline und vielem mehr führte. Vor einem Jahrzehnt hatte noch niemand von Docker und Kubernetes gehört. Letzten Monat kamen mehr als 13.000 Besucher zur KubeCon 2019, um diese moderne Anwendungsmöglichkeit zu erkunden, an deren Entwicklung Docker beteiligt war.

Die Datenwissenschaft wird zum Mainstream

Große Datenmengen waren schon immer eher ein Traum für „den Rest von uns“ (d.h. Unternehmen, die nicht Google sind), und vor 2010 hatten wir ernsthafte Mühe, sie zu verwirklichen. Wir haben Data Marts seit den 1970er Jahren, Business Intelligence kam etwas später, und haben 2005 sogar Roger Magoulas den Begriff „Big Data“ prägen sehen. Aber keiner von ihnen ahnte wirklich, wie groß diese Daten sein und wie entscheidend sie werden würden, bis weit in das Jahrzehnt hinein, in dem Apache Hadoop (gegründet 2008) zu seinem Vorteil kam und dann schnell durch eine Welle von NoSQL-Datenbanken und anderen Open-Source-Infrastrukturen ersetzt wurde.

Die Infrastruktur zur Speicherung und Übertragung großer Datenmengen ist heute meist Open Source. Ob moderne Datenbanken wie MongoDB, die die Arbeit mit unstrukturierten Daten erleichtern, oder die verschiedenen Tools wie Apache Kafka, mit denen Daten bewegt werden, Open Source hat moderne Datenwissenschaft ermöglicht, und das alles ist in den letzten 10 Jahren passiert.

Darüber hinaus sind die Werkzeuge, mit denen wir Daten analysieren, zunehmend Open Source. Tatsächlich war ein Großteil der Tools (wie TensorFlow) vom ersten Tag an Open Source und nicht mehr der Ave Mary!-Pass eines proprietären Anbieters, der versucht, das verblassende Vermögen seines einst geliebten Datenanalysetools wiederherzustellen. Numpy und Scikit-Learn sind „allgegenwärtig“ geworden“, bemerkt Python-Experte Matt Harrison. Beide existierten 2010 nicht. Open Source war von zentraler Bedeutung, um diese Welt wachsen zu lassen, wie Jacob Redding anführt: „Die Datenwissenschaft wäre ohne Pandas, Scikit, Jupyter und die ganze Welt von R nicht so groß wie sie jetzt ist.“ Alle von ihnen sind Open Source, natürlich, was die Messlatte für jeden, der die neue Technologie ausprobieren will, höher legt.

Open-Source-Programmiersprachen

Erinnern Sie sich noch daran, als Programmiersprachen geschlossen waren? Das letzte Jahrzehnt scheint die Tür zu dieser Ära für immer verschlossen zu haben, wobei sogar Apple letztendlich der Open-Source-Bewegung erliegt und Swift als Open Source herausbringt. Gleichzeitig kam (und ging) eine Vielzahl von JavaScript-Frameworks (Node.js, Angular, React, Vue, etc.) in einer wütend fruchtbaren Zeit der Sprach- und Frameworkinnovation. In der Tat, neben dieser Welt von JavaScript-Frameworks (die größer wird als die Browser, für die sie einst gedacht waren, wie Alberto Ruiz andeutet), sahen wir auch eine Schar neuer, untergeordneter Sprachen entstehen, wie Go, Rust und WebAssembly.

Während der „weitere Marsch“ Javas in Richtung Open Source vor 2010 begann, stellte Rich Sharples fest, dass in den letzten zehn Jahren der Schub an Dynamik gewonnen hat, wobei die OpenJDK-Implementierung von Java der Sprache immer wieder neues Leben einhauchte. Mit Blick auf die Zukunft wird die bevorstehende höchstrichterliche Überprüfung von Google vs. Oracle, wie Danese Cooper betont, jedoch monumentale Auswirkungen haben, so groß wie die Bedrohung durch SCO damals (über die Zukunft von Linux). Es geht natürlich um die Urheberrechte von APIs, aber auch um die Zukunft von Java. Bleiben Sie dran.

Curveball des Jahrzehnts

Interessanterweise ist Microsoft in fast allen diesen Bereichen tätig, aber Microsoft begann das Jahrzehnt unter Steve Ballmer und kämpft immer noch einen nicht so guten Kampf gegen Open Source. Nun steht 2020 vor der Tür, und „die Microsoft-Mutation vom heftigsten Anti-Open-Source-Anwalt („Open Source ist ein Krebs!“) zu einem der größten Beitragszahler“ stellt eine massive Veränderung dar, wie Benoit Jacquemont feststellt. Heute verwenden viele Entwickler Open Source Visual Studio Code als Code-Editor, Open Source TypeScript zum Erstellen von Webanwendungen und GitHub zum Speichern ihres Codes. Microsoft ist jeweils der Eigentümer.

Was vielleicht ein geeigneter Zeitpunkt ist, um damit zu enden. In diesem Jahrzehnt ist so viel passiert (und wir haben noch nicht einmal darüber gesprochen, wie Open-Source-Android einen Großteil des Mobiltelefons antreibt, oder über die Auswirkungen von Let’s Encrypt auf die Zertifizierungsstellenindustrie, oder wie Open Source an der Spitze des maschinellen Lernens steht, usw.), und doch haben wir noch einen langen Weg vor uns. Die Metamorphose von Microsoft erinnert uns daran, dass sich Organisationen und Branchen verändern können und dass es in unserem eigenen Interesse liegt, Open Source zu nutzen. Angesichts der Unvorhersehbarkeit des letzten Jahrzehnts wage ich es nicht, die nächsten 10 Jahre vorherzusagen, außer zu behaupten, dass es zwangsläufig noch viel mehr Open Source beinhalten wird.

*Matt Asay schreibt unter anderem für InfoWorld.com


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Alexander Graf ist Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH. (c) Antares-NetlogiX Netzwerkberatung GmbH
Interview

Absicherung kritischer Infrastrukturen

NIS2 steht vor der Tür – höchste Zeit, entsprechende Maßnahmen auch im Bereich der Operational Technology (OT) zu ergreifen. »Wenn man OT SIEM richtig nutzt, sichert es kritische Infrastrukturen verlässlich ab«, sagt Alexander Graf, Experte für OT-Security (COSP) und Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH, im ITWelt.at-Interview. […]

Brian Wrozek, Principal Analyst bei Forrester (c) Forrester
Interview

Cybersicherheit in der Ära von KI und Cloud

Die Bedrohungslandschaft im Bereich der Cybersicherheit hat sich zu einer unbeständigen Mischung von Bedrohungen entwickelt, die durch zunehmende Unsicherheit und steigende Komplexität bedingt ist. Zu diesem Schluss kommt der Report »Top Cyber-security Threats In 2024« von Forrester. ITWelt.at hat dazu mit Studienautor Brian Wrozek ein Interview geführt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*