Neues europaweites Big-Data-Netzwerk

Die nationalen Hotspots im Bereich der Big-Data-Forschung haben mit dem neuen "European Network of National Big Data Centers of Excellence" (CoE) eine gemeinsame Plattform geschaffen. Eine intelligente Daten- Visualisierung zeigt die Kompetenzen und die geografische Verteilung in Europa. Federführend hinter dem Netzwerk steht das Grazer Know-Center, gemeinsam mit der TU Berlin. [...]

„Durch die bessere Vernetzung können wir Synergien bündeln und den Wissenstransfer in der Praxis noch besser vorantreiben. Big Data kann dadurch von den Unternehmen noch stärker als Wettbewerbsvorteil genutzt werden“, beschreibt Stefanie Lindstaedt, Geschäftsführerin des Know-Center und Institutsleiterin an der TU Graz, das neue „European Network of National Big Data Centers of Excellence“.
Es handelt sich dabei um eine Plattform der nationalen Hotspots in der Big-Data-Forschung in ganz Europa – bislang 55 Forschungseinrichtungen in 15 Ländern. Einen Überblick über die Kompetenzen und die geographische Verteilung der Zentren bietet die Daten-Visualisierung. Die Online-Präsenz befindet noch sich im Aufbau und wird sukzessive durch weitere Daten ergänzt. Ziel ist eine umfassende intelligente Kompetenzlandkarte des europäischen Big-Data-Netzwerkes.
„Es geht darum, die EU im Bereich Big Data konkurrenzfähiger zu machen, die digitale Transformation der Wirtschaft zu fördern und mithilfe von Big Data Lösungen zu finden, von denen die gesamte Gesellschaft profiziert“, sagt Martà Nagy-Rothengass, Head of Unit „Data Policy and Innovation in DG CONNECT“ in der Europäischen Kommission.
„Daten sind das Öl des 21. Jahrhunderts.“
„Daten sind eines der wichtigsten Güter des 21. Jahrhunderts und die Basis zahlreicher Innovationen“, sagt Michael Wiesmüller, Abteilungsleiter im Bundesministerium für Verkehr, Innovation und Technologie (bmvit). „Deshalb unterstützt das bmvit die Vernetzung von Wissen und den internationalen Austausch. Vernetzung ist entscheidend, um Anreize für öffentliches und privates Investment zu schaffen.“
Das erste Treffen der Netzwerkpartner fand im Oktober 2016 auf der i-Know Data driven Future Konferenz in Graz statt und wurde genutzt, um die größten Potenziale und Herausforderung zu definieren: den Wissenstransfer von Forschungszentren bzw. Universitäten in die Praxis. Volker Markl von der TU Berlin. „Die Lücke zwischen Wissenschaft und Wirtschaft zu schließen ist essentiell, aber auch die größte Herausforderung.“ Auch bestehe, was Generierung von Geschäftsmodellen aus Big Data betrifft, ein Ungleichgewicht zwischen USA und Europa – und akuter Handlungsbedarf: „Wenn Daten das neue Öl sind, müssen wir sicherstellen, dass auch Europa ein bisschen Öl hat“, verweist Lindstaedt auf große „Datensammler“ wie Google, Facebook und Amazon, die ihren Sitz alle in den USA haben.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*