Die Trends von heute als Alltag von morgen

Beim diesjährigen Zürcher Netzwerktreffen des Future Network an der Universität Zürich diskutierten Branchenvertreter und Wissenschaftler über IT-Trends. Die Themen spannten sich von Big Data über Smart Grid bis zu einem neuen Umgang mit Dokumenten.ftsforscher zu sein ist keine leichte Aufgabe. Sich im IT-Umfeld zu betätigen und auf die nächsten zehn Jahre blicken, klingt fast unmöglich. IBM versucht es mit dem GTO seit 1982. [...]

Das Zürcher Netzwerktreffen von Future Network in Zusammenarbeit mit CON.ECT Eventmanagement und der Schweizer Informatikgesellschaft, das heuer am 10. September 2013 an der Universität Zürich stattgefunden hat, ist seit einigen Jahren ein Fixpunkt für internationale IT-Experten.

Wie schon bei den Netzwerktreffen in den Jahren zuvor, hat der bekannt IBM-Zukunftsforscher Moshe Rappoport einen Einblick in den aktuellen Global Technology Outlook (GTO) von IBM gegeben, der bereits seit 1982 die wichtigsten Technologietrends der kommenden drei bis zehn Jahre beschreibt. Die Basis des GTO bilden Beiträge von Experten von IBM Research, die über mehrere Monate hinweg in enger Zusammenarbeit mit anderen Bereichen der Corporation Themen und Trends aus den vorangegangenen Studien analysieren, diskutieren, fortschreiben oder gegebenenfalls verwerfen. Außer Frage steht für den IBM-Trendforscher, dass »Mobile First« die kommenden Jahre der Business-Welt nachhaltig prägen wird.

MOBILITY ALS HERAUSFORDERUNG
»Bisher wurden Programme für den Desktop meistens nachträglich für mobile Geräte adaptiert, damit man als Unternehmen cool ist und zeigen kann, man geht mit der Zeit. In Zukunft wird es genau umgekehrt sein: Handys oder Tablets ­werden die wichtigsten Geräte für die Nutzung von Internet und Services sein. Entsprechende Programme müssen folglich von vornherein genau auf die mobile Nutzung zugeschnitten sein«, erklärte Rappoport.

Als Herausforderung gelten dabei die ­kleine Benutzeroberfläche und die sehr geringe Aufmerksamkeitsspanne, mit denen Apps von Usern, sowohl im privaten als auch im beruflichen Umfeld, bedacht werden. Studien zufolge würden Nutzer durchschnittlich in gerade einmal 84 Sekunden nach Download einer App entscheiden, ob sie diese verwenden oder wieder löschen würden. Anbieter und Programmierer müssen darauf Rücksicht nehmen.

SOFTWARE DEFINED ENVIRONMENTS
Als weiteren Trend sieht der GTO 2013 »Software Defined Environments«. Das Zeitalter, in denen jede Firma eigene und meist ineffiziente und sicherheitstechnisch anfällige IT-Center aufbaut, ist laut Rappoport definitiv vorbei. Fluktuationen im Business-Umfeld , die Anbindung von ­internen und externen Datenpools über entsprechende API sowie komplexe Interaktionsszenarien mithilfe von unterschiedlichsten Geräten würde die Optimierung von IT-Prozessen zu komplex für eine laufende Anpassung durch Menschen machen, so der unbarmherzige Schluss des Reports.

Um alle IT-bezogenen Komponenten von Hardware bis Software, Datenzugriffe, verwendete Zugriffsgeräte von Kunden, seien es Cloud-, Daten- oder API-Zugriffe, zu berücksichtigen, müsse entsprechende Software eingesetzt werden, die den Betrieb pro Kunde und pro Transaktion praktisch im Sekundentakt selbständig anpassen könne.

CONTEXTUAL COMPUTING
Neben dem Thema des »Contextual Computing«, das über lernende Systeme und Algorithmen Kunden in Zukunft mit maßgeschneiderten Services versorgen kann, unterstrich Rappoport auch die wachsende Bedeutung von »Personalised Education«. Das Konzept, dass Schüler in einem Klassenraum sitzen und einem vorne ­stehenden Lehrer folgen, existiere seit mehreren hundert Jahren. Das Problem, dass verschiedene Leute Inhalte auf unterschiedliche Weise aufnehmen und verarbeiten, sei weiterhin ungelöst.

Angesichts der Tatsache, dass die Menschen heute ein Leben lang lernen müssten, auch um im Job erfolgreich zu bleiben, sind maßgeschneiderte Ausbildungsangebote gefordert. Analysetools, welche den Wissensstand, die Bedürfnisse, aber auch die Vorliebe von Menschen berücksichtigen, könnten in Verbindung mit online verfügbaren Lehrangeboten und Universitätskursen für smarte Bildungsmöglichkeiten sorgen.

»Ich verstehe unter Contextual Computing auch Instrumente, die für einzelne Ausbildungsteilnehmer auf individueller Basis Schulungsinhalte, Betreuung, usw. gestalten«, erklärt Michael Kornfeld, Mitbegründer und Trainer beim Online-Marketing-Forum.at und Inhaber derAgentur str-act für interaktives Marketing, gegenüber der COMPUTERWELT. Seiner Ansicht nach steckt das Thema derzeit aber noch völlig in den Kinderschuhen. »Das wird meiner Meinung nach auch noch ein Weilchen so bleiben,« erklärt Kornfeld.

BUSINESS CASES FÜR SMART GRID
Die intelligente und wirtschaftlich nachhaltige Stromversorgung der Zukunft sorgt in Europa und der ganzen Welt weiterhin für Diskussionen. Bernhard Hämmerli, Präsident der Schweizer Informatikgesellschaft, hat einmal mehr einen kritischen Blick auf die Versprechungen von Anbietern und Politik geworfen, die durch die geplante Einführung von Smart-Metering- und Smart-Grid-Systemen erreicht werden sollen. So stellte Hämmerli unter anderem die Sinnhaftigkeit in Frage, jedes Haus mit einem Smart Meter auszustatten, der noch dazu über ein zentral verwaltetes System gesteuert werde.

Dass Strom durch so ein System billiger werde, sei nicht zu erwarten – im Gegenteil. Als Alternative, die derzeit leider kaum diskutiert werde, zeichnete Hämmerli Vorteile von lokalem Energiemanagement auf. Hierbei könnte über ein relativ simples Computersystem gesteuert werden, welche Geräte wieviel Energie brauchen dürfen und welche Priorisierung dafür veranschlagt wird. In seinem Vortrag warf Hämmerli auch einen kritischen Blick auf die derzeitige Wirtschaftlichkeit von nachhaltigen Energien. Wenn dadurch – wie in Deutschland – der Strompreis steige, könne das eine Abwanderungsgefahr von ­Unternehmen nach sich ziehen. Die USA sei mit ihrer Energiepolitik und den daraus resultierenden geringeren Preisen klar im Vorteil.

WIRTSCHAFTSKRIMINALITÄT
In einem vielbeachteten Vortrag thematisierte Andrea Galli vom privaten Nachrichtendienst Scalaris eci die Gefahr für Konzerne durch manipulierte Daten. Er kritisierte, dass die Sicherheitsindustrie, aber auch externe Audit-Unternehmen ihren Fokus viel zu stark auf Cyberkriminalität und das Aufziehen von Sicherheitsmauern von Unternehmen setzen. »Der größte Schaden entsteht nicht durch entwendete Daten, sondern durch Daten, die von vornherein manipuliert wurden, um Konzerne oder ganze Staaten zu täuschen.«

Galli schätzt den durch die Manipulation von Daten entstehenden Schaden auf 15.000 Milliarden Dollar jährlich. Dazu zählt er etwa Geldwäscherei, die durch das Vorspiegeln falscher Tatsachen und das Tarnen von Identitäten oftmals ohne Wissen involvierter Unternehmen passiere, wie auch den Betrug und Börsengeschäfte durch manipulierte Informationen. Cyberkriminalität sei im Gegensatz gerade einmal für ein Prozent dieser Schadenssumme verantwortlich – und selbst organisierte Kriminalität wie Drogenhandel und Schlepperei mache nur etwa einen Zehntel des genannten Betrags aus.
Eine Festung zu bauen, wie es viele Unternehmen derzeit machen, habe schon im Mittelalter nicht immer geholfen. Vielmehr sollten Firmen bei ihren Geschäften genau prüfen, ob sie den vorhandenen ­Informationen und damit dem Geschäftspartner trauen können. Mit entsprechenden Maßnahmen könne viel mehr finanzieller wie auch ein potenzieller Imageschaden abgewendet werden, als sich über entsprechende Security-Lösungen in falscher Sicherheit zu wiegen.

INTELLIGENTE BIG DATA-ANALYSE
Jana Koehler von der Hochschule Luzern widmete ihren Beitrag notwendigen intelligenten Analyseverfahren, um im Big-Data-Zeitalter mit all seinen Herausforderungen die richtigen Entscheidungen treffen zu können. Vor allem kleinere Unternehmen, aber selbst Konzerne hätten damit zu kämpfen, aus den riesigen Volumina und den unterschiedlichen Datenquellen, die für Big Data herangezogen werden, sowie der unklaren Qualität und Zuverlässigkeit der Datenquellen die richtigen Schlüsse zu ziehen.

Über entsprechende Tools könnten Entscheidungsprozesse beschleunigt und teilweise automatisiert werden. Dass diese Automatisierung aber ebenfalls mit Vorsicht zu genießen ist, machte Koehler in ihrem Vortrag deutlich. Neben der Gefahr, die falschen Schlüsse aus dem Datenmaterial zu ziehen, stelle Big Data aber vor allem auch die IT Security auf eine neue Probe. Unternehmen, die in das Big-Data-Zeitalter einsteigen wollen, rät Koehler, »im Kleinen zu denken«, sich über die für die Analyse vorgesehenen Inhalte und Daten klarzuwerden, die wichtigsten Wertschöpfungsszenarien auszumachen und vor allem sich gut mit der Technologie dahinter auseinanderzusetzen.

Der erprobte Zürich-Referent Clemens Cap von der Universität Rostock befasste sich in seinem diesjährigen Vortrag mit neuen Ansätzen, um das Erstellen und Verwalten von Dokumenten im digitalen Zeitalter einfacher und effizienter gestalten zu können. Der etablierte IT-Begriff Dokument sei immer noch sehr stark von seiner Papier-Tradition geprägt, stark verdinglicht, an einen Ort und eine Person gebunden und werde analog zum Papier-Dokument maximal kopiert, um in einer zweiten Version existieren zu können.

DYNAMISCH FÖDERATIVE DOKUMENTE
In der Praxis und wie bei Kollaborations-Tools schon ersichtlich, würden meist aber mehrere User an der Erstellung und der Bearbeitung eines Dokuments beteiligt sein – mit all den Herausforderungen hinsichtlich Vertraulichkeit und Sicherheit, Speicherhoheit und Verfügbarkeit sowie der Sichtbarkeit von Annotationen. Cap arbeitet mit Studierenden in Rostock daher an einer Lösung, wie das digitale Dokument der Zukunft konzipiert sein könnte.

Auch wenn viele Teilszenarien erst genau erörtert und erprobt werden müssen, steht für Cap fest, dass Dokumente zukünftig föderativ und gleichzeitig dynamisch funktionieren sollten. Nicht die Abspeicherung als ganzheitliche Einheit an einem bestimmten Ort, sondern die Zusammensetzung aus unterschiedlich vielen Bestandteilen, die beliebig für Konstruktionen ex- und importiert werden können, könnte bei einer derartigen Betrachtungsweise auf das Dokument der Zukunft im Vordergrund stehen.

ISO 20022, CMS, CLOUD
Abgerundet wurde der Konferenztag mit einem Vortrag von Carsten Miehling vom Unternehmen Recon IT Services, der die Herausforderungen für die Schweizer ­Finanzindustrie durch die Anpassung an die Single Euro Payments Area (SEPA) der Europäischen Union aufzeigte. So sollen in den kommenden Jahren alle elektronischen Meldungen für Zahlungs- und Lastschriftaufträge der europäischen Standard-Ausprägung angepasst werden. Als Leitfaden dient das Projekt »Migration Zahlungsverkehr Schweiz«, das auf dem ISO-Standard 20022 aufbaut. Weitere Konferenzbeiträge wurden von Bernhard Burger von UC4 Software gestaltet, der einen Überblick über die Vorteile und Herausforderungen für eine Ausrichtung von Enterprises in Richtung Cloud gab, sowie von Clemens Prerovsky vom Unternehmen Gentics, der sich mit der nächsten Generation von CMS-Systemen und dem Vorteil von API-basierendem Content Management auseinandergesetzt hat.

Als Eventpartner der 7. Zürcher Konferenz fungierten neben dem Institut für Informatik der Universität Zürich das Austrian Institute of Technology (AIT), die Schweizer Informatikgesellschaft und die Universität Rostock, CON.ECT Eventmanagement und das Software Competence Center Hagenberg.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*