Besseres Web-Hosting

Vertrauenssache Web-Hosting? Fünf Punkte zu mehr Sicherheit. [...]

Eine passende Webhosting-Lösung zu finden, wird heute angesichts einer unglaublichen Angebotsfülle immer schwieriger. Deshalb sollten Unternehmen das Standardleistungsspektrum von Webhosting-Anbietern genau unter die Lupe nehmen. Auf keinen Fall dürfen dabei die Bereiche Sicherheit und Datenschutz vernachlässigt werden.  
Von zentraler Bedeutung ist, dass der Hosting-Anbieter in einer Datenschutzrichtlinie oder -erklärung klar darlegt, wie er persönliche Informationen von den Benutzern seiner Produkte und Dienste sammelt und verwendet. Insbesondere muss er erklären, dass er personenbezogene Daten eines Nutzers nur erhebt und nutzt, soweit sie für die Vertragsbegründung und -abwicklung sowie zu Abrechnungszwecken erforderlich sind. Geklärt sein muss auch, unter welchen Umständen eine Weitergabe von persönlichen Angaben an Dritte erforderlich ist.
Es ist auch unerlässlich, dass der Hosting-Anbieter geeignete Maßnahmen zum Schutz der vom Kunden übermittelten Informationen ergreift, zum Beispiel im Hinblick auf Details zu Kreditkarte oder Rechnungsstellung. Dazu zählen unter anderem die Nutzung sicherer SSL-Datenübertragungen oder die Verschlüsselung vertraulicher Daten. Generell muss es auf Providerseite klare Regelungen hinsichtlich der Beschränkung von Zugriffsmöglichkeiten auf Kundendaten durch eigene Mitarbeiter geben.
Der Webhoster muss auch über ein Hochsicherheits-Rechenzentrum verfügen, das unter anderem eine redundante, unterbrechungsfreie Stromversorgung, Brandschutztüren, Luftfeuchtigkeitskontrollen und mehrere Sicherheitsstufen bei der Zugangskontrolle bietet. Nur so ist ein zuverlässiger Schutz aller Informationen vor Verlust, Diebstahl, Feuer oder Wasserschäden gegeben. Darauf sollten Anwender allein schon aus Datenschutzgründen unbedingt achten.
Auch sollten Unternehmen im Hinblick auf die Verfügbarkeit der eigenen Website darauf achten, dass der Provider in seinem Rechenzentrum eine hochredundante Infrastruktur bereitstellt – vor allem im Hinblick auf die Server- und Speichersysteme. Um hier bei etwaigen Störfällen sofort reagieren zu können, sollte ein 24×7-Monitoring im Rechenzentrum stattfinden. Auf jeden Fall sollten dabei Bereiche wie verwendeter Speicherplatz, CPU, Swap, Disk I/O, Bandbreite und Netzwerk-Traffic einer permanenten Kontrolle unterliegen. 
Als Anwender sollte man auch darauf achten, dass der Provider ein mehrfach redundantes Daten-Backup durchführt. So sollte die Hauptfestplatte permanent auf eine zweite Platte gespiegelt werden (RAID). Zusätzlichen Schutz bietet die kontinuierliche Sicherung auf ein drittes Laufwerk im gleichen Server. Schließlich ist es unabdingbar, den gesamten Kunden-Account in regelmäßigen Abständen auch auf Band zu sichern. (el)

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*