Hacking-Angriffe: „AI2“ prognostiziert 85 Prozent

Das neue System künstlicher Intelligenz "AI2" vom Massachusetts Institute of Technology (MIT) kann rund 85 Prozent aller möglichen Cyber-Attacken vorhersehen und berät sich zudem mit Experten, um zu lernen. [...]

„Das System kann man sich als virtuellen Analytiker vorstellen“, erklärt der MIT-Informatiker Kalyan Veeramachaneni. Das Team arbeitete in der Entwicklung mit dem Startup PatternEx zusammen. „AI2“ durchsucht ununterbrochen Billionen von Daten und sortiert diese nach einem eigenen Muster in die Schemen „normal“ und „anormal“. Das ermöglicht das Finden von auffälligen Tendenzen.

Die atypischen Befunde leitet „AI2“ an menschliche IT-Experten weiter, die den Fund entweder bestätigen oder abweisen. Das vom System erhaltene Feedback wird abgespeichert und verbessert die Genauigkeit neuer Analysen. Bislang ist es deshalb bereits möglich, rund 85 Prozent drohender Cyber-Attacken vorherzusehen. Durch die Lernfähigkeit des System kann dieser Wert künftig sogar noch steigen.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Gewöhnlich sind Sicherheitssysteme entweder rein maschinell oder von Menschen gesteuert. „AI2“ verbindet diese Kategorien jedoch und lernt aus der Rückmeldung realer Experten. Das verbessert die Leistung enorm.

„Das System generiert ständig neue Modelle, die es binnen weniger Stunden verfeinern kann. Das heißt, AI2 verbessert seine Aufklärungsrate maßgeblich in rascher Folge“, unterstreicht Veeramachaneni. Laut der Experten sei der Einsatz von „AI2“ ein riesiger Fortschritt gegen Hacker-Angriffe auf Server, Accounts und Datenbanken. (pte)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*