Im Frühjahr sorgte die die rassistischen Entgleisungen des Chatbots "Tay" von Microsoft für Negativschlagzeilen. Jetzt testet Google gemeinsam mit Forschern der Universitäten Chicago, Sheffield und der University of the West of England derzeit, ob Künstliche Intelligenz (KI) auch zu einseitigen und diskriminierenden Entscheidungen führen kann. [...]
„Entscheidungen, die auf maschinellem Lernen basieren, können sowohl nützlich sein als auch einen sehr großen Einfluss auf unser Leben haben“, so Google-Forscher Moritz Hardt. Aus diesem Grund sei es immer wichtiger zu wissen, ob manche Maschinen womöglich diskriminierende Entscheidungen treffen und ob KI überhaupt feinfühlige Eigenschaften gegeben sind. Der Test soll mit KIs durchgeführt werden, die Vorhersagen über die Zukunft machen sollen, indem sie eine breite Masse von existierenden Daten analysieren.
„Auch wenn wir Zugang zu den Details von Algorithmen haben, sind diese so kompliziert, dass es fast aussichtslos ist, diese zu durchforsten“, erklärt Nathan Sebro von der University of Chicago. Im März hatte Microsoft Probleme mit Tay, der aus der Vielzahl seiner erhaltenen und von ihm analysierten Nachrichten zum Rassisten wurde. Die Menge der rassistischen Nachrichten führten dazu, dass er einer Überarbeitung unterzogen werden musste.
Begründete Sorgen
„Maschinelles Lernen ist hervorragend, wenn wir es nutzen, um die beste Route für eine neue Öl-Pipeline zusammenzustellen. Bis wir jedoch genau wissen, wie einseitige Neigungen in der KI wirken, wäre ich sehr besorgt darüber, sie Entscheidungen treffen zu lassen, die direkte Auswirkungen auf das Leben von Menschen haben“, betont Noel Sharkey von der University of Sheffield abschließend die Wichtigkeit nötiger Tests.
Be the first to comment