Ansatz der North Carolina State University führt bei Objekterkennung nicht zu Leistungsabfall. [...]
Bei Künstlicher Intelligenz (KI) ist oft nicht wirklich klar, warum sie ihre Entscheidungen trifft – was sich spätestens bei Militär- und Sicherheitsanwendungen als ein echtes Problem darstellt. Forscher der North Carolina State University (NCSU) haben ein neues Framework vorgeschlagen, um die Nachvollziehbarkeit von KI-Entscheidungen zu erleichtern. Denn im Prinzip liefert ein KI-System dadurch eine Erklärung mit. Bei Tests mit einem Objekterkennungs-System hat das keine Performance-Einbußen mit sich gebracht.
Interpretationshilfe
Das Besondere am neuen Framework ist laut Tianfu Wu, Professor für Computertechnik an der NCSU, dass das KI-Training auch die Interpretierbarkeit berücksichtigt. „Wenn ein KI-System mit unserem Framework beispielsweise lernt, wie es Objekte in Bildern erkennt, lernt es auch, das Zielobjekt im Bild zu lokalisieren und zu analysieren, was an dieser Lokalität die Zielobjektkriterien erfüllt“, erklärt er. Diese Information wird dann zusammen mit dem Ergebnis ausgegeben, um für den Menschen interpretierbar zu machen, wie das Ergebnis zustande kam.
In einer Konzeptdemonstration haben die Forscher ihr Framework in ein breit genutztes Objekterkennungslverfahren, genannt „R-CNN“, integriert. Dann haben sie die Lösung an zwei gängigen Benchmark-Datensätzen getestet. Diese Tests haben ergeben, dass die Nutzung des Interpretierbarkeits-Frameworks der Performance weder in punkto Genauigkeit noch Geschwindigkeit schadet.
Wichtige Transparenz
Eine transparente Nachvollziehbarkeit von KI-Entscheidungen ist wichtig, um diese auch rechtfertigen zu können – oder auch klar zu wissen, dass diese eigentlich nicht zu rechtfertigen sind, wenn beispielsweise wieder einmal eine fehlgeleitete KI gelernt hat, rassistisch zu sein, wie das erst vor Kurzem ein Kunstprojekt für die Gesichtserkennung demonstriert hat.
Wu sieht in der aktuellen Arbeit einen wichtigen Schritt in Richtung einer wirklich transparenten KI. Allerdings hält er noch Weiterentwicklungen für nötig. Denn das Framework bringe die KI im Objekterkennungsfall bislang nur dazu, qualitative Informationen dazu anzuzeigen, was es für die Erkennungsmerkmale des Zielobjekts hält. „Wir arbeiten an Möglichkeiten, das quantitativ zu gestalten, indem wir einen Zuversichtswert in den Prozess einbauen.“
Be the first to comment