IBM will Künstlicher Intelligenz ein Ethik-Verständnis verpassen. In Zusammenarbeit mit dem MIT Media Lab hat das Unternehmen deshalb eine neue KI-Entscheidungsmethode entwickelt, die Inhalte nach Nutzerpräferenzen, aber auch nach moralischen Vorgaben ausgibt. [...]
IBM arbeitet daran, Künstliche Intelligenz (KI) mit einem ethischen Verständnis zu schaffen. Wie Venturebeat schreib wären KI–Algorithmen bisher stets darauf ausgelegt, dem Nutzer Inhalte anzuzeigen, die er wolle. Dies sei aber nicht immer auch das, was er sehen solle. Und genau das will IBM nun ändern.
Ziel sei es, ethische und moralische Grundsätze zu befolgen und dem Nutzer zugleich qualitativ hochwertige Inhalte zu liefern. Eine entsprechende KI-Empfehlungsmethode haben die Wissenschaftler von IBM Research laut dem Bericht nun in Zusammenarbeit mit dem MIT Media Lab entwickelt. Damit könnten die Ergebnisse gemäß den Nutzerpräferenzen zwar optimiert werden, zugleich folge das System aber auch vordefinierten Richtlinien.
Mit diesem Vorstoß ist IBM keineswegs ein Pionier. Auch die Deutsche Telekom hat unlängst verschiedene Richtlinien veröffentlicht, wonach KI-Systeme einem bestimmten Ethik-Codex folgen sollen. Anders als diese Methoden sei die neue Vorgehensweise jedoch nicht statisch. Sie folge keinen bestimmten Regeln. Bisher hätte der Nutzer lediglich bestimmte Quellen oder Kategorien ausschließen können. Diese wurden ihm dann vom Algorithmus schlicht nicht mehr angezeigt.
Da das Internet jedoch aus einer derart großen Datenmenge besteht, sei es laut IBM schlicht nicht möglich, für alles eine genaue Regel vorzudefinieren. Aus diesem Grund kommt bei IBM KI zum Einsatz. Anhand von Beispielen soll der Computer lernen zu verstehen, welche Inhalten angemessen sind.
Offline- und Online-Trainingsphase
Die Forscher trainieren ihr System laut dem Bericht in zwei unterschiedlichen Stufen. In der ersten Phase ist der Computer nicht mit dem Netz und damit nicht mit dem Endnutzer verbunden. Erste Beispiele werden von einer übergeordneten Instanz eingepflegt – in diesem Fall den Forschern. Ebenso könnte diese Instanz aber auch aus den Eltern oder Erziehungspersonen des Nutzers bestehen. Diese legen erste Einschränkungen fest.
In der zweiten Phase ist das System hingegen online und interagiert mit dem Endnutzer. Nun lernt das System wie jede andere KI auch, die Präferenzen des Users kennen. Da Vorlieben und Ethik nicht immer übereinstimmen, kann vorab festgelegt werden, bis zu welchem Grad welcher Faktor überwiegen soll.
Neben Online-Inhalten sei es auch möglich, dass System in anderen Bereichen einzusetzen. Also Beispiel nannten die Forscher hierfür den Gesundheitssektor. Der Algorithmus könnte bei der Medikamentendosierung verwendet werden. Die Abwägung erfolgt zwischen Medikamentenerfolgsvariable und der Einschränkung der Lebensqualität des Patienten.
*Alexandra Lindner ist Redakteurin von COM! professional.
Be the first to comment