Schlau ohne Moral?

Autonome Systeme lernen durch aufwändiges Training, ethische Standards sollen dabei Fehlentwicklungen vorbeugen. [...]

In diesem Jahr findet der Fachkongress unter dem Motto „Mit Standards in die Zukunft – gemeinsame Innovation im Zeitalter der Digitalisierung“ statt. (c) Leonid - stock.adobe.com

Ist Ihnen bewusst, dass Sie Künstliche Intelligenzen trainieren? Nein? Dabei tun Sie das laufend! Jedes Mal nämlich, wenn Sie auf einer von Googles Captcha-Abfragen Straßenschilder, Pkws oder Busse identifizieren. Damit geben Sie sich nämlich nicht nur als Mensch zu erkennen, Sie trainieren damit auch eine Künstliche Intelligenz (KI) für selbstfahrende Autos, bringen also einem neuronalen Netzwerk bei, Objekte im Verkehr zu unterscheiden.

„Das Bereitstellen einer KI-Lösung ist nicht das Problem“, erklärt Dr. Clara Neppel, Senior Director in der Europazentrale des Verbandes der Elektro- und Informationstechnik-Ingenieure IEEE in Wien. Egal, ob es um Deep Learning für Spracherkennungssysteme, Chat-Bots oder selbstfahrende Autos geht. „Der tatsächliche Aufwand liegt darin, sie auf eine Anwendung hin zu trainieren“, erklärt Neppel. Und das übernehmen freiwillig und gerne eben auch Millionen von Internetnutzern rund um den Globus.

Dass das auch gründlich schiefgehen kann, zeigen Beispiele wie Microsofts Chat-Bot „Tay“. Die lernfähige Software sollte durch Interaktion mit Nutzern auf Twitter lernen, entwickelte sich aber – als Folge entsprechender Inputs – binnen Stunden zu einem rassistischen und sexistischen Albtraum, den die Verantwortlichen schließlich vom Netz nehmen mussten.

Bei derartigen Anwendungen handelt es sich nicht um tatsächliche Intelligenz, sondern um autonome, also selbstlernende Systeme. Ereignisse wie jene mit „Tay“, aber auch die potentielle Gefährdung von Menschen durch selbstfahrende Autos oder Entwicklungen wie die in China eingesetzten Social Scores, werfen Fragen nach ethischen Richtlinien für den Entwurf und Einsatz der entsprechenden technischen Lösungen auf.

Ethik schon im Entwurf

IEEE beschäftigt sich mit der Entwicklung entsprechender Standards für automatische Systeme. „Unter dem Begriff ‚Ethically Aligned Design‘ berücksichtigen wir die ethische Dimension schon beim Entwurf. Unser Expertenpool aus rund 3.000 Expertinnen und Experten speist sich aus unterschiedlichsten Disziplinen -Techniker und Philosophen zählen ebenso dazu wie Ethiker und Politiker“, erklärt Clara Neppel.

Zum Thema wurde bereits ein Set an Standards initiiert, erste Veröffentlichungen sind für Anfang 2020 geplant. Darüber hinaus wird auch ein entsprechendes Zertifizierungsprogramm entwickelt, das sich unter anderem mit der Frage der Transparenz beschäftigt.

Viele Chancen durch smarte Technologie

Mit Ethik und Künstlicher Intelligenz beschäftigt sich auch Christopher Frauenberger von der Research Group of Human Computer Interaction der TU Wien. In seiner Keynote beim 3. IoT-Fachkongress am 23. Oktober 2019 wird er auf die Akzeptanz smarter Technologien in der Gesellschaft eingehen.

Er ist davon überzeugt, dass für eine hohe Akzeptanz neuer technologischer KI-Entwicklungen Menschen die Möglichkeit haben müssen, „bei der Gestaltung von Technologie mitreden zu können“, denn: „Menschen haben immer das Recht und Bedürfnis, ihre Lebensumstände mitzubestimmen. Durch das Internet der Dinge wird der Verhandlungsraum verschoben. Doch genau diese Räume müssen offenbleiben“, so Frauenberger abschließend.

3. IoT-Fachkongress 2019

Mit Standards in die Zukunft – gemeinsame Innovation im Zeitalter der Digitalisierung
23. Oktober 2019

Anwender können sich noch bis 30. September zum Sommerpreis von EUR 490,- anmelden. Nähere Informationen und Anmeldung unter: www.austrian-standards.at/iot.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*