Studie: KI braucht soziale Verantwortung

Politik ist gefordert, künstliche Intelligenz gesellschaftlich zu integrieren. [...]

Mensch und Technik: Soziale Komponente ist wichtig. (c) manchester.ac.uk
Mensch und Technik: Soziale Komponente ist wichtig. (c) manchester.ac.uk

Um für die Öffentlichkeit künstliche Intelligenz (KI) zugänglicher und verträglicher zu machen ist es unabdingbar, soziales Pflichtbewusstsein in Forschung und Entwicklung einfließen zu lassen. Zu dieser Erkenntnis kommen Wissenschaftler der University of Manchester im Zuge einer Studie zur Rolle von künstlicher Intelligenz in der Gesellschaft. Diese soll Entwicklern und der Politik helfen, Auswirkungen von KI in den Bereichen Industrie, Gesundheitswesen und internationale Politik zu verstehen.

Öffentlichkeit unmittelbar beeinflusst

„Soziale Gerechtigkeit in der Entwicklung von künstlicher Intelligenz miteinzubeziehen ist elementar wichtig“, betont Forschungsleiterin Barbara Ribeiro. „KI beruht auf Datensätzen und Algorithmen. Diese wiederum beeinflussen Entscheidungen des öffentlichen Lebens, wie beispielsweise die Stadtplanung, die öffentliche Sicherheit oder das Gesundheitssystem„, wie die Wissenschaftlerin ausführt.

„In diesen datenbasierten Entscheidungsfindungen wäre es fahrlässig, wenn bestimmte soziale Gruppen nicht berücksichtigt werden, weil ihnen der Zugang zur künstlichen Intelligenz fehlt oder die Datensätze einfach nicht auf spezielle Anforderungen ausgelegt sind, die benachteiligte Personengruppen betreffen“, so Ribeiro. Da Investitionen in den Sektor KI langfristig im Wesentlichen von Steuerzahlern bezahlt werden, müssten politische Entscheidungsträger zukünftig sicherstellen, dass die Vorteile dieser Technologien auch der gesamten Gesellschaft zugutekommen.

Unterschiede zwischen KI und Robotern verdeutlichen

Ebenfalls werden in der Studie Gemeinsamkeiten und Unterschiede zwischen KI und Robotertechnik und deren Wichtigkeit für die Öffentlichkeit hervorgehoben. „Sie sind sich in vielerlei Hinsicht ähnlich, dennoch handelt es sich um zwei völlig getrennte Technologien, die oft nicht nur von der breiten Öffentlichkeit, sondern auch von der Politik missverstanden werden. Das muss angesprochen und geändert werden“, appelliert Forscherin Anna Scaife.

Für Politik und Gesellschaft sei es wichtig, zu verstehen, was Robotertechnik und KI bedeuten und wozu beide Technologien heute in der Lage sind – und wozu nicht. „Zusätzlich sollte ein Zugang dazu entstehen, wo die Forschung heute steht und wie sich die Wissenschaft um KI und Roboter in den nächsten fünf bis zehn Jahren entwickelt“, wie die Forscher anfügen.

 


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*