Netz-Giganten gehen gegen dumme Inhalte vor

Um Internet-Usern den intellektuellen Bodensatz der Online-Welt zu ersparen, gehen einige Firmen jetzt neue Wege, indem sie ihren Angeboten Qualitätsfilter vorschalten, wie techcrunch.com berichtet. [...]

Facebook und Twitter haben kürzlich entsprechende Produkte vorgestellt. Das Aussortieren bestimmter Inhalte hat aber auch Kritiker, die sagen, es handle sich dabei um eine Art von Zensur, die abweichende Meinungen aus dem Netz entfernt und User so in eine Echokammer einsperrt.
„Den Trend zum vermehrten Einsatz von Filtern kann ich bestätigen, sowohl bei sozialen Medien als auch bei Suchmaschinen. Filter, die auf den Empfehlungen von Freunden basieren, sind in sozialen Medien beliebt. Viele Menschen mögen diese Art der Vorsortierung, da sie gleichzeitig eine persönliche Beziehung darstellt. Dass die Information im Internet gefiltert werden muss, steht außer Frage. Anders wäre die Informationsflut nicht zu bewältigen“, sagt Simon Schnetzer vom Institut für Kommunikation in sozialen Medien gegenüber der Nachrichtenagentur pressetext.
Twitter hat seinen Content-Filter Tailored Trends diese Woche vorgestellt. Usern werden hier Inhalte angeboten, die in seinem eigenen Twitter-Umfeld zu den beliebtesten Inhalten gehören. So erhält jeder Nutzer die Inhalte, die seinem eigenen Qualitätsanspruch genügen. Wer hauptsächlich Twitteranten folgt, die auf niveaulose Unterhaltung setzen, bekommt so passende Trending Topics angezeigt. Facebooks ebenfalls neues App-Center verfolgt eine ähnliche Strategie. Hier vertraut der Anbieter nicht einfach der Schwarmintelligenz, um seine Apps zu reihen.
Nicht die Anzahl der Downloads, sondern User-Interaktion, positive Bewertungen und die Abwesenheit von Spam sind hier die Qualitätskriterien. So sollen Apps, die mehr können, als Furzgeräusche produzieren, bevorteilt werden. Auch die neue Videochat-App Airtime setzt auf Content-Kontrolle. Durch Überwachung der Kommunikation sollen Geschlechtsorgane von der Plattform ferngehalten werden. Diese Art der Qualitätssicherung ist eine Gratwanderung. Indem Usern gewisse Inhalte vorenthalten werden, wird eine Form von Zensur praktiziert.
„Als Zensur würde ich die Content-Filter nicht bezeichnen. Ein echter qualitativer Filter ist technisch kaum umsetzbar, die meisten Automatismen basieren auf kontextsensitiven Schlüsselwörtern. Zudem verwenden Menschen im Internet ja nicht nur eine Informationsquelle. Jeder hat seinen eigenen Medienmix, was eine generelle Einschränkung des Informationsflusses erschwert“, so Schnetzer.
Besonders durch die Einbeziehung des Online-Umfeldes der Nutzer entsteht die Gefahr der Bildung einer Filterblase. Dann werden User nur noch mit Inhalten konfrontiert, die ihre Meinungen bestätigen. Abweichende Ansichten haben, auch wenn sie nicht den Qualitätsansprüchen von Usern oder Netzwerken entsprechen, durchaus eine Daseinsberechtigung. Der Blick über den sozioökonomischen, ideologischen oder politischen Tellerrand kann schließlich einiges über den Zustand der Gesellschaft aussagen.
„Ob die Tendenz zur Filterblase problematisch wird, hängt von der Entwicklung der Mediennutzung ab. Verwenden junge Menschen nur einen Kanal für die Informationsbeschaffung, ist die Gefahr größer. Hier spielen auch soziale Millieus eine Rolle, genau wie bei der Auswahl der Offline-Informationsquellen. Die Nutzer und auch die sozialen Medien können jedenfalls nicht über einen Kamm geschoren werden“, erklärt Schnetzer. Medienkompetenz ist hier ein Schlüsselwort.
„User können die Filter auch produktiv verwenden. Ich habe beispielsweise mehrere Twitter-Accounts für verschiedene Themen. Dort ist die Vorauswahl durch das Umfeld ausdrücklich erwünscht. Ein Problem sehe ich derzeit eher in der fortlaufenden Kommerzialisierung der sozialen Medien. Die Betreiber versuchen den Wert, den Nutzer geschaffen haben, zu monetarisieren. Es besteht die Gefahr, dass die Werbung so penetrant wird, dass sie den Spaß am Medienkonsum beeinträchtigt, ähnlich wie bei einigen Online-Zeitungen zum Beispiel“, so Schnetzer. (pte)

Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*