Digitale Meinungsbildung

Polit meinungsb

Das Internet eröffnet den Zugang zu vielfältigen Informationen, vereinfacht den globalen Austausch und damit die Meinungsbildung. Doch es existieren auch Risiken, zum Beispiel durch Falschinformationen oder die zunehmende Polarisierung. Wie bewertet die Schweizer Bevölkerung diese Entwicklungen?

Dank dem Internet sind Informationen praktisch jederzeit und von fast überall aus bequem und in einer nie zuvor dagewesenen Vielfalt abrufbar. Zudem erleichtert das Internet den Austausch mit Menschen auf der ganzen Welt – und das in Echtzeit genauso wie rückwirkend. Es gibt aber auch Schattenseiten. So wird es zunehmend schwieriger, wahre von falschen Informationen zu unterscheiden. Zudem können Algorithmen und die damit einhergehende Selektion von Inhalten bestehende Diskriminierungen oder die politische Polarisierung verstärken. Wir wollten von der Schweizer Bevölkerung wissen, welche Gefahren sie in der digitalen Meinungsbildung wahrnimmt und inwiefern sich die Betroffenheit von Hassrede, Bedrohung und Schikane im digitalen Raum von derjenigen im analogen Raum unterscheidet.

Digitale Kommunikation: Verbreitung von Falschinformationen als grösste Sorge

Die Schweizer Bevölkerung ist besonders besorgt um die Verbreitung von Falschinformationen im digitalen Raum (85%). An zweiter Stelle steht die Anonymität im Netz und Hassrede, welche von 77% der Befragten als grosse Gefahr erkannt wird. Diese hohen Zahlen gilt es im Kontext aktueller politischer Entwicklungen zu betrachten. So spielen beispielsweise im russischen Angriffskrieg gegen die Ukraine Desinformationen eine zentrale Rolle. Die hohe Zahl (85%) deuten wir deshalb auch als ein erhöhtes Bewusstsein der Schweizer:innen dafür, wie schnell es zu einer Verzerrung der öffentlichen Meinung kommen kann.

Gefahrenwahrnehmung in digitalen Informations- und Kommunikationsräumen

Im Rahmen einer Studie der Universität Zürich und Junge Akademie Schweiz (2024) wurden aktuelle Herausforderungen im Umgang mit Fehlinformationen und Verschwörungstheorien identifiziert und Handlungsempfehlungen entwickelt. Expert:innen stellen in dieser Studie einen Mangel an gezielten Massnahmen fest, um die Bevölkerung zu befähigen, falsche oder verschwörungstheoretische Inhalte zu erkennen und das Vertrauen in gesellschaftliche Institutionen und ihre Vertreter:innen wiederherzustellen. Weiter werden regulatorische Lücken identifiziert und die mangelnde Transparenz bei der Auswahl von Inhalten durch Algorithmen kritisiert. Als Massnahmen werden ein transparenteres Monitoring durch zivilgesellschaftliche Akteure, eine Stärkung der Informations- und Medienkompetenz sowie effektive Wissenschaftskommunikation gefordert. Im DigitalBarometer 2024 zeigt sich ein Zusammenhang zwischen dem Bildungsniveau und dem Bewusstsein für bestimmte Risiken im digitalen Raum. Personen mit höherer Bildung und digitalen Fähigkeiten nehmen die Gefahr von Algorithmen, die priorisieren, welche Inhalte wir sehen, stärker wahr als Personen mit niedrigerem Bildungsniveau oder fehlenden digitalen Grundkompetenzen. Konkret sehen Personen mit der höchsten Bildungsstufe Algorithmen doppelt so häufig als Gefahr verglichen mit Personen mit der niedrigsten Bildungsstufe (80% gegenüber 42%). Ähnlich verhält es sich hinsichtlich den digitalen Grundkompetenzen: Hier sehen 73% der Personen mit digitalen Grundkompetenzen eine Gefahr in Algorithmen, während es bei Personen ohne diese Fertigkeiten nur 46% sind.

 

Hassrede, Bedrohung, Schikane: Im digitalen Raum gleich verbreitet wie im analogen

Der DigitalBarometer 2024 zeigt eine weitere spannende Erkenntnis: Die Zahl der Befragten, die angeben, im digitalen Raum von anderen absichtlich schikaniert, bedroht oder belästigt worden zu sein, ist fast identisch mit der Zahl derjenigen, die ähnliche Erfahrungen im analogen Raum gemacht haben (17% vs. 18%). Hassrede, Bedrohung und Schikane umfassen verschiedene Formen von Anfeindungen, die auch aufgrund von Gruppenmerkmalen wie ethnischer Zugehörigkeit oder sexueller Orientierung erfolgen können. Diese Zahlen könnten ein Hinweis dafür sein, dass Hassrede und Schikane tatsächlich zu gleichen Teilen ein Problem in der digitalen und analogen Welt zu sein scheinen. Diese Folgerung ist jedoch mit Vorsicht zu geniessen. Aufgrund der Daten lässt sich nicht klären, inwieweit verschiedene Bevölkerungsgruppen unterschiedlich stark von Hassrede und Schikane betroffen sind (siehe dazu «Expert:innen-Check» unten). Auch bieten die digitalen Kanäle eine erhöhte Reichweite und Geschwindigkeit, was die Verbreitung von Hassrede und Schikane beschleunigen kann. Zudem kann die Anonymität und die geringere soziale Kontrolle im digitalen Bereich die Hemmschwelle für das Veröffentlichen von Hassrede senken im Vergleich zur analogen Welt. Es ist daher zentral, dass wir in der öffentlichen Debatte über Online-Sicherheit und soziale Dynamiken im digitalen Raum sprechen. Unterschiedliche zivilgesellschaftliche Organisationen und Projekte wie «Algorithm Watch», «Stop Hate Speech» oder das gemeinwohlorientierte Medienhaus «CORRECTIV» setzen sich bereits intensiv mit diesem Thema auseinander und leisten diesbezüglich wichtige Sensibilisierungs- und Befähigungsarbeit.

Fazit und Empfehlungen

Das Internet bietet zahlreiche Vorteile wie den erleichterten Zugang zu Informationen und den globalen Austausch in Echtzeit. Jedoch sind damit auch Herausforderungen verbunden, darunter die Verbreitung von Falschinformationen, Anonymität im Netz und Hassrede. Die Studie zeigt, dass die Gefahrenwahrnehmung bezüglich dieser Phänomene in der Schweizer Bevölkerung tief verankert ist. 

Besonders überraschend ist der Befund, dass die Erfahrungen mit Hassrede und Bedrohungen im digitalen Raum entgegen den Erwartungen nahezu gleich verbreitet sind wie im analogen Raum. Hier ist sicherlich zentral, dass wir in weiteren Studien und Projekten das Verständnis dafür stärken, welche Personen oder Minderheiten stärker betroffen sind. Zudem zeigen die Ergebnisse der Umfrage ein positiver Zusammenhang zwischen dem Bildungsniveau und der Gefahrenwahrnehmung, dass Algorithmen unsere Sichtweisen und damit die Meinungsbildung beeinflussen. Erfahrungen aus dem Spin Off-Projekt Digital Literacy zeigen, dass die Gefahrenwahrnehmung nicht zuletzt deshalb so gross ist, weil sich viele Menschen zunehmend machtlos fühlen, sich im Dschungel der lauernden digitalen Gefahren zurechtzufinden. Umso wichtiger ist die Aufklärungsarbeit und Stärkung der Medienkompetenz. Es ist entscheidend, die digitale Bildung auf verschiedenen Ebenen zu fördern, um Menschen dabei zu unterstützen, Informationen kritisch zu hinterfragen, zu bewerten und entsprechend darauf zu reagieren. 

Im Hinblick auf die Beeinflussung durch Algorithmen stehen insbesondere Plattformen und Unternehmen in der Pflicht, Regulationsmassnahmen zu ergreifen und transparenter über die Funktionsweise ihrer Algorithmen zu berichten. Dies könnte dazu beitragen, die Verbreitung von Falschinformationen einzudämmen. Auch ist es wichtig, den rechtlichen Rahmen im digitalen Raum zu stärken und den Prozess zu vereinfachen, um wirksamer gegen Hassrede, Bedrohung und Schikane vorgehen zu können.

Expert:innen-Check: Wir haben nachgefragt

Interview mit Nathalie Klauser, Co-Gründerin von Intersections

Inwiefern unterscheidet sich die Erfahrung von Hassrede, Bedrohung und Schikane im digitalen Raum im Vergleich zum analogen Leben und welche Rolle spielt Künstliche Intelligenz (KI) bei der Verstärkung dieser Bedrohungen?

Der DigitalBarometer 2024 zeigt, dass Menschen sich digital nicht öfter schikaniert fühlen als im analogen Leben, unabhängig von Alter, Bildung oder Geschlecht. Im digitalen Raum erleben wir jedoch eine Verstärkung der Bedrohungen und Belästigungen durch die Anonymität, die es den Täter:innen ermöglicht, ohne direkte Konfrontation zu agieren. KI trägt in diesem Kontext sowohl negativ als auch positiv bei. Einerseits können automatisierte Angriffe mittels Chatbots oder das Viralisieren von Hassnachrichten asoziale Verhaltensweisen verstärken. Dabei sind die Opfer dieser vorwiegend Prominente oder Angehörige von marginalisierten Gruppen, bei denen das Diskriminierungspotenzial durch Überschneidungen verschiedener Merkmale wie beispielsweise Herkunft, Religion, Geschlechtsidentität oder Beeinträchtigungen (Intersektionalität) zusätzlich verstärkt werden. Wichtig anzufügen ist, dass marginalisierte Gruppen sich oft ihrer Diskriminierung nicht bewusst sind. Dafür braucht es Sensibilisierung und aktives Empowerment. Diesbezüglich leisten soziale Bewegungen (#metoo, Black Lives Matter etc.) im digitalen sowie analogen Raum einen wichtigen Beitrag. Andererseits bietet KI das Potenzial, digitale Hassrede durch fortschrittliche Erkennungsalgorithmen zu identifizieren und zu reduzieren.

Wie können digitale Ethik und KI-Technologien dazu beitragen, digitale Hassrede zu bekämpfen und ein faires digitales Umfeld zu fördern?

Digitale Ethik spielt eine wichtige Rolle im Kampf gegen digitale Hassrede und Belästigung. Denn die Wurzeln für diskriminierende Praktiken sind oft tief in der Nutzung von Künstlicher Intelligenz verankert. Deshalb ist es entscheidend, KI-Anwendungen kontextuell auf ethische Grundsätze wie Autonomie, Schadensvermeidung, Fairness und Transparenz zu prüfen, und zwar aus verschiedenen Blickwinkeln. Die Betroffenen müssen aktiv und auf gleicher Augenhöhe in diesen Prozess einbezogen werden. Auf diese Weise können strukturelle Ungerechtigkeiten, die durch algorithmische Diskriminierung entstehen, erkannt und auf verschiedenen Ebenen wie der Organisation, Kommunikation, Technik und des Designs angegangen werden.

Die EU hat mit ihrer AI Act-Gesetzgebung ethischeGrundsätze gesetzlich verankert, um die Risiken von KI zu reduzieren. Ein zunehmendes Bewusstsein für digitale Ethik hilft auch, die potenziellen Gefahren von Algorithmen zu erkennen.

Weitere Themen, die dich interessieren könnten

Digitale Inklusion

Digitale Inklusion

Zukunft der Arbeit

Zukunft der Arbeit