Evolf / Shutterstock
In een recente post kondigde de eigenaar van X, (voorheen Twitter), Elon Musk, zijn plannen aan voor het sociale mediaplatform om de blokkeerfunctie te verwijderen, behalve in directe berichten.
Gebruikers zijn bezorgd dat deze verandering in de content moderatie van het platform zal leiden tot een toename van vijandige en beledigende content, waardoor degenen op het platform zichzelf niet kunnen beschermen tegen de gevolgen.
Niet alleen gebruikers van sociale media vertrouwen op de blokkeerfunctie van X om de inhoud die ze zien en waarmee ze interageren te controleren. Bedrijven en merken met officiële social media accounts vertrouwen ook op de ingebouwde moderatiefuncties. Dit zorgt ervoor dat hun fans en volgers zich bezighouden met positieve en beschaafde interacties.
Bedrijven moeten constructieve discussies op hun sociale media-accounts kunnen aanmoedigen. Dit helpt ze bij het opbouwen van relaties met klanten, het vergroten van mond-tot-mondreclame en het verbeteren van de verkoop. Vijandige online inhoud gericht op een bedrijf is niet bevorderlijk voor deze zakelijke doelen.
Nu de functie “blokkeren” aanzienlijk is beperkt, zullen bedrijven en individuele gebruikers die de verspreiding van vijandige online inhoud willen controleren, gedwongen worden om hun toevlucht te nemen tot andere zelf-moderatie. Hoewel individuele gebruikers soms door bedrijven worden gebruikt om inhoud te modereren, toont ons recente onderzoek aan dat officiële bedrijfsaccounts veel beter in staat zijn om vijandige inhoud te de-escaleren.
Het belang van blokkeren
Onderzoek toont aan dat wanneer gebruikers van sociale media online worden blootgesteld aan beledigende of kwetsende inhoud, dit kan leiden tot een reeks negatieve gevolgen. Ze kunnen psychische problemen en angsten ervaren die vergelijkbaar zijn met die van persoonlijke intimidatie.
Volgens hetzelfde werk is het ook waarschijnlijk dat gebruikers negatieve emoties ervaren wanneer ze vijandige of beledigende inhoud te zien krijgen op sociale media en afzien van interactie met anderen. Voor bedrijven kan dit leiden tot een negatieve houding ten opzichte van het bedrijf, die zich ook kan verspreiden, en verlies van vertrouwen in het merk.
Dempen, rapporteren en blokkeren zijn ingebouwde functies op de meeste sociale mediaplatforms. Hiermee kunnen gebruikers de inhoud waaraan ze worden blootgesteld beperken, evenals wie er interactie kan hebben met hun profiel. Deze functies stellen gebruikers in staat om te profiteren van de voordelen van sociale media, zoals het volgen van trends, op de hoogte blijven en interactie met anderen. Ze stellen gebruikers ook in staat om te voorkomen dat ze het doelwit worden van aanstootgevende of ongewenste inhoud.
Mute en report zijn twee functies die nog steeds kunnen worden gebruikt om vijandige inhoud te modereren. Maar deze lossen het probleem slechts gedeeltelijk op, omdat ze pesters niet weerhouden van interactie met gebruikers van sociale media of het stalken van hun profielen. Blokkeren is aantoonbaar de meest effectieve functie om het platform te modereren. Het geeft gebruikers volledige controle over met wie en welke inhoud ze communiceren op sociale media.
Blokkeren is niet alleen een wenselijke moderatiefunctie; het is ook een vereiste voor een verantwoorde bedrijfsvoering. Om beledigende en aanstootgevende inhoud te voorkomen, stellen zowel de App Store als Google Play Store dat de “mogelijkheid om beledigende gebruikers te blokkeren van de service” en het bieden van “een in-app systeem voor het blokkeren van UGC (door gebruikers gegenereerde inhoud) en gebruikers” noodzakelijke voorwaarden zijn voor alle applicaties die ze vermelden.
In het Verenigd Koninkrijk vereist de huidige versie van de Online Safety Bill dat sociale mediaplatforms volwassenen de juiste hulpmiddelen bieden om te voorkomen dat beledigende of kwetsende inhoud hen bereikt. Dit wordt meestal mogelijk gemaakt door de blokkeerfunctie.
Content moderatie in de toekomst
Het rapporteren en verbergen van vijandige inhoud kunnen haalbare moderatieopties zijn voor X in de toekomst. Het is echter onwaarschijnlijk dat deze op zichzelf voldoende zullen zijn. Het verwijderen van de “blokkeer”-functie kan betekenen dat zowel bedrijven als individuele gebruikers meer verantwoordelijkheid moeten nemen voor het modereren van inhoud.
Sommige onderzoeken hebben al aangetoond dat officiële zakelijke accounts verschillende moderatiecommunicaties gebruiken – naast alleen censuur – in de aanwezigheid van vijandige inhoud. En dit kan geschikt zijn om de houding en het imago van zakelijke volgers te verbeteren.
Een andere manier zou zijn om te vertrouwen op individuele gebruikers van sociale media voor moderatie, met name prominente accounts die hun status onderscheiden van anderen door middel van digitale badges zoals het “blauwe vinkje” op X en “top fan” op Facebook.
Uit onderzoek blijkt namelijk dat accounts met een digitale badge actief en positief deelnemen aan discussies en door gebruikers gegenereerde inhoud op sociale media. Als gevolg daarvan zouden deze accounts kunnen fungeren als informele en incidentele moderatoren.
In ons onderzoek hebben we gekeken of officiële zakelijke accounts of prominente individuele accounts het beste waren in het modereren van vijandige inhoud op sociale media. In ons eerste experiment legden we deelnemers twee scenario’s voor. In het ene scenario modereerde een officieel zakelijk account vijandige inhoud. In een ander scenario kwam een gebruikersaccount met een digitale badge tussenbeide in een vijandige interactie.
We ontdekten dat bedrijven als de meest geloofwaardige moderators werden beoordeeld. Ze waren het meest geschikt om vijandige inhoud te de-escaleren zonder deze te hoeven verbergen of verwijderen, of de betrokken accounts te blokkeren.
Op sociale media is het gebruikelijk dat moderatie-interventies reacties en antwoorden ontvangen van observerende gebruikers die het eens of oneens zijn. De aanwezigheid van reacties beïnvloedt waarschijnlijk hoe de moderator wordt waargenomen. Daarom onderzochten we in ons tweede experiment de geschiktheid van de moderator afhankelijk van het feit of het account positieve of negatieve reacties kreeg van andere gebruikers die de interactie hadden geobserveerd.
Deelnemers kregen vier scenario’s: twee waarbij de moderatie-interventie door het officiële zakelijke account positieve of negatieve emoji’s ontving en twee waarbij een gebruikersaccount met een digitale badge de vijandige interactie modereerde en deze positieve of negatieve emoji’s ontving.
Onze bevindingen bevestigden opnieuw dat bedrijfsaccounts het meest geschikt werden geacht voor het modereren van vijandige inhoud door andere sociale media gebruikers. Dit is zelfs het geval wanneer de moderatie negatieve reacties krijgt van de volgers van het bedrijfsaccount. Gebruikersaccounts met een digitale badge worden daarentegen alleen als geloofwaardig gezien als hun moderatie positieve reacties krijgt van degenen die het sociale media-account van het bedrijf volgen.
Of de “blokkeer”-functie op X nu wel of niet wordt verwijderd, het modereren van beledigende en kwetsende inhoud moet niet alleen worden overgelaten aan bedrijven en individuele accounts.
Het modereren van inhoud zou een collectieve inspanning moeten zijn van platforms, bedrijven en individuele gebruikers. Sociale mediabedrijven hebben de verantwoordelijkheid om hun gebruikers uit te rusten met ontwerpfuncties en hulpmiddelen die hen in staat stellen om van hun platformen te genieten.
Denitsa Dineva werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden buiten haar academische aanstelling openbaar gemaakt.