Stel je voor dat Facebook nu gestopt is met het modereren van inhoud. Iedereen kon posten wat ze wilden. Eerdere ervaring suggereert dat het platform al snel een helse omgeving zou worden die overspoeld zou worden door spam, intimidatie, misdaad, terroristische onthoofdingen, neonazi-teksten en beelden van seksueel misbruik van kinderen. In dat scenario zouden veel gebruikers waarschijnlijk vertrekken, gevolgd door adverteerders en hun lucratieve voordelen voor het platform.

Maar hoewel matiging zo belangrijk is, wordt het niet als zodanig behandeld. De overgrote meerderheid van de 15.000 moderators, die de hele dag beslissen wat er op Facebook kan worden geplaatst en wat niet, werken niet eens voor Facebook. De volledige content moderatie service is met externe leveranciers, die tijdelijke werknemers in dienst op onzekere contracten op meer dan 20 sites wereldwijd.

Ze moeten honderden publicaties per dag bekijken, waarvan er vele zeer traumatisch zijn. Fouten in overvloed, ondanks de goedkeuring van kunstmatige intelligentie tools om berichten die aandacht vereisen te scheiden. Facebook heeft een foutenpercentage van 10% ondersteund, door berichten te markeren voor verwijdering die moeten worden gehandhaafd of vice versa.

Aangezien reviewers moeten lezen drie miljoen berichten per dag, dat komt neer op 300.000 fouten per dag, waarvan sommige dodelijke effecten kunnen hebben. Zo gebruikten de militairen van Birma Facebook in 2016 en 2017 om genocide aan te zetten tegen de overwegend islamitische Rohingya-minderheid. Het bedrijf gaf later toe dat het er niet in slaagde om zijn eigen beleid uit te voeren dat haattoespraak en aansporing tot geweld verbiedt.

Als we de moderatie van inhoud willen verbeteren, moet Facebook interne inhoudsmoderators hebben, ze inhuren als fulltime werknemers en hun aantal verdubbelen, een nieuw rapport van het Stern Center for Business and Human Rights aan de New York University,USA.

“Content moderatie is niet zoals andere uitbestede diensten, zoals koken of schoonmaken. Het is een centrale dienst van de sociale media business, en dat is waarom het vreemd lijkt dat het wordt behandeld alsof het een perifeer of ander probleem,” zegt adjunct-directeur van het centrum en auteur van het rapport, Paul M. Barrett.

Waarom beheren Facebook-leiders de inhoud op deze manier? Het moet, althans gedeeltelijk, met de kosten, volgens Barrett. Het bedrijf zou het erg duur vinden om de aanbevelingen van het rapport uit te voeren. De kosten zouden waarschijnlijk tientallen miljoenen euro’s bedragen (hoewel facebook daarentegen jaarlijks miljarden euro’s winst genereert). Maar er is een tweede, complexere reden. “Content moderatie activiteit past gewoon niet het beeld van Silicon Valley (USA). Bepaalde soorten activiteiten zijn zeer gewaardeerd en glamoureus: productinnovatie, slimme marketing, engineering… de gedetailleerde wereld van content control past daar niet bij”, zegt hij.

Hij gelooft dat het tijd is voor Facebook om matiging te behandelen als een centraal onderdeel van zijn bedrijf en dat het verhogen van zijn rang zou helpen voorkomen dat het soort catastrofale fouten zoals Birma’s, dus hij zou meer verantwoordelijkheid te nemen en beter te beschermen werknemers tegen schade aan hun geestelijke gezondheid.

Dat de matiging van de inhoud inhoudt dat wordt blootgesteld aan een aantal verschrikkelijke materiaal lijkt een onvermijdelijke realiteit, zelfs als het werk intern wordt uitgevoerd. Echter, er is veel meer het bedrijf zou kunnen doen om dat gemakkelijker te maken: beter te evalueren moderators om ervoor te zorgen dat ze echt bewust zijn van de risico’s van het werk, bijvoorbeeld, en zorgen voor top-notch zorg en advies.

Barrett is van mening dat content moderatie iets zou kunnen zijn dat alle Facebook-medewerkers moeten doen voor ten minste een jaar als een soort van “turn of service” en om hen te helpen begrijpen van de impact van hun beslissingen.

Het rapport stelt acht aanbevelingen voor Facebook:

Stop met het uitbesteden van content moderatie en het opzetten van een moderator station in het bedrijf zelf.

Dupliceer het aantal moderators om de kwaliteit van de inhoudsbeoordeling te verbeteren.

Huur iemand in om inhoud en factverificatie te controleren die hij/zij rechtstreeks aan de CEO of COO zou rapporteren.

Verdere uitbreiding van de matiging in risicolanden in Aziƫ, Afrika en elders.

Bied alle moderators hoogwaardige medische zorg ter plaatse, inclusief toegang tot psychiaters.

Sponsor onderzoek naar de gezondheidsrisico’s van content moderators, met name PTSS (Post Traumatic Stress Disorder).

Leave a comment

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *