Op woensdag 26 september vond het Studium Generale event ‘Achter de façade van Facebook’ plaats op het TU/e terrein. De spreker van dit event was Tom Kreling (de Volkskrant). Het event vond plaats in de Blauwe Zaal van het auditorium bij de TU/e. Wat werd er tijdens dit event behandeld?

Tom Kreling is een onderzoeksjournalist van de Volkskrant. Na het vinden van ‘Erik’ (een moderator bij Facebook) is hij in de kerstvakantie van 2017 aan de slag gegaan met interviews met Erik. Erik is een fictieve naam van een bestaand persoon. Deze persoon wilde anoniem blijven, omdat hij ook de geheimhoudingsplicht heeft getekend bij Facebook.

De werkzaamheden van Erik bestaan iedere dag uit het beoordelen van Facebookposts. Waarop worden deze dan beoordeeld?
• Haat;
• Seksueel misbruik;
• Terrorisme;
• Lugubere beelden etc.

Facebook werkt met mensen uit verschillende taalgebieden. In Berlijn zit een groot Facebook kantoor waar de mensen werken uit Latijns-Amerika, Italië, Nederland enzovoort.

Erik is dus werkzaam op de Nederlandse afdeling. Bij ieder taalgebied komen andere soorten beoordelingen vaker aan bod. Zo is het in het Arabische gedeelte vooral porno, in Latijns-Amerika seksueel misbruik en terrorisme en in Nederland gaat het vooral om haatuitingen.

Een medewerker zoals Erik heeft per post twaalf seconden de tijd om een post te beoordelen. Voor de enige post is dit natuurlijk makkelijker dan de andere. Zo werd het voorbeeld gegeven van kinderverkrachting. Als Erik daar een video van tegenkomt is het heel makkelijk om deze te verwijderen. Een ander voorbeeld was dat Erik een uitgehongerd jongetje tegen kwam waaronder een pizzadoos was gefotoshopt. Erik vond namelijk zelf dat dit verwijderd moest worden, maar nadat hij dat had gedaan, riep Facebook hem op het matje. Volgens de Facebook regels was dit namelijk satire en is dit toegestaan.

Facebook verteld dat het goed voor haar medewerkers zorgt. Alleen volgens Erik en andere medewerkers is dat absoluut niet het geval. De moderators krijgen de ergste dingen te zien, zoals verkrachting, onthoofding, terrorisme. Er zijn twee psychologen werkzaam en één ‘feelgood’ coach. Maar volgens de medewerkers voeren zij maar kleinschalig hun werk uit. Een voorbeeld hiervan is dat de feelgood coach zegt dat Erik in plaats van de eerste halte van de metro moet nemen, maar een paar haltes verder moet lopen zodat hij zijn hoofd even kan ontspannen. Maar zo makkelijk werkt het natuurlijk niet.

Nu vroeg ik me af waarom dit niet gewoon via algoritmes gecontroleerd kan worden. Tegenwoordig bestaan er zelfrijdende auto’s, dus waarom zouden algoritmes deze posts niet kunnen beoordelen. Het antwoord ligt heel simpel. Zoals de post met de jongen en de pizzadoos is het voor een computer moeilijk posts te onderscheiden. Tom Kreling gaf het voorbeeld aan met het ophalen van vuilnis. Ook dat werk zal (altijd) door mensen gedaan moeten worden.

Er zijn verschillende periodes waarop Facebook haar mensen instrueert om extra alert te zijn op soorten reacties of personen. Er bestaat namelijk een hiërarchie in personen. Zo wordt de ‘normale’ mens minder beschermd, dan een politicus. Boven de politicus staat nog de activist. Onder de activist kan je iemand als Sylvana Simons verstaan, aldus Kreling. In de periode waarbij de zwarte pieten discussie weer oplaait, wordt de instructie gegeven van Facebook aan haar medewerkers om Simons beter te beschermen.

Auteur: Tom van der Putten, Student Fontys Hogeschool Marketing Management