Twee dingen zijn vermoeiend bij het consumeren van schermtijd op sociale media en ze hebben allebei te maken met de manier waarop de algoritmen de inhoud detecteren en leveren aan individuele behoeften, het eerste is de irrelevantie van de geserveerde inhoud en het tweede de slechte capaciteit van het algoritme voor het ontdekken van nieuwe gepersonaliseerde onderwerpen.

Artikel geschreven door: Corina Bordeianu 

Dit jaar verveelde ik me meer dan de vorige jaren op veel kanalen tijdens het scrollen door de posts van mijn vrienden of de accounts die ik volgde, omdat ik veel meer posts van het algoritme kreeg voorgeschoteld. Als gevolg daarvan nam mijn schermtijd af en nam in plaats daarvan de tijd voor het lezen van boeken, nieuws en blogs toe. En ik had ook tijd om de volgende gedachten samen te stellen.

Mijn betoog hier is strikt vanuit het perspectief van de gebruiker opgebouwd. Ik heb het helemaal niet over advertenties, hoewel de meeste mechanismen achter de werking van de algoritmen vooral werden ontwikkeld om merken kwalitatief hoogstaande targetingmogelijkheden te bieden, en mechanismen te ontwikkelen die sterke prestaties en conversies garanderen. Hier verwijs ik naar de organische/referente inhoud die een individu krijgt voorgesteld in zijn nieuwsfeed.

Over het algemeen bieden de sociale netwerken content aan op basis van het hoge aantal engagements of views dat de content registreert of de ranking autoriteit geteld door het aantal volgers dat de account heeft en de interactie die de gebruiker heeft met die account. Deze inhoud garandeert echter geen relevantie voor één individu of een groep gelijkaardige individuen, het betekent enkel dat de inhoud werd bekeken door een groot segment van mensen wier interesses sterk kunnen verschillen. De inhoud wordt geliked, gedeeld, opgeslagen, becommentarieerd of bekeken door een amorfe massa mensen die, gescheiden in verschillende demografische of psychografische groepen, misschien niets met elkaar gemeen hebben. De sociale netwerken zelf zouden kunnen argumenteren dat individuen het algoritme kunnen trainen en het platform kunnen laten weten dat ze de inhoud niet nuttig vinden, maar de vraag is of ze bereid zijn om dit te doen? Is deze activiteit lonend genoeg om er tijd aan te willen besteden? Een individu wil misschien nieuwe dingen ontdekken, maar om het platform op de hoogte te brengen van elke inhoud die hij niet interessant vindt, is tijdverspilling.

Hier zijn enkele van de inspanningen die platformen leveren om algoritmes te ontwikkelen ten voordele van gebruikers, met voor- en nadelen, die het bespreken waard zijn.

Facebook was het eerste platform waar mensen klaagden dat ze in dezelfde bubbel werden gehouden. Zelfs toen groepen ongeveer twee jaar geleden werden uitgebreid en door het platform werden gepromoot, was het nog steeds moeilijk om nieuwe dingen te ontdekken, behalve als je vrienden geïnteresseerd raakten in andere onderwerpen. Facebook was een van de eersten die moderatieregels opstelde om inhoud te melden en mensen in dienst nam voor de moderatie van inhoud voor naaktheid en gore en algoritmen en machines leerden van deze inspanningen. Radio Lab heeft dit onderwerp zeer goed behandeld in een aantal podcasts, geproduceerd door Simon Adler. Om er maar een te noemen: Post no Evil – 2018.

Vorig jaar heeft Instagram de Explore feed gebouwd, waar je content kon ontdekken die gemaakt is door mensen die je niet volgt, de zogenaamde content creators. Het doel achter deze feed en de gewone of story feed is om een monetisatie programma op te bouwen, net zoals Youtube er een heeft. De gemiste kans hier is dat de inhoud die je niet hebt gekozen om te zien en die wordt geserveerd in explore/ feed of stories niet wordt beïnvloed door waar je in geïnteresseerd bent. Het algoritme serveert inhoud rekening houdend met statistieken zoals tijd bekeken op de geserveerde inhoud, de betrokkenheid bij de inhoud geteld in likes, opmerkingen en saves en de informatie over het account dat de inhoud heeft gepost en uw activiteit met dat account. De grootste verspilling aan de kant van Instagram, is naar mijn mening het dumpen van hashtags en het niet hebben van een goede manier om de inhoud te segmenteren met behulp van trefwoorden. Hier is een artikel geschreven door Adam Mosseri, hoofd van Instagram, waarin hij het algoritme van Instagram uitlegt.

Ongeveer vijf jaar geleden begon Twitter met het pushen van inhoud die zij beschouwden als de beste tweets naar de bovenste rang van de feeds van hun gebruikers. Ze brachten ook de “in case you missed it” functie” om de “while you’ve been away” te vervangen. Nu combineert Twitter recency, engagements en top ranked tweets met nieuws dat nu gebeurt en het aantal volgers of de locatie van de accounts – allemaal dimensies die al bestaan in het platform en gemoduleerd kunnen worden. Naar mijn mening waarborgen ze niet de relevantie voor verschillende doelgroepen. De inhoud is zelf relevant voor de post zelf, maar niet voor de mensen die hem consumeren. Er verschijnen deze dagen veel discussies in het nieuws waarin wordt gevraagd om een beter algoritme, nu Elon Musk heeft besloten Twitter te kopen, nu hij er nog over nadenkt. Musk denkt dat het algoritme van Twitter feeds manipuleert, terwijl Jack Dorsey, de oprichter van Twitter het daar niet mee eens is. De gesprekken over dit onderwerp nemen toe en zijn rijk aan inzichten over de beslissing om het algoritme openbaar te maken. Hier is een inzichtelijk artikel uit de Washington Post.

TikTok is one of the platforms that changes fast the machine learning capabilities based on users behaviour consuming short video content. Het algoritme is zeer gepersonaliseerd en het omvat verschillende onderwerpen uit een gebied van diversiteit en inclusie onderwerpen. Daar hou ik van. Ik hou van het feit dat ik kan kijken naar een blinde die uitlegt hoe hij het leven ziet en ik hou van de creativiteit van mensen die inhoud posten over hun authentieke zelf. Mijn enige rode vlag met TikTok op dit moment, naast de zelfbeschadigende inhoud die ze begonnen aan te pakken, is gerelateerd aan het serveren van voornamelijk entertainment inhoud. Er is geen educatieve inhoud op het platform, niet dat ik kon vinden tenminste, noch informatieve. Soms heb ik het gevoel dat ze te veel de aandacht trekken om te kunnen concurreren met een lange film, een webinar, een boek, een artikel.

Het ontdekken van nieuwe interesses/onderwerpen lijkt gemakkelijk te werken voor twee van de platformen: LinkedIn en YouTube.

Een goed voorbeeld komt van LinkedIn. Het professionele netwerk dat eigendom is van Microsoft investeert in een redactieteam dat inhoud creëert, maar ook cureert, van leden en van uitgevers om ervoor te zorgen dat er inhoud van goede kwaliteit wordt geleverd aan het LinkedIn-publiek. Ze hebben ook moeite gedaan om het algoritme ten goede te trainen en hun feed-algoritme bij te werken om engagement-baiting posts en polls lager te rangschikken.

Voor Youtube wordt het zoekgedrag van gebruikers in het platform gevoed met technieken die door de grote zus van YouTube worden toegepast. Uiteindelijk is YouTube een zoekplatform en de dingen die Google heeft geleerd op het gebied van zoeken zijn toegepast in de machine leaning functies van YouTube. Ze doen een briljante baan als gevolg van de mogelijkheid om te luisteren naar wat mensen zoeken en vervolgens de juiste inhoud te vinden, misschien duurt het een paar dagen, weken of totdat het wordt ook gemaakt en vervolgens serveren aan diegenen die geïnteresseerd zijn. Dat vermogen om te luisteren naar wat mensen zoeken stelt YouTube in staat om zowel de kijker als de maker te bedienen en dit voelt dichter bij een menselijke ervaring dan het duwen van de inhoud omdat iemand op een knop drukte, of dat nu de like, play, save, share, comment of follow is.

Een langetermijnoplossing voor het trainen van algoritmen zou zijn om meer onderzoek te doen naar de manier waarop mensen met de algoritmen omgaan, buiten de platformdimensies die door machine-learningsystemen kunnen worden gemoduleerd. De twee voorbeelden van LinkedIn over het down-ranken van engagements en het cureren van de feed door experts, zijn goede aanzetten tot nadenken. Platforms zouden mensen in dienst kunnen nemen om meer te leren over content curation, verder dan alleen privacy en veiligheid. Ik zie vaak van die nieuwe banen verschijnen, Content moderators omwille van beveiliging en veiligheid. Waarom geen banen uitvinden voor het modereren van alle content, door mensen geselecteerde en gesegmenteerde content waardoor machines van mensen kunnen leren, terwijl er een gezonde gebalanceerde diversiteit is tussen geslachten, economische klassen, rassen, handicaps, culturele achtergronden, religies, etc, om alle potentiële vooroordelen aan te pakken. Samenwerken met universiteiten voor dit soort onderzoek, uit verschillende delen van de wereld, zou veel zin hebben. Een partnerschap met universiteiten zou ook betekenen dat de algoritmebeslissingen een stap dichter bij publieke beslissingen komen.

Originele artikel te vinden via: https://www.linkedin.com/pulse/social-media-algorithm-fatigue-2022-corina-bordeianu/ 

Leave A Comment