
TikTok bevat meer desinformatie dan andere grote socialmediaplatforms. Dat blijkt uit een grootschalig Europees onderzoek van Science Feedback, uitgevoerd in Frankrijk, Polen, Slowakije en Spanje. Uit de analyse van miljoenen berichten op onder meer Facebook, Instagram, LinkedIn, X en YouTube komt naar voren dat circa één op de vier TikTok-posts misleidende of onjuiste informatie bevat. Daarmee scoort het platform aanzienlijk hoger dan concurrenten als Facebook (15%), YouTube (12%) en X (11%). LinkedIn kent met ongeveer 1% veruit het laagste aandeel desinformatie.
De onderzoekers keken naar vijf gevoelige thema’s, waaronder gezondheid, klimaat, migratie en politiek. Vooral gezondheidsinformatie blijkt kwetsbaar: ruim 40% van alle desinformatie heeft betrekking op medische claims of behandelingen.
Probleem groter dan alleen ‘fake news’
Opvallend is dat het probleem nog groter wordt wanneer ook zogeheten ‘borderline’ en schadelijke content wordt meegerekend. In dat geval bestaat op TikTok zelfs circa 43% van de content uit problematische berichten, gevolgd door Facebook (34%) en X (32%). Op sommige platforms is daarmee meer problematische dan betrouwbare content zichtbaar.
Algoritmes belonen misinformatie
Het onderzoek wijst bovendien op een structureel mechanisme: accounts die regelmatig misleidende content verspreiden krijgen relatief veel bereik. Op X ontvangen dergelijke accounts tot tien keer meer engagement per bericht dan betrouwbare bronnen. Dit zogeheten ‘misinformation premium’ lijkt ook op andere platforms aanwezig.
Platforms verdienen eraan
Daarbij komt dat platforms nog altijd geld verdienen aan dit type content. Op YouTube blijkt 81% van de kanalen met twijfelachtige informatie inkomsten te genereren. Ook op Facebook worden misleidende accounts regelmatig gemonetiseerd, ondanks bestaande beleid.
Snelle opkomst AI-desinformatie
Een andere zorgwekkende ontwikkeling is de snelle groei van AI-gegenereerde desinformatie. Op TikTok bestaat inmiddels circa 24% van de misleidende video’s uit synthetische content, tegenover 19% op YouTube. Slechts een klein deel hiervan — ongeveer 16,5% — wordt als zodanig gelabeld, waardoor gebruikers vaak niet weten dat ze naar nepbeelden kijken.
Structureel probleem, geen incident
Volgens de onderzoekers is desinformatie geen bijproduct, maar een structureel onderdeel van hoe platforms functioneren. Die conclusie wordt versterkt doordat resultaten over meerdere meetmomenten consistent blijven.
Tegelijkertijd klagen de onderzoekers over beperkte medewerking van techbedrijven. Slechts één platform, LinkedIn, leverde volledige datasets aan. Inzicht in verdienmodellen rond desinformatie ontbreekt grotendeels, waardoor onafhankelijke controle moeilijk blijft.
De uitkomsten vergroten de druk op Europese regelgeving zoals de Digital Services Act. Die moet platforms dwingen transparanter te worden en effectiever op te treden tegen de verspreiding van misleidende informatie.
