Home > In de media > Hoe de democratisering van nieuws heeft gezorgd voor een oneindige stortvloed aan fake news | Column

Hoe de democratisering van nieuws heeft gezorgd voor een oneindige stortvloed aan fake news | Column

Trump

H

et grootste probleem van deze tijd zijn niet robots die onze banen inpikken, het broeikaseffect, of Trump (hoewel…), maar de menselijke goedgelovigheid.

En dat in een tijd waarin de publieke opinie wordt gestuurd door sociale media en online nieuwsberichten. Berichten die per definitie wantrouwen moeten opwekken; ze kunnen tenslotte door iedereen verspreid zijn. Die democratisering van nieuws heeft gezorgd voor een oneindige stortvloed aan nepnieuws. Dat is sneller gegaan dan dat wij, de generatie opgegroeid met het idee dat wat gedrukt staat de waarheid is, ons hebben kunnen aanpassen.

Ik zou me graag distantiëren van de goedgelovigen; maar hoe kan ik zeker weten zelf nooit in een nepbericht getrapt te zijn? Berichten worden namelijk steeds beter. Dankzij kunstmatige intelligentie en machine-learningsystemen wordt het steeds lastiger echt van nep te onderscheiden. Er is een digitale, seksuele selectie aan de gang: berichten waarop het meest geklikt wordt, mogen zichzelf voortplanten; anderen wordt subiet de nek omgedraaid. Dat voortplanten regelen algoritmes: daar komt geen mens meer aan te pas.

Neem het reviewschandaal dat vorige maand in het nieuws kwam. Het nieuwe boek van Hillary Clinton ontving op Amazon in no-time wel erg veel positieve recensies. Zoveel, dat de review-waakhonden er vraagtekens bij plaatsten. Wat bleek? Het leeuwendeel van de reviews was nep: geschreven en geplaatst door een bot die op basis van duizenden echte reviews, zijn eigen reviews uitpoept. Een goed beoordeeld product komt dankzij de algoritmes van een site als Amazon prominent bovenaan de site, wat de verkoop ten goede komt. Gelukkig hebben partijen als Amazon hun eigen algoritmes om dergelijke nepreviews op te sporen. Maar die blijken, volgens wetenschappers, makkelijk voor de gek te houden met nóg slimmere software.

Nobel streven

Niet alleen online teksten zijn onbetrouwbaar; ook audio en video zijn niet altijd waar. Want ook al zie je bijvoorbeeld Obama recht in de camera iets zeggen; het kan zomaar nep zijn. Wetenschappers van de University of Washington ontwikkelden vorig jaar namelijk een machine-learningsysteem dat op basis van audio een levensechte video maakt. Lipbewegingen van bijvoorbeeld Obama worden in realtime gesynchroniseerd met het geluidsfragment. En zo kun je iedereen alles laten zeggen. Waarom ontwikkelt een universiteit zoiets in hemelsnaam? Ze hebben een nobel streven: zo kunnen doven een speech die alleen in audio-vorm bestaat, ‘horen’ door te liplezen. En dan zijn er nog tal van toepassingen voor de game- en filmindustrie. Maar zoals met alles, is het eenvoudig te misbruiken.

Voor het menselijk oog wordt het steeds lastiger de waarheid te vinden; we zullen steeds meer moeten vertrouwen op goedaardige algoritmes die ons tegen kwaadwillende systemen in bescherming nemen. Een wapenwedloop met onze goedgelovigheid als inzet. What could possibly go wrong?

Deze column verscheen eerder in Technisch Weekblad.
You may also like
AI PA
Iedereen een AI als persoonlijk assistent… Techionista’s Nicoline wil het wel!
Humanoid Sophia
Robotrechten | Column
Hacking the brain
Hoofdzaken | Column Technisch Weekblad
Burgerking spam
Spraakspam | Column Technisch Weekblad

Leave a Reply