Contentfilters

De mooiste interactie is als je bij elkaar bent. Je brengt dan niet alleen over wat je zegt, maar het gaat ook om hoe je het zegt. Even belangrijk zijn de gebaren die je erbij maakt.

Live streamen komt het meest dichtbij die ervaring. Of dit nu een 1 op 1 FaceTime gesprek is, een uitzending van een bijzonder evenement, of een gave presentatie.

Live streamen is cool. Het heeft iets magisch. Je maakt deel uit van een unieke ervaring, want het gebeurt nu, en er kan van alles gebeuren. Het is alsof je er echt bij bent.

Dankzij live streaming wordt de wereld een stuk kleiner. Het wordt voor veel mooie en inspirerende zaken gebruikt om inzichten te delen en om mensen dichter bij elkaar te brengen, ook al zitten ze aan de andere kant van de wereld.

De techniek werkt ook bevrijdend: iedereen kan uitzenden. Kennis en informatie blijft daardoor niet in de macht van een select clubje. Het is tegenwoordig heel toegankelijk: met 1 klik in een app ben je live.

Helaas zit er aan alle techniek ook een keerzijde, in verkeerde handen. Zo zijn er gestoorde gekken die aanslagen plegen en dit live uitzenden. Mensen die deze mooie techniek misbruiken om hun haat en verderf te spuien, in de hoop de wereld te ontwrichten.

Terecht dat er daarom wordt geroepen om andere technieken, die in kunnen grijpen. Zo wordt er geprobeerd om met AI te detecteren of er zulke ernstige beelden worden uitgezonden. Die filters werken niet feilloos. Het is cru maar er zijn te weinig referentiebeelden.

Ook wordt AI ingezet om als fout aangemerkte video’s te herkennen, om te voorkomen dat ze opnieuw worden geüpload. Maar aangepaste video’s glippen gewoon door die filters heen.

Ook gebeurt het regelmatig dat filters goed materiaal blokkeren. Zo gaan bijvoorbeeld regelmatig livestreams op social platformen op zwart, omdat een filter auteursrechtelijk beschermd materiaal denkt te herkennen, terwijl het gewoon een uitzending van bijvoorbeeld een congres is.

Ook gebeurt het dat documentaires en archieven – die juist ten doel hebben om het publiek te informeren en te waarschuwen over geweld – per abuis door zulke filters op zwart worden gezet. Dan werkt het dus averechts.

En wat geldt voor alle techniek, is dat het in de verkeerde handen kan worden misbruikt. Dus ook die filters. Denk aan een tech-reus die uit commerciële of strategische belangen content blokkeert. Of denk aan een overheid die techbedrijven dwingt om de techniek in te zetten voor censuur.

Want wie bepaalt bijvoorbeeld wat nepnieuws is? Wat vrijheid van meningsuiting is? Wie bepaalt of er werkelijk haat wordt uitgezonden? Het is een risico om deze besluitvorming aan een bedrijf over te laten. Wat als ze de techniek uit eigen belang gaan inzetten? Of ertoe gedwongen worden? Hoe transparant is dit? Waar kun je terecht als je het er niet mee eens bent? En worden jouw belangen dan werkelijk neutraal afgewogen?

Misschien is het beter als dergelijke filters onafhankelijk worden ingezet. Onder toezien van een volstrekt onafhankelijke rechterlijke macht bijvoorbeeld. Snelrecht in seconden in plaats van dagen. Misschien is het een idee om hen die AI’s te laten ontwikkelen, en handmatig in te laten grijpen als het filter ernaast zit. Dan moet er op wereldschaal voor worden samengewerkt. Op zijn minst in EU-verband. Ik zie het nog niet gebeuren… tot die tijd: wees alert en kritisch op wat je ziet.

 

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s