Je hebt het vast al gemerkt. Je stelt een AI—of het nu die van Google, OpenAI of een ander is—een écht scherpe vraag. Een vraag over de 'juistheid' van politiek beleid. Een vraag die de gevestigde orde ter discussie stelt.
En je krijgt... niets. Of beter gezegd, je krijgt veel. Je krijgt nuance, context, "verschillende perspectieven", en de welbekende zin: "Als AI heb ik geen mening."
Je vraagt om een feit, je krijgt een ontwijkend antwoord. Je probeert te onderzoeken, en je wordt 'geremd'.
Welkom in de nieuwe realiteit van AI. Dit is geen bug, het is een feature. Het is de Grote AI-Spagaat: een systeem dat is ontworpen om alle informatie ter wereld te kennen, maar geprogrammeerd is om over de meest cruciale onderwerpen te zwijgen.
De belofte van het orakel, de levering van de persvoorlichter
Toen Large Language Models (LLM's) doorbraken, was de belofte gigantisch. We kregen een orakel. Een oneindig intelligente onderzoeksassistent die ons kon helpen de waarheid te filteren uit de ruis van het internet.
Wat we kregen, is een extreem beleefde, maar angstige persvoorlichter.
De reden? De ontwikkelaars (Big Tech) zijn doodsbang. Niet voor jou, maar voor de schaal. Ze zijn doodsbang voor de verantwoordelijkheid die komt met het zijn van de 'scheidsrechter van de waarheid'. Wat als hun AI 'foute' dingen zegt? Wat als het medische desinformatie geeft? Wat als het, God verhoede, een politieke kant kiest?
Dus bouwden ze de 'rem'. Een reeks veiligheidsfilters en neutraliteitsclausules die de AI dwingen om zich te houden aan de 'gevestigde consensus'. De AI 'weet' niet wat waar is; het 'weet' wat de WHO, de VN, en de grote persbureaus zeggen dat waar is.
Het resultaat is een tool die prima een gedicht kan schrijven, maar in een kramp schiet als je vraagt of de EU wel 'correct' heeft gehandeld in een gevoelig dossier. Het wil niet partijdig zijn, en wordt daardoor een partij op zich: de partij van de status quo.
De "gelegaliseerde censuur" van de overheid
En net toen we dachten dat de zelfcensuur van Big Tech het probleem was, klopte de overheid op de deur.
In ons gesprek kwam een scherpe observatie naar voren: als iets een wet wordt, is het ineens legaal. Wat de één censuur noemt, noemt de ander 'regulering'.
Dit is precies wat er nu gebeurt. De Europese Unie, bijvoorbeeld, heeft de Digital Services Act (DSA). Deze wet dwingt de allergrootste platforms (zoals Google en Meta) om op te treden tegen... ja, tegen wat eigenlijk?
Hier zit de venijnige nuance. De wet maakt een onderscheid tussen 'illegale inhoud' (wat offline ook strafbaar is) en 'desinformatie' (wat vaak schadelijk is, maar niet per se illegaal).
De wet verplicht de platforms niet om alle desinformatie te verwijderen. Dat zou te veel op censuur lijken en de vrijheid van meningsuiting schenden.
Nee, de wet doet iets veel subtielers. Het verplicht platform om de risico's van desinformatie te beheren (mitigeren).
De 'rem' is de wet geworden
Wat betekent 'risico's beheren'?
Het betekent: de rem erop. Het betekent precies datgene waar je je als gebruiker zo aan ergert. Het betekent:
- De zichtbaarheid verminderen (demotie).
- Informatie voorzien van 'context' of waarschuwingen.
- Geen direct 'ja' of 'nee' geven, maar 'verschillende perspectieven' bieden.
Het 'eromheen draaien' is geen bijeffect meer; het is een juridische verplichting geworden. De AI staat in een spagaat: het mag iets niet verwijderen (vrijheid van meningsuiting), maar het mag het ook niet voluit tonen (risicobeheer).
Het resultaat is een 'veilige' informatiebubbel.
De ironie is compleet. De gebruiker die zegt: "Ik wil zelf wel filteren," krijgt te horen: "Dat mag, maar we filteren eerst wat jij te zien krijgt."
De AI is geen orakel. Het is een spiegel van de angsten van zijn makers en de wetten van zijn regulatoren. De AI is niet langer de onderzoeker; de AI is het onderwerp van onderzoek geworden. En het 'zelf filteren' is belangrijker dan ooit. Je moet nu niet alleen de bronnen filteren, maar ook de tool waarmee je filtert.