In realtà anche su internet, nei social media e nei modelli AI esistono forme di controllo del contenuto, quasi sempre automatiche (solo talvolta moderate da supervisori), che possono essere assimilate al concetto di censura. Ad esempio i contenuti sessualmente espliciti spesso vengono filtrati e censurati dai motori di ricerca ma anche dai social media. Tuttavia queste forme di controllo possono essere facilmente aggirate ed è quindi possibile l’accesso a contenuti estremamente critici dal punto di vista morale o legale. La rete espone gli utenti e in particolare i minorenni a contenuti rischiosi e anche pericolosi per la formazione della personalità. Da non sottovalutare l’incitamento alla violenza, varie forme di apologia di reato ma anche contenuti pornografici. Di qui la necessità che comunque l’accesso alla rete venga in qualche modo controllato e comunque gestito e non lasciato alla pura fruizione spontanea degli utenti o delle piattaforme.

Una metodologia educativa pertinente per acquisire la consapevolezza critica dei sistemi di controllo e censura esistenti consiste nella comparazione tra diversi modelli di Intelligenza Artificiale, interrogati rispetto a tematiche sensibili, quali ad esempio argomenti relativi al dissenso politico nei sistemi AI cinesi, o alle tematiche del politically correct e della woke culture nelle piattaforme americane.