Les réseaux sociaux offrent la possibilité de s’informer rapidement et relativement facilement sur divers sujets. Cependant, ces possibilités s’accompagnent également de certains risques : comme tout le monde peut partager des contenus, il n’est plus possible de garantir que toutes les informations sont véridiques.
Ces dernières années, la quantité de fausses informations a rapidement augmenté. Les faits et les informations fiables sont de plus en plus remis en question. Si l’UDC parvient à ses fins, cette évolution devrait encore s’accentuer avec l’initiative anti-SSR. L’initiative demande une réduction de moitié des fonds alloués à la SSR. Cela reviendrait à démanteler la radiodiffusion publique et affaiblirait encore davantage le journalisme indépendant.
Le flux de fausses informations devrait ainsi continuer à augmenter. Parallèlement, ce sont de plus en plus souvent des milliardaires et des oligarques qui déterminent, sur des plateformes en ligne telles qu’Instagram ou X, les contenus auxquels nous avons encore accès.
La désinformation avec des contenus générés par l’IA
L’intelligence artificielle (IA) est de plus en plus largement disponible et abordable. Ainsi, elle peut être facilement utilisée pour créer des vidéos, des images et des textes. Ces contenus inondent également les réseaux sociaux.
Une étude menée par « AI Forensics » sur un échantillon prélevé à l’été 2025 a montré que 25 % des contenus vidéo sur TikTok sont générés par l’IA ou contiennent des éléments d’IA. De plus, l’IA ne cesse de s’améliorer. Les contenus générés par l’IA sont souvent difficiles à reconnaître en tant que tels, et il est presque impossible de distinguer les informations sérieuses des fausses informations.
Cela représente un danger considérable pour les médias, en particulier si la frontière entre les contenus authentiques et ceux générés artificiellement continue de s’estomper. Le fait que ce mélange de contenus soit souhaité ou du moins toléré par les opérateur-trices de plateformes est également démontré par la suppression des vérifications des faits aux États-Unis, par exemple sur les plateformes Facebook et Instagram de Mark Zuckerberg.
Les contenus manifestement trompeurs, faux, discriminatoires ou racistes ne sont plus vérifiés par des vérificateurs de faits indépendants. Même s’il le sont, ils sont supprimés beaucoup plus lentement. À cela s’ajoutent les sections de commentaires dans lesquelles les discours haineux ne sont pas modérés.
Vérification des faits par les médias traditionnels
Une augmentation des discours haineux et des fausses informations : tel est le scénario probable en Suisse si l’initiative anti-SSR est acceptée. Actuellement, les médias indépendants vérifient les informations et nous fournissent des actualités fiables, élaborées selon des critères journalistiques. Contrairement aux réseaux sociaux, les contenus des médias indépendants sont soumis à une procédure institutionnalisée visant à empêcher les fausses informations. Cela n’empêche pas complètement la diffusion de fausses nouvelles par ces médias, mais la limite.
La SSR utilise par exemple son « réseau de vérification des faits » pour ne pas diffuser de fausses informations dans ses formats et ne diffuser que des informations vérifiées. Si l’initiative anti-SSR était acceptée, cette vérification des faits ne serait plus possible dans la même mesure. Cela ouvrirait la voie à une diffusion encore plus large des fausses informations.
Les « deepfakes » constituent un autre phénomène très problématique. Les deepfakes sont des contenus photo ou vidéo manipulés à l’aide de l’IA. Par exemple, en parcourant actuellement la plateforme X d’Elon Musk, on est confronté à des contenus générés par l’IA, suggestifs, voire pornographiques. Ceux-ci ont été créés à l’aide du chatbot interne de Musk, « Grok ».
Les deepfakes pornographiques ne sont pas le premier scandale lié à « Grok ». En juillet 2025 déjà, le chatbot s’était fait remarquer pour ses contenus nazis. Ce qui est particulièrement problématique avec les photos de nudité, c’est qu’elles touchent principalement des femmes et des enfants. Le chatbot ajoute simplement un corps nu à leurs photos — il est extrêmement difficile, voire impossible, de s’en protéger.




