Deepfakes, voix clonées, bots. L’IA bouscule la campagne, mais les garde-fous progressent : obligations de transparence en Europe, politiques des plateformes, cellules de vérification dédiées.
En Europe, l’AI Act est entré en vigueur en 2024 avec un calendrier d’application en 2025-2026. Les systèmes qui créent des contenus synthétiques doivent indiquer clairement qu’ils sont artificiels ; des obligations de transparence s’imposent aussi aux modèles généralistes.
Les plateformes affinent leurs règles : OpenAI limite l’usage politique de ses outils et renforce la traçabilité, Meta impose des déclarations quand des contenus politiques utilisent des techniques de modification réalistes. Ce n’est pas parfait, mais ça ferme des portes.
Des pays testent des réponses “terrain”. En Inde, la Deepfakes Analysis Unit s’appuie sur un WhatsApp tipline pour vérifier les médias suspects pendant les élections, un modèle duplicable ailleurs.
Est-ce que l’IA a déjà « renversé » une élection ? Les études restent mitigées : le risque est sérieux, surtout si un faux est repris par des comptes influents, mais l’ampleur des dégâts observés est variable. D’où l’intérêt d’outils publics d’alerte, de labels et de sanctions ciblées.









