Le magazine des maires et présidents d'intercommunalité
Maires de France
Pratique
26/11/2025 NOVEMBRE 2025 - n°439
Élections IA, Numérique, réseaux sociaux Sécurité - sécurité civile

Municipales 2026 et cybermenaces : tout savoir sur les hypertrucages

À l'approche des municipales, la vigilance des élus s'impose face aux contenus générés par l'intelligence artificielle à des fins malveillantes.

Par Olivier Devillers
Le premier danger pour les élus est qu'en tant que personnage public, leur voix et apparence, matière première d'un hypertrucage, est très facilement accessible.  
© AdobeStock
Le premier danger pour les élus est qu'en tant que personnage public, leur voix et apparence, matière première d'un hypertrucage, est très facilement accessible.  
Faux contenus, manipulation, images modifiées, vidéos truquées..., les deepfakes (hypertrucages) sont de plus en plus difficiles à détecter et représentent un risque pour les élus notamment en période électorale. Quelques clés pour s’en prémunir.
 

I - Hypertrucage

C’est la traduction choisie pour «deepfake », dérivé des expressions anglaises «deep learning » (apprentissage profond) et «fake » (faux). Il s’agit d’une technique de manipulation de contenus numériques – vidéos, images, sons – reposant sur l’intelligence artificielle (IA) générative.

Contrairement aux montages Photoshop qui exigeaient un savoir technique, quelques minutes suffisent pour les générer. Or leur capacité à recréer l’apparence, la voix ou même les expressions faciales d’une personne est saisissante. Et le premier danger pour les élus est qu’en tant que personnage public, leur voix et apparence, matière première d’un hypertrucage, est très facilement accessible.  
 

II - Cerner les risques

Pour un élu local, le principal risque d’un hypertrucage est de lui faire dire ce qu’il n’a pas dit afin de le discréditer ou de nuire à sa réputation. Les femmes sont plus particulièrement la cible de deepfakes pornographiques aux effets psychologiques dévastateurs.

Un autre risque est de voir se développer des arnaques financières. Il pourrait s’agir, par exemple, d’une voix ou d’une vidéo imitant l’élu(e) pour tenter d’extorquer de l’argent en simulant un appel aux dons, à l’occasion par exemple de la campagne électorale.

En plus de causer un préjudice financier aux victimes et de nuire à l’image des élus, ces attaques sont de nature à entamer la confiance nécessaire à la sérénité du débat démocratique local.  
 

III - Le cadre juridique et législatif

La multiplication des deepfakes a conduit les pouvoirs publics à renforcer la législation pour ce nouveau délit. La loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (SREN) interdit la publication des hypertrucages non consentis. Les peines sont d’un an d’emprisonnement et 15 000 euros d’amende, et peuvent être aggravées si le délit est commis via un service de communication au public en ligne.

Les deepfakes pornographiques sont punis encore plus sévèrement avec deux à trois ans d’emprisonnement et 60 000 à 75 000 euros d’amende.

En cas d’arnaque, les élus peuvent aussi se fonder sur «l’utilisation des données d’une personne (usurpation d’identité) dans le but de troubler sa tranquillité ou de porter atteinte à son honneur ou à sa considération » pour déposer plainte.

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dite «anti-fake news » permet à un juge des référés d’ordonner le retrait d’informations «manifestement fausses ou trompeuses » en période électorale.

À noter : les deepfakes à vocation humoristique sont tolérés, le juge étant (de fait) chargé de fixer la limite. Le règlement européen sur l’IA impose enfin que tout contenu généré par cet outil soit identifiable comme tel.  
 

IV - Vigilance et réactivité

Face à un risque avéré, la première consigne est de surveiller en permanence internet et les réseaux sociaux en s’appuyant sur les outils de veille automatisée proposés par les moteurs de recherche, les plateformes ou des prestataires spécialisés. Les habitants, premiers relais sur les réseaux, gagneront aussi à être sensibilisés à ce risque pour apprendre à identifier – même si c’est de plus en plus difficile – les hypertrucages : voix décalée, incohérences dans l’image, contours flous… La rapidité de la détection et de la réaction est la clé.

Les élus peuvent s’appuyer sur la plateforme 17cyber pour entrer en contact avec des gendarmes spécialisés qui les aideront à porter plainte et à saisir les entités compétentes. Parmi celles-ci, la Commission nationale de l’informatique et des libertés (Cnil) mais aussi l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) chargée de la régulation des contenus de synthèse (lire ci-dessous).

 

Les responsabilités de l’Arcom
L’Autorité de régulation de la communication audiovisuelle et numérique a vu ses pouvoirs renforcés par la loi SREN du 21 mai 2024 pour contrôler, sanctionner et ordonner le retrait de contenus numériques trompeurs ou dangereux.
Le projet d’organisation de régulation de l’IA présenté, en septembre, par le ministère de l’Économie, dans le cadre de la mise en œuvre de l’IA act européen du 13/06/2024, confirme cette mission. Il prévoit de charger l’Arcom de contrôler les systèmes d’IA servant à générer des contenus synthétiques ou à créer des hypertrucages.
L’Arcom est aussi compétente sur l’usage de l’IA dans le débat démocratique. 


Lire aussi notre dossier spécial " Cybersécurité : les outils pratiques "
 

Suivez Maires de France sur

Couverture

Cet article a été publié dans l'édition :

n°439 - NOVEMBRE 2025
Retrouver tous les articles de ce numéro :
Les offres d’abonnement
Toutes les éditions
Logo

Maires de France est le magazine de référence des maires et élus locaux. Chaque mois, il vous permet de décrypter l'actualité, de partager vos solutions de gestion et vous accompagne dans l'exercice de votre mandat. Son site Internet, mairesdefrance.com, vous permet d’accéder à toute l'information dont vous avez besoin, où vous voulez, quand vous voulez et sur le support de votre choix (ordinateur, tablette, smartphone, ...).