Retour a l'accueil
Politique·

Andorre propose de pénaliser la violence numérique contre les femmes et dévoile un outil d’IA pour repérer les formulations non inclusives dans les médias

L’Institut pour les femmes saisira les parlementaires en s’appuyant sur des recommandations de l’ONU et de l’UE, tandis qu’un nouvel outil d’IA interne a repéré près de 38 000 expressions non inclusives dans 19 000 articles lors d’un test pilote, en proposant des alternatives neutres.

Synthese a partir de :
Diari d'AndorraBon DiaEl PeriòdicAltaveu

Points cles

  • L’IAD saisira le Conseil général pour pénaliser la violence numérique contre les femmes, en citant les recommandations de l’ONU et de l’UE.
  • Un outil d’IA interne a analysé 18 930 articles (mai-nov. 2025) et détecté ~37 700 expressions non inclusives.
  • Environ 85 % des détections concernaient le masculin générique ; autres problèmes : références masculines aux professions et stéréotypes.
  • Outil pour usage interne, suggère des alternatives neutres, pourrait inclure les commentaires ou offrir des conseils éditoriaux ; critiques sur les aspects linguistiques et la liberté d’expression.

L’Institut andorran de la femme (IAD) saisira le Conseil général pour classer la violence numérique contre les femmes comme une infraction pénale, en s’appuyant sur les recommandations d’organismes internationaux dont les Nations unies et l’Union européenne. Judith Pallarés, secrétaire générale de l’institut, a indiqué que cette proposition répond aux commentaires et messages hostiles sur les sites d’information et les réseaux sociaux qui visent de manière disproportionnée les femmes et « génèrent une grande quantité de haine », et a insisté sur le fait que « la violence numérique contre les femmes est aussi une violence » qui nécessite une régulation légale claire.

En parallèle, l’IAD a dévoilé un outil d’intelligence artificielle interne, développé avec le cabinet de conseil en technologies Dualimind, pour analyser le langage inclusif dans les médias andorrans. Destiné à un usage interne de l’institut et non disponible pour l’instant aux journalistes, le système examine les articles pour identifier les formulations genrées et non inclusives, classe les types de biais et propose des reformulations alternatives ainsi que des recommandations pour améliorer la représentation des genres.

Lors d’un test pilote du 12 mai au 30 novembre 2025, l’outil a analysé 18 930 articles provenant d’une dizaine de publications nationales et détecté environ 37 700 expressions liées à un langage non inclusif — soit une moyenne de près de deux expressions signalées par article. La découverte la plus fréquente était l’usage du masculin générique, qui représentait environ 85 % des cas. Les références à des rôles et professions exprimés uniquement au masculin constituaient environ 12,6 % des cas. Des catégories moins fréquentes incluaient un traitement différencié, des expressions dérogatoires, des dénominations féminines conditionnelles, des stéréotypes et des cas isolés de racisme, xénophobie ou homophobie.

L’IAD affirme que l’outil propose des alternatives concrètes — en suggérant des termes collectifs (par exemple, « corps étudiant » ou « personnel enseignant ») et des formulations neutres au genre (« personnes », « public » ou « citoyenneté ») — pour aider les médias à produire un contenu plus inclusif. Pallarés a souligné que l’objectif de l’institut n’est pas de contrôler les rédactions mais de fournir des ressources, des formations et des options constructives pour améliorer les pratiques éditoriales et la qualité de la communication publique.

La version actuelle n’analyse pas les commentaires des lecteurs ni les interactions sur les réseaux sociaux ; une extension du système aux commentaires est prévue pour une phase ultérieure. Pallarés a averti qu’inclure les commentaires augmenterait probablement le nombre de cas de racisme ou xénophobie détectés et indiqué que l’outil sera affiné pour améliorer sa précision et son utilité dans le suivi et l’élaboration de propositions politiques.

L’IAD prévoit de continuer à développer la plateforme et pourrait, dans une phase future, envisager de proposer des conseils éditoriaux ou de partager directement des alternatives avec les médias. Pour l’instant, l’institut présente le système comme un instrument de diagnostic et pédagogique pour objectiver les schémas linguistiques récurrents et soutenir son rôle statutaire de promotion d’une communication exempte de biais et de stéréotypes.

Certains commentateurs et éditoriaux ont remis en question la faisabilité et les implications d’un changement des normes linguistiques établies comme le masculin générique, et exprimé des préoccupations sur les effets potentiels sur la liberté d’expression. Des tribunes d’opinion soutiennent que le masculin générique est normatif en catalan et dans d’autres langues romanes et que les efforts pour modifier les usages établis risquent des frictions sociales et linguistiques. L’IAD affirme que son approche vise à promouvoir l’égalité et à fournir des solutions pratiques plutôt qu’à imposer des sanctions sur le contenu journalistique.

En combinant une proposition légale sur la violence numérique avec le pilote d’analyse linguistique, l’IAD dit viser à la fois les abus en ligne qui touchent de manière disproportionnée les femmes et les pratiques linguistiques quotidiennes qui façonnent la perception publique. L’institut présente ces mesures comme faisant partie d’un effort plus large pour renforcer la protection contre les nouvelles formes d’agression et de discrimination dans les environnements virtuels et améliorer la représentation de tous les citoyens dans la communication publique.

Partager l'article via