Retour a l'accueil
Autres·

L'Agence andorrane de protection des données appelle à la prudence avec les chatbots IA pour protéger les données personnelles

L'inspectrice de la protection des données Anna Coma met en garde les résidents contre une utilisation imprudente des outils IA, en comparant aux craintes des calculatrices dans les années 1980, et insiste sur la confidentialité.

Synthese a partir de :
Diari d'Andorra

Points cles

  • Les chatbots IA risquent des « hallucinations » en tant que systèmes probabilistes entraînés sur des données personnelles.
  • Appliquer la confidentialité par conception : sécurité robuste, transparence, consentement explicite.
  • Les utilisateurs doivent vérifier les paramètres de confidentialité, activer la double authentification, protéger leurs données personnelles.
  • Les entreprises doivent se conformer pour atténuer les risques dans le monde numérique.

L'Agence andorrane de protection des données a appelé les résidents à aborder avec prudence les outils d'intelligence artificielle, en particulier les chatbots, pour protéger leurs données personnelles face à leur popularité croissante.

Dans un article d'opinion publié par *Diari d'Andorra*, Anna Coma, inspectrice de la protection des données de l'agence, établit des parallèles entre la résistance historique aux calculatrices dans les années 1980 et les hésitations actuelles face à l'IA. Elle cite un article du *Washington Post* de 1986 relatant les protestations des professeurs de mathématiques contre l'intégration des calculatrices dans les programmes scolaires pour les devoirs, les exercices en classe et les évaluations. Coma argue que, tout comme les calculatrices ont libéré du temps pour une réflexion plus approfondie en simplifiant les calculs, les chatbots IA – alimentés par de grands modèles de langage – offrent un potentiel similaire mais exigent une manipulation prudente.

Ces modèles fonctionnent comme des systèmes probabilistes entraînés sur d'immenses ensembles de données, y compris des informations personnelles, pour prédire des séquences de mots plutôt que pour vérifier des faits. Cette limite peut entraîner des « hallucinations », ou des sorties inexactes, explique Coma. Surtout, elle souligne que la protection des données doit être intégrée dès le départ, tant par les développeurs que par les utilisateurs.

Les recommandations clés incluent la configuration des outils IA selon le principe de la confidentialité par conception et par défaut : mise en place de mesures de sécurité robustes, fourniture d'informations transparentes sur le traitement des données, et obtention d'un consentement explicite des utilisateurs. Pour les particuliers, Coma conseille de vérifier les paramètres de confidentialité sur les appareils et services, d'activer l'authentification à deux facteurs, et de protéger activement les données personnelles.

L'agence insiste sur le fait que le respect des obligations par les entreprises et entités andorranes, combiné à une sensibilisation du public, permettra d'atténuer les risques dans un monde de plus en plus numérique. Coma conclut que maîtriser ces outils en toute sécurité, comme les technologies passées, nécessite de surmonter la peur de l'inconnu par un usage éclairé.

Partager l'article via

Sources originales

Cet article a ete agrege a partir des sources catalanes suivantes :