Agência Andorrana de Proteção de Dados recomenda cautela com chatbots de IA para proteger dados pessoais
A inspectora de proteção de dados Anna Coma alerta os residentes para manusearem ferramentas de IA com cuidado, traçando paralelos com os medos dos anos 80 em relação às calculadoras, e sublinha a privacidade.
Pontos-chave
- Chatbots de IA arriscam «alucinações» como sistemas probabilísticos treinados em dados pessoais.
- Implementar privacidade por conceção: segurança robusta, transparência, consentimento explícito.
- Utilizadores devem rever definições de privacidade, ativar 2FA, proteger dados pessoais.
- Empresas devem cumprir para mitigar riscos no mundo digital.
A Agência Andorrana de Proteção de Dados instou os residentes a abordarem as ferramentas de inteligência artificial, particularmente os chatbots, com cautela para salvaguardar os dados pessoais, face à sua crescente popularidade.
Num artigo de opinião publicado pelo *Diari d'Andorra*, Anna Coma, inspectora de proteção de dados da agência, traça paralelos entre a resistência histórica às calculadoras nos anos 80 e as hesitações atuais face à IA. Ela refere um artigo do *Washington Post* de 1986 que detalha protestos de professores de matemática contra a integração de calculadoras nos currículos escolares para trabalhos de aula, casa e avaliações. Coma argumenta que, tal como as calculadoras libertaram tempo para uma reflexão mais profunda ao simplificar cálculos, os chatbots de IA — alimentados por modelos de linguagem de grande dimensão — oferecem potencial semelhante, mas exigem um manuseamento cuidadoso.
Estes modelos funcionam como sistemas probabilísticos treinados em vastos conjuntos de dados, incluindo informação pessoal, para prever sequências de palavras em vez de verificar factos. Esta limitação pode levar a «alucinações», ou saídas imprecisas, explica Coma. Crucialmente, ela enfatiza que a proteção de dados deve ser incorporada desde o início, tanto por parte dos developers como dos utilizadores.
As principais recomendações incluem configurar ferramentas de IA com privacidade por conceção e definições predefinidas: implementar medidas de segurança robustas, fornecer informação transparente sobre o processamento de dados e obter consentimento explícito dos utilizadores. Para os indivíduos, Coma aconselha rever as definições de privacidade em dispositivos e serviços, ativar a autenticação de dois fatores e proteger ativamente os dados pessoais.
A agência sublinha que o cumprimento por parte das empresas e entidades andorranas, aliado à consciencialização pública, ajudará a mitigar riscos num mundo cada vez mais digital. Coma conclui que dominar estas ferramentas de forma segura, tal como tecnologias passadas, requer superar o medo do desconhecido através de um uso informado.
Fontes originais
Este artigo foi agregado a partir das seguintes fontes em catalao: