ANPD investiga X, antigo Twitter, por uso de dados de usuários para treinar IA

Em movimento parecido com o da Meta, rede social mudou política de privacidade e configurou opção de compartilhamento de informações como padrão; Idec diz que pré-seleção do recurso é “design malicioso”
ANPD investiga X por uso de dados dos usuários para treinamento de IA
X entra na mira da ANPD por, sem consentimento, usar dados dos usuários para treinar IA (crédito: Freepik)

A Autoridade Nacional de Proteção de Dados (ANPD) abriu um processo de fiscalização contra o X (antigo Twitter) pelo uso de dados dos usuários para treinamento do Grok, a nova Inteligência Artificial (IA) da plataforma.

A investigação foi instaurada na sexta-feira passada, 26, após vir à tona que a rede social fez alterações em sua política de privacidade, colocando como opção padrão o compartilhamento de informações sem consentimento do usuário. Dessa forma, o compartilhamento de dados ocorre automaticamente. O usuário que não quer ter os dados coletados tem que desativar a função por conta própria.

Em nota encaminhada ao Tele.Síntese, a ANPD também informou que expediu um ofício ao X pedindo esclarecimentos sobre a mudança na política de privacidade e o treinamento da IA.

A situação é semelhante à da Meta. A dona de Facebook e Instagram está suspensa, por determinação da ANPD, de usar dados de brasileiros para treinar seus sistemas de IA. Segundo a autarquia, a big tech não fornecer informações claras e adequadas aos usuários a respeito dos fins para os quais coleta os dados.

A Meta, por sua vez, disse que o Brasil passa por “incertezas regulatórias” e adiou o lançamento da IA embarcada em aplicativos no País. O Instituto de Defesa do Consumidor (Idec) criticou a companhia liderada por Mark Zuckerberg e classificou a justificativa apresentada para adiar o lançamento do recurso de “falácia”.

Abuso de direitos

Nesta segunda-feira, 29, o Idec, em comunicado, disse que “foi surpreendido com prática semelhante do X” no que diz respeito ao uso de dados dos usuários para treinamento de IA.

O instituto afirmou que grandes empresas de tecnologia estão se aproveitando “da dependência que temos delas para abusarem de direitos”, acrescentando que “é preocupante a maneira como querem avançar essas tecnologias às custas de direitos e de dados pessoais dos usuários”.

“Novamente, no caso do X, vemos que isso é feito. Concretamente, vemos um design malicioso: há uma pré-seleção da opção de que os consumidores aceitariam o uso de seus dados para fins de tratamento de IA. Esse consentimento não deveria ser pressuposto e, sim, explícito – além de ter de ser livre e informado. Não é o que vemos no caso concreto”, ressalta o Idec.

Avatar photo

Eduardo Vasconcelos

Jornalista e Economista

Artigos: 1121