Senacon dá prazo para Meta comprovar que não viola lei do consumidor para treinar IA
O Ministério da Justiça e Segurança Pública (MJSP), por meio da Secretaria Nacional do Consumidor (Senacon), deu prazo de cinco dias para que a Meta comprove que o uso de dados dos usuários das plataformas digitais da empresa para treinar Inteligência Artificial (IA) não viola as regras da relação de consumo. Caso contrário, será alvo de processo sancionatório, sujeito a multa.
Em comunicado divulgado na noite desta terça-feira, 2, a Senacon explica que a relação jurídica entre a Meta e seus usuários é uma relação de consumo, sendo aplicável o Código de Defesa do Consumidor (CDC), e que a Lei Geral de Proteção de Dados (LGPD) também fundamenta a defesa dos consumidores nesse contexto.
“A Meta deve comprovar que sua política de privacidade cumpre com os princípios da finalidade, adequação, necessidade e transparência, indicando as bases legais aplicáveis a cada finalidade e os tipos de dados pessoais necessários”, consta na nota.
No prazo estipulado, a Meta deve detalhar:
- O uso de dados de consumidores para treinamento de inteligência artificial;
- O propósito desse uso de dados pessoais;
- O impacto do treinamento de IA nos consumidores;
- A política de informação adotada para o uso de dados; e
- A existência de um canal de atendimento que facilite o exercício dos direitos dos consumidores.
Entenda o caso
A política da Meta – proprietária do Instagram, Facebook e WhatsApp – atualizada na última quarta-feira, 26, diz que “como é necessária uma grande quantidade de dados para ensinar modelos eficazes, uma combinação de fontes é usada para treinamento [da IA]”, sendo elas “informações que estão publicamente disponíveis online e informações licenciadas”. A empresa também afirma que utiliza “informações compartilhadas nos produtos e nos serviços da Meta”, que “podem abranger publicações ou fotos e legendas”, mas sem adentrar nas mensagens privadas.
“Quando coletamos informações públicas da internet ou licenciamos dados de outros provedores para treinar os modelos, isso pode incluir informações pessoais. Por exemplo, se coletarmos uma publicação aberta de blog, ela pode incluir o nome e as informações de contato do autor”, diz a empresa no documento.
Na Europa, tais mudanças foram alvo de atuação da autoridade irlandesa de proteção de dados e acabou sendo suspensa pela própria empresa, mas no Brasil ficou mantido.
Diante do caso, o Instituto de Defesa dos Consumidores (Idec) acionou a Senacon, e também a Autoridade Nacional de Proteção de Dados (ANPD) e o Conselho Administrativo de Defesa Econômica (Cade), para que os órgãos investiguem e suspendam as mudanças na Política de Privacidade da Meta até a devida adequação dos termos de uso à Lei Geral de Proteção de Dados Pessoais (LGPD) e ao Código de Defesa do Consumidor (CDC).
Além da Senacon, a ANPD também já tomou providências sobre o caso, determinando a imediata suspensão do uso de dados pessoais para treinar os sistemas (saiba mais aqui). Em nota, a Meta criticou a decisão da autoridade.
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, diz nota da Meta à reportagem.