A
Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta – big
tech responsável pelo Facebook, Instagram e WhatsApp –
suspenda, no Brasil, a validade da nova política de privacidade da empresa
sobre o uso dos dados pessoais dos brasileiros.
Os novos termos de uso, atualizados no dia 16 de junho,
passaram a permitir que a empresa use dados de publicações abertas de usuários,
como fotos e textos, para treinar sistemas de inteligência artificial (IA)
generativa.
Por
que isso importa? Porque o conteúdo que milhões de pessoas postam no Instagram e no
Facebook está servindo para treinar inteligência artificial sem a empresa
oferecer contrapartidas, nem informações detalhadas sobre onde a ferramenta
poderá ser usada.
A
prática foi alvo de questionamento na Europa e, no Brasil, pelo Instituto de Defesa
de Consumidores (Idec).
Em
nota, a Meta disse estar "desapontada" com a decisão da autoridade
nacional e defendeu que a abordagem da empresa para a inteligência artificial
está de acordo com a legislação brasileira.
"Treinamento
de IA não é algo único dos nossos serviços, e somos mais transparentes do que
muitos participantes nessa indústria que têm usado conteúdos públicos para
treinar seus modelos e produtos," diz o comunicado.
"Nossa
abordagem cumpre com as leis de privacidade e regulações no Brasil, e
continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um
retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa
a chegada de benefícios da IA para as pessoas no Brasil", prossegue a
Meta.
O
despacho da ANPD foi publicado no "Diário Oficial da União" desta
terça-feira (2) e prevê multa de R$ 50 mil por dia de
descumprimento "em virtude do risco iminente de dano grave e
irreparável ou de difícil reparação aos direitos fundamentais dos titulares
afetados".
A
decisão foi tomada pelo Conselho Diretor da ANPD, e o documento é assinado pelo
diretor-presidente da autoridade, Waldemar Gonçalves. Segundo o despacho, a ordem é para cumprimento imediato.
A
medida acontece após o Idec alertar a ANPD, a Secretaria Nacional do Consumidor
(Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) sobre a nova
prática da Meta.
Para
o instituto de defesa do consumidor, a forma como a empresa está usando dados
viola leis brasileiras porque os usuários não foram avisados de antemão, a
opção que permite se opor à prática é "pouco intuitiva", e pode haver
uma vantagem excessiva para a empresa.
No prazo de cinco dias, a
partir de quando for intimada, a Meta deve apresentar ao governo:
documentação que ateste a mudança da Política de Privacidade dos
serviços da empresa, para excluir esse trecho sobre o uso dos dados pessoais
para treinar IAs generativas;
declaração assinada por
representante legal atestando que o uso dos dados foi suspenso.
Dados pessoais para 'treinar' IA
O caso ganhou atenção em 4 de junho, depois que a Meta informou na União
Europeia e no Reino Unido que a sua política de privacidade passaria a prever a
possibilidade de usar dados de usuários para treinar sua IA.
Com a repercussão negativa, a empresa voltou atrás e adiou a mudança da
política na Europa – mas não fez o mesmo para o Brasil.
Quando o Idec acionou o governo contra a nova política de privacidade
desses serviços, a Meta afirmou que o uso das informações para treinar uma
inteligência artificial é de seu legítimo interesse, bem como de seus usuários
e outras pessoas.
"Estamos comprometidos em desenvolver a inteligência artificial na
Meta – nossa coleção de recursos e experiências generativas de inteligência
artificial junto com os modelos que os alimentam – de forma segura, responsável
e atendendo as regulações de privacidade no Brasil", disse a companhia ao g1 em 23 de junho.
Treinamentos de modelos de inteligência artificial envolvem o uso de grandes quantidades de dados e são necessários para que, em uma etapa seguinte, eles sejam capazes de analisar informações e até gerar conteúdo por conta própria.