Meta, dona do Instagram e do Facebook, disse que decisão contra uso de fotos e textos de usuários para treinar sua inteligência artificial ‘é um retrocesso’. Pesquisadores ouvidos pelo g1 afirmaram que argumento já foi usado em outras ocasiões e que não há evidências para a alegação da empresa.
O argumento usado pela Meta, dona do Instagram e do Facebook, contra a ordem do governo para suspender o uso de dados como fotos e textos para treinar sua inteligência artificial (IA) é questionado por especialistas.
Para a Autoridade Nacional de Proteção de Dados (ANPD), há “indícios de violação de direitos” na coleta de dados pessoais pela Meta.
A Meta reagiu dizendo que a decisão “é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios de IA para as pessoas no Brasil” (veja ao final a íntegra do posicionamento).
A gerente de Campanhas Globais da organização Digital Action, Bruna Martins Santos, destacou que o posicionamento usado agora pela Meta já foi adotado por gigantes de tecnologia em outras ocasiões.
“O argumento de que uma coisa vai barrar a inovação é a carta mais antiga do baralho de políticas de tecnologia no Brasil. A gente ouviu esse argumento quando discutiu o Marco Civil da Internet, quando discutiu a Lei Geral de Proteção de Dados (LGPD)”.
Para o codiretor da Data Privacy Brasil, Rafael Zanatta, não há evidências para o argumento da Meta. “Não há estudos, nenhum dado científico que mostre que certos tipos de escolhas de proteção de dados pessoais vão travar o desenvolvimento econômico”.
“Inclusive, o contraponto é que talvez traga mais segurança jurídica saber a fronteira do que pode e do que não pode, do que ficar essa zona meio cinzenta. Acho que a ANPD, na verdade, ajuda o segmento econômico”, disse Zanatta ao g1.
Para Bruna, o posicionamento da empresa não contribui para a discussão. “Coloca a Autoridade Nacional de Proteção de Dados como um ator contrário à inovação, o que não é o caso. A atuação da ANPD visa tentar defender direitos fundamentais, como o direito à privacidade e à proteção de dados”, afirmou.
Usuários enfrentam ‘labirinto’
Em sua decisão, a ANPD destacou que, para impedir a coleta de seus dados pela IA, o usuário “precisa passar por diversas etapas, chegando à necessidade de clicar em oito opções no caso do aplicativo Facebook”.
O processo também é chamado de “opt-out”, termo em inglês que se refere ao direito de se opor a uma prática. Mas a autoridade entendeu que o caminho criado pela Meta não está de acordo com a LGPD, que exige opções fáceis para usuários tirarem o consentimento sobre um tratamento de dados.
Pela política da Meta, mesmo após completar o processo de saída, não há garantia de que o uso dos seus dados pela IA será interrompido. A empresa diz que os pedidos serão analisados de acordo com as leis de proteção de dados relevantes.
“Se a sua solicitação for atendida, ela será aplicada a partir do momento que for aceita”, diz a companhia, em seu site.
A LGPD estabelece várias obrigações para empresas após o usuário ter dado seu consentimento ou aceitado os termos de uso. Uma delas é a necessidade de ser transparente com usuários.
Segundo Bruna Martins dos Santos, é preciso “informar titulares de dados sobre o direito de retirar o consentimento e sobre como isso pode ser feito”.
“Links de descadastramento têm que ser colocados em lugares de fácil acesso para que o usuário saiba onde pode exercer esse direito”, afirmou.
“Qualquer coisa que entre no caminho ou que crie alguma espécie de resistência a esse direito é uma limitação do direito de ‘opt-out’, é uma limitação dos princípios e deveres que estão colocados na LGPD”.
Para Rafael Zanatta, o modelo oferecido pela Meta é uma espécie de “labirinto” por conta da dificuldade de chegar à opção.
“A ANPD enxergou que existe um obstáculo muito grande para pessoas conseguirem fazer o ‘opt-out’, para desativar o treinamento de dados para a IA do grupo Meta”, afirmou.
“Não é razoável instituir oito etapas até a pessoa chegar no processo de saída. A Meta pode, por uma escolha de design, fazer isso em uma ou duas etapas. Não são coisas extremamente custosas”, avaliou.
Confira a íntegra da nota enviada pela Meta:
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.