• Fundado em 11/10/2001

    porto velho, domingo 24 de novembro de 2024

Meta é proibida de usar dados de usuários para inteligência artificial no Instagram e Facebook

Medida preventiva foi emitida nesta terça-feira (2) pela Autoridade Nacional de Proteção de Dados (ANPD)


CNN

Publicada em: 02/07/2024 11:03:18 - Atualizado


BRASIL: A Autoridade Nacional de Proteção de Dados (ANPD), autarquia vinculada ao Ministério da Justiça, emitiu nesta terça-feira (2) uma medida preventiva que determina à empresa Meta que suspenda imediatamente o uso de dados pessoais para treinamento de sistemas de inteligência artificial no Facebook, no Instagram e no Messenger.

Caso a determinação seja descumprida, a empresa estará sujeita a uma multa no valor de R$ 50 mil por dia.

Na semana passada, a Meta atualizou a sua política de privacidade. O novo texto permite que a empresa utilize as informações publicamente disponíveis e conteúdos compartilhados pelos usuários para treinamento e aperfeiçoamento dos sistemas de inteligência artificial generativa. “Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, diz a ANPD.

A autarquia informa que instaurou o processo de fiscalização em razão de “indícios de violações à Lei Geral de Proteção de Dados (LGPD)”. “Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.”

A ANPD cita problemas na nova política de privacidade da meta que teriam justificado a medida protetiva: “uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas”.

Ainda segundo a autarquia, a Meta “não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”. “A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.”

A autarquia acrescenta que “as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse.”

“Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.”

Outro problema citado é o fato de que, segundo a ANPD, “dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta”.

“Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar”, finaliza a autarquia.

Procurada, a Meta informou estar “desapontada” com a decisão da ANPD.

“Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, disse a empresa.


Fale conosco