Autoridade de proteção de dados da Itália notifica OpenAI por violação de privacidade (Janeiro/2024)
Após meses de investigação, desde a suspensão do ChatGPT na Itália, temos mais um capítulo dessa novela
Para quem não lembra, o ChatGPT havia sido suspenso na Itália em abril do ano passado.
Após meses de investigação, a autoridade italiana de proteção de dados indicou que a OpenAI é de fato suspeita de violar as leis de proteção de dados da União Européia.
Em comunidade divulgado no dia 29 de janeiro, a DPA indica que notificou a OpenAI, dando 30 dias para comunicar seus argumentos de defesa sobre as violações denunciadas. No caso de “condenação”, a empresa pode ser multada em até 20 milhões de euros ou até 4% do faturamente global anual.
O problema é que não se trata apenas de uma multa pesada, as autoridades podem ordenar mudanças em como os dados são processados de modo a adequar as leis. Como não é tão simples re-treinar ou mudar o funcionamento de um modelo de linguagem, o mais provável é que o serviço do ChatGPT seja suspenso de alguns países da União Européia que concordem com a análise da autoridade italiana.
Quais foram as violações de privacidade?
O problema principal é a falta de base legal para processar dados pessoais no treinamento dos modelos utilizados pelo ChatGPT.
Ou seja, quando a empresa vasculhou dados na internet e os utilizou para treinar os seus modelos, segungo a lei de proteção de dados da união européia, a GDPR, a empresa precisaria ter duas coisas muito importantes para a GDPR: consentimento ou legítimo interesse.
Como obter o consentimento de milhões de usuários da internet?
Impossível.
A outra opção é alegar que há o legítimo interesse. O problema é que nesse caso os usuários poderão se opor ao uso dos dados e pedir que os seus dados sejam retirados dos modelos. Algo complexo para a arquitetura tecnológica que o ChatGPT e similares usam.
O que a OpenAI disse sobre o assunto?
A empresa se manifestou em resposta dizendo que colabora com as autoridade e que está tomando medidas para proteger os dados pessoais.
Veja o comunidado traduzido:
Acreditamos que as nossas práticas estão alinhadas com o GDPR e outras leis de privacidade e tomamos medidas adicionais para proteger os dados e a privacidade das pessoas. Queremos que a nossa IA aprenda sobre o mundo, não sobre indivíduos. Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas como o ChatGPT, que também rejeita solicitações de informações privadas ou confidenciais sobre pessoas. Pretendemos continuar a trabalhar de forma construtiva com o Garante.
Conclusão
Essa situação demonstra os grandes desafios que as companhias de IA ainda vão enfrentar para se adequar as leis de proteções de dados da União Européia.
No final do ano o Parlamento Europeu chegou a um acordo sobre o AI ACT, banindo o uso de Inteligência Artificial em algumas aplicações e definindo exceções.
Nos EUA , o U.S. Federal Trade Commission abriu uma investigação sobre o uso de IA generativa pelas bigtechs e como isso pode trazer uma competição desleal no setor.
Muita coisa ainda vai acontecer ao longo desse ano e novas empresas vão lançar serviços similares ao ChatGPT, a questão é como serão impactadas pelas crescentes preocupações com privacidade e outras ameaças que essas tecnologias podem gerar.
Para mais informações, siga @aprendadatascience