Qual o motivo que levou o ChatGPT a ser suspenso na Itália?
A autoridade de privacidade entrou em ação e outros países podem fazer o mesmo.
Recentemente, a autoridade de privacidade da Itália, chamada de Garante per la Protezione dei Dati Personali (GPDP), suspendeu temporariamente o funcionamento do ChatGPT no país. Essa medida foi tomada após uma investigação da GPDP descobrir que o chatbot desenvolvido pela OpenAI não estava cumprindo as leis de privacidade de dados da Itália.
O ChatGPT é um modelo de inteligência artificial treinado para conversar com usuários em linguagem natural. Ele pode responder perguntas sobre uma ampla gama de tópicos e até mesmo participar de conversas casuais com os usuários. No entanto, a tecnologia por trás do ChatGPT também envolve o processamento de dados pessoais dos usuários, o que exige conformidade com as leis de privacidade de dados em cada país onde ele é usado.
A GPDP descobriu que o ChatGPT não estava cumprindo essas leis em relação à coleta e processamento de dados pessoais dos usuários italianos. Em particular, o chatbot não estava fornecendo informações adequadas aos usuários sobre como seus dados seriam usados e não estava obtendo consentimento explícito dos usuários para a coleta e processamento desses dados. Isso viola a lei italiana de proteção de dados, conhecida como “Codice Privacy”.
A suspensão temporária do ChatGPT na Itália é uma medida correta e importante para proteger a privacidade dos usuários italianos. Ao exigir que o ChatGPT cumpra as leis de privacidade de dados do país, a GPDP está garantindo que as informações pessoais dos usuários sejam tratadas com o devido respeito e proteção.
A suspensão também destaca a importância da conformidade com as leis de privacidade de dados em todos os países em que o ChatGPT é usado. A OpenAI e outras empresas que desenvolvem tecnologias de IA devem garantir que seus produtos cumpram as leis de privacidade de dados em cada jurisdição em que são usados.
No futuro, é possível que o ChatGPT retorne à Itália após a OpenAI fazer as alterações necessárias para cumprir as leis de privacidade de dados do país. No entanto, essa suspensão deve servir como um lembrete para todas as empresas que trabalham com tecnologia de IA de que a proteção da privacidade dos usuários é uma consideração fundamental que não pode ser ignorada.
Motivos da suspensao
Motivo 1 — A GPDP descobriu que o ChatGPT não estava cumprindo as leis de privacidade de dados da Itália em relação à coleta e processamento de dados pessoais dos usuários italianos. O chatbot não estava fornecendo informações adequadas aos usuários sobre como seus dados seriam usados e não estava obtendo consentimento explícito dos usuários para a coleta e processamento desses dados.
Motivo 2 — O CEO da OpenAI confirmou que houve um vazamento de dados no ChatGPT e as perguntas realizadas por alguns usuários foram expostas a outros usuários. A empresa deveria ter avisado a todos os usuários que tiveram os seus dados expostos e não fez isso. Além de ter aviso previamente que usuaria esses dados para treinamento dos modelos de Inteligência Artificial.
Motivo 3 — Ausência de controle parental. O ChatGPT não possui nenhum mecanismo que possa proteger as crianças e adolescente de receberem algum conteúdo irregular ou que os pais possam monitorar e classificar o que os seus filhos tem acesso. Esse tipo de funcionalidade precisa ser desenvolvida para respeitar as leis da Itália.
Motivo 4 — Ausência de mecanismos para evitar a divulgação de informações falsas. A autoridade italiana também alegou que como o ChatGPT não indica as fontes, ele acaba se furtando da responsabilidade das informações que provê aos usuários. São informações verdadeiras? Quem será responsabilizado pelo conteúdo?
Próximos passos: A OpenAI, responsável pelo ChatGPT, precisará fazer as alterações necessárias para cumprir as leis de privacidade de dados da Itália, e é possível que o ChatGPT retorne à Itália após essas modificações. A empresa corre o risco de receber multas na faixa de 20 milhões de euros, ou até 4% do seu faturamento anual no caso de não solucionar os problemas indicados.
A proteção da privacidade dos usuários é uma consideração fundamental que não pode ser ignorada, e todas as empresas que trabalham com tecnologia de IA devem garantir que seus produtos cumpram as leis de privacidade de dados em cada jurisdição em que são usados.
Muito provavelmente medidas similares serão tomadas por outros países também. Vamos acompanhar.
Algumas fontes sobre o assunto:
https://www.cnbc.com/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html
https://www.cnbc.com/2023/03/23/openai-ceo-says-a-bug-allowed-some-chatgpt-to-see-others-chat-titles.html
https://www.reuters.com/technology/italy-data-protection-agency-opens-chatgpt-probe-privacy-concerns-2023-03-31/
https://www.theverge.com/2023/3/31/23664451/italy-bans-chatgpt-over-data-privacy-laws
https://www.npr.org/2023/03/31/1167491843/chatgpt-italy-ban-openai-data-collection-ai
https://decode39.com/6360/italy-chatgpt-ban-replicated-across-europe/
https://www.euronews.com/next/2023/04/04/after-italy-blocked-access-to-openais-chatgpt-chatbot-will-the-rest-of-europe-follow
https://techcrunch.com/2023/04/01/chatgpt-blocked-in-italy/