A Irlanda e a Itália enviam solicitações de vigilância de dados para a DeepSeek: ‘Os dados de milhões de italianos estão em risco’

O júri ainda está divulgado sobre se a AI chinesa, a Upstart Deepseek, é um divisor de águas ou parte de um plano elaborado de sua empresa controladora de fundos de hedge para a NVIDIA curta e outras ações de tecnologia. Qualquer que seja (talvez ambos?), Deepseek e seu grande modelo de linguagem fizeram algumas ondas importantes. E agora, está chamando a atenção dos vigias de proteção de dados.

Hoje, a Comissão Irish de Proteção de Dados confirmou ao TechCrunch que enviou uma nota à Deepseek solicitando detalhes sobre como os dados dos cidadãos na Irlanda são processados ​​pela empresa. “A Comissão de Proteção de Dados (DPC) escreveu para a Deepseek solicitando informações sobre o processamento de dados conduzido em relação aos titulares de dados na Irlanda”, disse um porta -voz.

A carta do DPA da Irlanda foi enviada menos de 24 horas depois que o cão de vigilância de proteção de dados na Itália enviou uma nota semelhante à empresa. A Deepseek ainda não respondeu a um pedido publicamente. No entanto, seu aplicativo móvel não aparece mais nas lojas de aplicativos do Google e da Apple na Itália.

A mudança italiana parecia ser a primeira grande mudança de um desses cães de vigilância desde que Deepseek se tornou positivamente viral nos últimos dias, a Euroconsumers, uma coalizão de grupos de consumidores na Europa, apresentou uma queixa à autoridade de proteção de dados italiana relacionada a como o DeepSeek lida com dados pessoais Em relação ao GDPR, a estrutura regulatória de proteção de dados na Europa.

O DPA italiano confirmou hoje que posteriormente escreveu para a Deepseek com um pedido de informação. “A Rischio I Dati di Milioni di Persone na Itália”, observa. (“Os dados de milhões de italianos estão em risco.”) Deepseek tem 20 dias para responder.

Dois detalhes importantes sobre o DeepSeek que muitos notaram são que o serviço é feito e opera fora da China. De acordo com sua política de privacidade, isso inclui as informações e os dados que a Deepseek coleta e armazena, que também é alojada em seu país de origem.

A Deepseek também observa brevemente em sua política que, quando transfere dados para a China do país onde a Deepseek está sendo usada, isso o faz “de acordo com os requisitos das leis de proteção de dados aplicáveis”.

Mas Euroconsumers – a organização que trouxe um caso bem -sucedido contra a GROK no ano passado sobre como usou dados para treinar sua IA – e o DPA italiano quer mais detalhes.

Abordando a inteligência artificial de Hangzhou Deepseek e a Inteligência Artificial de Beijing Deepseek, o DPA italiano disse que quer saber quais dados pessoais são coletados, dos quais fontes e para quais fins – incluindo quais informações são usadas para treinar seu sistema de IA – junto com o que é legal base é para processamento. Também quer mais detalhes sobre esses servidores na China.

Além disso, ele escreve em sua solicitação de informações, quer saber “no caso de dados pessoais ser coletados através de atividades de raspagem na web”, como os usuários que são “registrados e aqueles que não estão registrados no serviço foram ou são informados sobre o processamento de seus dados. ”

O MLEL de notícias observa que os euroconsumadores também destacaram que não há detalhes sobre como o DeepSeek protege ou restringe menores de acordo com seus serviços, da verificação de idade até como lida com dados dos menores.

(A política etária da Deepseek observa que ela não se destina a usuários com menos de 18 anos, embora não forneça uma maneira de aplicar isso. Para aqueles entre 14 e 18 anos, Deepseek sugere que esses usuários mais jovens leem a política de privacidade com a política de privacidade com um adulto.)

Os euroconsumers e o cão de guarda italiano representam o primeiro esforço para fazer uma mudança contra a Deepseek. Eles podem não ser o último, embora os acompanhamentos possam não ser tão rápidos.

Hoje cedo, Deepseek era um tópico privilegiado em uma conferência de imprensa na Comissão Europeia. Thomas Regnier, porta -voz da comissão para soberania tecnológica, foi perguntado se há preocupações em nível europeu sobre a Deepseek relacionados à segurança, privacidade e censura. Por enquanto, porém, a mensagem principal parecia ser: é muito cedo para dizer qualquer coisa sobre quaisquer investigações.

“Os serviços oferecidos na Europa respeitarão nossas regras”, observou Regnier em uma resposta a uma pergunta sobre a privacidade de dados, acrescentando que a Lei de AI se aplica a todos os serviços de IA oferecidos na região.

Ele se recusou a dizer se Deepseek, na estimativa da UE, respeitava essas regras ou não. Foi perguntado a ele se a censura do aplicativo sobre tópicos politicamente sensíveis na China caiu de regras de liberdade de expressão na Europa e se isso mereceu uma investigação. “Estes são estágios muito iniciais, ainda não estou falando de uma investigação”, disse Regnier rapidamente em resposta. “Nossa estrutura é sólida o suficiente para resolver problemas em potencial, se estiverem aqui.”

As perguntas que o TechCrunch enviou à OIC no Reino Unido sobre a Deepseek recebeu uma resposta semelhante: Deepseek, na verdade, estará sujeita ao mesmo escrutínio que qualquer outro desenvolvedor da Genai. Mas ainda não há mais ações.

“Os desenvolvedores e implantadores generativos de IA precisam garantir que as pessoas tenham informações significativas, concisas e facilmente acessíveis sobre o uso de seus dados pessoais e processos claros e eficazes para permitir que as pessoas exerçam seus direitos de informação”, disse um porta -voz. “Continuaremos a se envolver com as partes interessadas na promoção de medidas de transparência eficazes, sem se esquivar de agir quando nossas expectativas regulatórias forem ignoradas”.

Enquanto isso, novos caminhos de questionamentos regulatórios poderiam abertos em áreas como direitos autorais e proteção de IP?

Muitos ficaram maravilhados com a existência de DeepSeek, parece desafiar suposições sobre os custos reais de treinamento e operação de um LLM ou um serviço generativo de IA: sua infraestrutura mais barata e base de custos minam a idéia de que a criação de IA fundamental e a execução de aplicativos generativos de IA devem custar um custo a Fortuna em chips, uso de data center e consumo de energia.

Mas, mais recentemente, alguns começaram a levantar questões sobre tudo isso. A Microsoft e o OpenAI dizem que parece haver evidências de que foi parcialmente treinado em “destilações” de seus modelos proprietários. Haveria uma ironia estranha nisso se isso se mostrar verdadeiro – dado os muitos dramas legais e outros que giravam em torno de como alguns construtores de LLM teriam considerado propriedade intelectual e direitos autorais.

Entramos em contato com a Deepseek sobre a queixa italiana de DPA e atualizaremos esta postagem à medida que mais informações se tornam disponíveis. Enquanto isso, os aplicativos da Deepseek foram agora retirados das principais lojas de aplicativos italianos, embora pareça ainda estar ao vivo online no país.

Atualizado com mais detalhes sobre respostas regulatórias, questões legais e status do serviço na Itália.

(TAGSTOTRANSLATE) Privacidade

Rolar para cima