Anthropic atualiza política de privacidade e oferecerá treinamento sobre chats do Claude
- Carlos Coan

- 29 de ago. de 2025
- 2 min de leitura
A Anthropic anunciou uma grande mudança de política que mudará fundamentalmente a forma como a empresa de IA lida com os dados dos usuários do seu chatbot Claude.
A partir de agora, a empresa treinará seus modelos de IA com transcrições de chats e sessões de codificação de contas de consumidores, a menos que os usuários optem ativamente por não participar até 28 de setembro, marcando um afastamento de sua abordagem anterior, que priorizava a privacidade.
A política atualizada afeta todos os usuários dos planos de assinatura Free, Pro e Max do Claude, incluindo aqueles que utilizam o Claude Code. De acordo com o The Verge, os usuários que consentirem com o treinamento terão seus dados retidos por até cinco anos, em vez dos 30 dias padrão, o que representa uma extensão significativa nas práticas de armazenamento de dados.
Segue abaixo a tradução das respostas anteriores sobre os temas ligados à mudança de política da Anthropic (Claude) para o português brasileiro.
Mudança na Política de Privacidade
A Anthropic anunciou uma mudança significativa de política, que altera como utiliza os dados dos usuários do chatbot Claude. A partir de agora, transcrições de chats e sessões de código de contas consumidoras serão usadas para treinar IA, a menos que o usuário opte por não participar até 28 de setembro, marcando uma ruptura com seu posicionamento anterior centrado na privacidade.
Processo de Opt-Out Cria Fricção
Usuários atuais verão um pop-up chamado “Atualizações nos Termos e Políticas do Consumidor” exigindo decisão até 28 de setembro. O design causa críticas, pois o botão “Aceitar” é grande e preto, enquanto o botão de opt-out aparece menor abaixo, já ativado como “Ligado”. Usuários desatentos ao clicar “Aceitar” consentirão automaticamente com o uso de dados para treinamento. Novos usuários terão essa escolha no registro, e pode-se alterar a decisão em Configurações > Privacidade > “Ajudar a melhorar o Claude”.
Contas Comerciais Não São Afetadas
Clientes empresariais e educacionais continuam sob regimes de privacidade distintos e mais restritos, não sendo impactados pela nova política, que não altera Claude for Work nem Claude for Education. Organizações podem operar normalmente sem preocupação de que dados confidenciais ou proprietários sejam usados para treinamento de IA.
Preocupações de Segurança
A retenção ampliada dos dados (até cinco anos) aumentou preocupações de segurança. Especialistas alertam que a extensão do armazenamento gera uma “superfície de ataque” maior para possíveis incidentes cibernéticos e riscos prolongados, já que conversas de 2025 poderiam ficar vulneráveis até 2030. Também há alarme sobre monitoramento e rastreamento ampliados.
Contexto Industrial e Mudança de Paradigma
A Anthropic antes se posicionava como alternativa centrada na privacidade, diferente da OpenAI, que coleta dados automaticamente. Agora, seus termos incluem novas provisões de vigilância, uso de conteúdo sinalizado para pesquisa de segurança, coleta de localização e políticas ampliadas para dados de terceiros. A empresa promete usar processos automatizados para filtrar dados sensíveis e não compartilhar com terceiros, justificando a mudança como necessária para melhorar os modelos e fortalecer salvaguardas contra abuso.
Todas essas informações refletem um "giro de paradigma" e aproximam a Anthropic das práticas usuais das grandes empresas de tecnologia.





Comentários