Anthropic exige verificação de identidade KYC! Algumas funções do Claude precisarão do upload de documentos de identidade, aumentando a pressão regulatória

robot
Geração do resumo em andamento

Anthropic anuncia mecanismo de autenticação para ativação de algumas funções do Claude, onde os usuários precisam fornecer documentos de identidade com foto emitidos pelo governo, com parceiros sendo Personas Identities. A iniciativa visa prevenir abusos, aplicar políticas de uso e cumprir requisitos regulatórios, mas também levanta preocupações sobre segurança de dados e aumento das barreiras de uso.
(Preâmbulo: Anthropic assina o bloqueio do Claude Code contra OpenClaw! Daqui para frente, ferramentas de terceiros só poderão usar limites pagos)
(Complemento de contexto: Modelos de IA de ponta estão se diversificando: ChatGPT para C, Claude para B)

Índice deste artigo

Alternar

  • Processo de verificação: passaporte ou carteira de motorista
  • Como os dados são protegidos? Anthropic declara que não manipula os dados originais
  • O que fazer se a verificação falhar? Condições de banimento de conta também divulgadas
  • Uma inevitabilidade sob pressão regulatória, mas o aumento de barreiras gera dúvidas

Na última (14), Anthropic discretamente lançou um arquivo de instruções de autenticação na página de suporte do Claude, anunciando oficialmente que algumas funções do Claude passarão a exigir verificação de identidade, com a declaração oficial: “Usar tecnologia poderosa de forma responsável começa por saber quem a está usando”.

O objetivo da autenticação abrange três aspectos: prevenir abusos, aplicar políticas de uso e cumprir obrigações legais.

Atualmente, essa política é apenas “aplicável em certas situações”, não sendo obrigatória de forma geral. Os usuários podem encontrar prompts de verificação nas seguintes circunstâncias: ao acessar funções avançadas, durante verificações de integridade do sistema de rotina, ou ao ativar medidas de segurança e conformidade.

Processo de verificação: passaporte ou carteira de motorista

Segundo a explicação oficial, para completar a verificação é necessário preparar:

Um documento válido emitido pelo governo com foto (arquivo físico, não uma cópia digital ou captura de tela), e um smartphone ou computador equipado com câmera para realizar o procedimento.

Os tipos de documentos aceitos incluem passaporte, carteira de motorista ou carteira de identidade nacional. Documentos explicitamente não aceitos incluem: cópias digitalizadas, capturas de tela, documentos digitais ou mobile, documentos não emitidos pelo governo, e documentos temporários em papel.

Nota: Anthropic escolheu Personas Identities como parceiro tecnológico para a verificação.

Como os dados são protegidos? Anthropic declara que não manipula os dados originais

Anthropic afirma claramente que é o “controlador dos dados”, mas a responsabilidade pelo processamento real fica a cargo da Persona, e o sistema da Anthropic não mantém imagens de documentos ou selfies dos usuários; esses dados são coletados e armazenados pela Persona.

O uso pela Persona é limitado por contrato, podendo ser apenas para autenticação de identidade e prevenção de fraudes, sem extensão a outros fins. Todos os dados são criptografados durante transmissão e armazenamento estático.

Além disso, a empresa reforça duas declarações negativas, excluindo explicitamente: os dados não serão usados para treinar modelos, nem compartilhados com terceiros para marketing ou publicidade. A Anthropic afirma coletar apenas o mínimo necessário de informações.

O que fazer se a verificação falhar? Condições de banimento de conta também divulgadas

Se a verificação não for bem-sucedida, o usuário pode tentar várias vezes ou entrar em contato com a equipe de suporte via formulário.

Importante notar que a Anthropic também divulgou as condições que levam ao banimento da conta, incluindo: violação das políticas de uso, origem de região não suportada, violação dos termos de serviço, ou uso por menores de 18 anos. Usuários banidos podem contestar por meio de um formulário de apelação.

Pressões regulatórias tornam isso inevitável, mas o aumento de barreiras gera dúvidas

Não é difícil imaginar que essa política surge no contexto de requisitos regulatórios globais cada vez mais rigorosos para provedores de IA.

Para a Anthropic, acelerar a implementação no setor empresarial (Claude to B) e estabelecer uma base de usuários verificáveis é uma condição essencial para atrair clientes de setores altamente regulados, como financeiro, saúde e jurídico.

Por outro lado, do ponto de vista do usuário, grupos que utilizavam Claude de forma anônima ou com baixa fricção — como pesquisadores ou usuários preocupados com privacidade — podem ficar receosos.

Embora a empresa destaque que os dados não ficam armazenados nos sistemas da Anthropic, a estrutura de “terceirizar a guarda” ainda levanta dúvidas sobre privacidade, que precisarão de tempo para serem esclarecidas.

Atualmente, as condições que ativam o mecanismo de verificação ainda não são totalmente transparentes: quais “funções específicas” exigirão verificação, se a abrangência será ampliada, tudo isso será importante de acompanhar. Caso esse mecanismo seja futuramente vinculado a planos de assinatura ou uso de API, o impacto na comunidade de desenvolvedores será mais direto.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar