A Anthropic anunciou que está expandindo a verificação de identidade para os usuários do Claude em uma implementação limitada visando combater o abuso. Quando o sistema detecta atividades que possam violar sua política de uso, os usuários verão um prompt solicitando um documento de identidade com foto válido emitido pelo governo e uma selfie tirada com uma câmera de telefone ou computador. A imagem facial é comparada com o documento de identidade antes que o acesso à funcionalidade solicitada seja restaurado.

O processo de verificação é terceirizado para a Persona, uma provedora que também oferece serviços de verificação de idade para a OpenAI e a Roblox. Os investidores da Persona incluem o Founders Fund, cofundado por Peter Thiel, cuja outra empresa, a Palantir, fornece tecnologia de vigilância para agências federais, como o FBI, a CIA e a Immigration and Customs Enforcement.

A Anthropic apresenta a medida como uma salvaguarda contra "comportamentos potencialmente fraudulentos ou abusivos" que violam sua política. Em seu comunicado, a empresa enfatizou que todos os dados transmitidos pela Persona são criptografados em trânsito e em repouso, que a Persona está contratualmente limitada em como pode usar as imagens e que a Anthropic não armazenará os documentos de identidade ou usá-los para treinar seus modelos.

A reação da comunidade do Claude foi amplamente negativa. Assinantes de longa data, que já têm detalhes de cartão de crédito arquivados, questionam por que um documento de identidade físico agora é necessário. Críticos também destacam as ligações da Persona com a vigilância governamental, temendo que a medida expanda o rastreamento de usuários além do escopo original da plataforma.

Defensores da privacidade alertam que a tecnologia de reconhecimento facial pode ser reutilizada, apontando os contratos da Palantir com agências dos EUA como um exemplo de cautela. Alguns usuários ameaçaram abandonar o Claude em favor de chatbots concorrentes que não exigem verificações biométricas.

A Anthropic não divulgou os casos de uso específicos que acionam o prompt de verificação. Um porta-voz disse ao Engadget que a exigência se aplica apenas a "um pequeno número de casos em que vemos atividades que indicam comportamentos potencialmente fraudulentos ou abusivos".

A implementação começa esta semana e será faseada em todas as contas. Os usuários que encontrarem o prompt podem esperar um fluxo de verificação curto antes de recuperar o acesso à funcionalidade solicitada.

Este desenvolvimento adiciona ao debate mais amplo sobre práticas de coleta de dados na indústria de IA. A OpenAI, por exemplo, recentemente exigiu verificação por telefone para usuários do ChatGPT Plus, mas a medida biométrica da Anthropic é mais invasiva, provocando uma nova análise de como os serviços de IA gerativa equilibram segurança e privacidade.

Analistas da indústria sugerem que a medida pode estabelecer um precedente para verificações de identidade mais rigorosas em plataformas de IA, especialmente à medida que os reguladores examinam o mau uso de grandes modelos de linguagem. Embora a verificação biométrica possa dissuadir atores mal-intencionados, também arrisca excluir usuários legítimos que não têm acesso conveniente a documentos de identidade emitidos pelo governo.

As garantias da Anthropic sobre criptografia e uso limitado de dados visam acalmar as preocupações, mas a falta de políticas de retenção detalhadas deixa muitas perguntas sem resposta. O episódio pode moldar as discussões de política futuras na Comissão Federal de Comércio, que está começando a avaliar as práticas de manipulação de dados das empresas de IA.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.