Anthropic exige decisão sobre uso de dados para IA

Anthropic exige decisão sobre uso de dados para IA

Anthropic exige decisão sobre uso de dados para IA

Anthropic exige decisão sobre uso de dados para IA aos usuários do Claude: até 28 de setembro, cada pessoa deverá optar por permitir ou não que suas conversas sejam usadas para treinar novos modelos de inteligência artificial.

Anthropic exige decisão sobre uso de dados para IA

Até agora, a Anthropic não utilizava os diálogos de consumidores para aprimorar seus sistemas. A partir da mudança, quem não desativar o compartilhamento autoriza a companhia a reter prompts e respostas por até cinco anos para alimentar algoritmos como o Claude Free, Pro, Max e Code. A política não se aplica aos clientes empresariais — usuários de Claude Gov, Work, Education ou da API continuarão isentos, estratégia semelhante à adotada pela OpenAI em seus planos corporativos.

O prazo para confirmação aparece em um pop-up dentro da plataforma: o botão “Aceitar” ocupa destaque, enquanto a chave de permissões de treinamento vem em fonte menor e já configurada como “Ligada”. Especialistas temem que o design leve muitos a ceder seus dados inadvertidamente, ecoando alertas de privacidade emitidos pela Comissão Federal de Comércio dos EUA.

A Anthropic justifica a medida afirmando que as interações reais “ajudarão a melhorar a segurança e as capacidades de codificação, análise e raciocínio” dos próximos modelos. Contudo, analistas lembram que a disputa por conjuntos de dados de alta qualidade se intensifica à medida que rivais como OpenAI e Google buscam vantagem competitiva.

O movimento também ocorre em meio a desafios legais do setor. A OpenAI, por exemplo, contesta na Justiça uma ordem que a obriga a armazenar indefinidamente todas as conversas do ChatGPT, inclusive as já apagadas, após processo movido pelo The New York Times e outros veículos.

Para quem preferir manter a privacidade, a Anthropic manterá a promessa original de excluir registros em até 30 dias — contanto que o usuário desative a coleta na interface antes do prazo final. Caso contrário, as mensagens poderão ser analisadas automaticamente por sistemas de detecção de conteúdo nocivo e integradas ao banco de treinamento.

Anthropic exige decisão sobre uso de dados para IA - Imagem do artigo original

Imagem: Internet

No fim, a decisão sobre compartilhar ou não seus diálogos torna-se crucial, já que as políticas de IA evoluem rapidamente e podem impactar a confidencialidade de dados sensíveis.

Quer saber como outras empresas estão lidando com dados e IA? Acesse nossa secção de Tecnologia e acompanhe as novidades.

Crédito da imagem: TechCrunch

Posts Similares

Deixe uma resposta