Um hacker utilizou tecnologia da Anthropic como parte de um vasto esquema de crimes virtuais que afetou pelo menos 17 organizações, disse a empresa, marcando um caso “sem precedentes” de criminosos usando uma ferramenta de inteligência artificial como arma em larga escala.

O hacker usou a ferramenta de programação da Anthropic em uma operação de roubo de dados e extorsão que atingiu vítimas no último mês em setores como governo, saúde, serviços de emergência e instituições religiosas, de acordo com o relatório de inteligência sobre ameaças da empresa, publicado nesta semana.

Os ataques com o Claude Code resultaram no comprometimento de dados de saúde, informações financeiras e outros registros sensíveis, com pedidos de resgate variando entre US$ 75 mil e US$ 500 mil em criptomoedas.

A campanha demonstrou uma “evolução preocupante do cibercrime assistido por IA”, em que um único usuário pode operar como se fosse uma equipe inteira de criminosos cibernéticos, segundo o relatório.

A empresa disse que o hacker usou a IA tanto como consultora quanto como operadora ativa para executar ataques que, de outra forma, seriam mais difíceis e demorados.

Fundada em 2021, a Anthropic é uma das startups mais valiosas do mundo e concorre com a OpenAI, a xAI de Elon Musk, além do Google e da Microsoft. A companhia se posiciona como uma desenvolvedora de IA confiável e voltada para a segurança.

A Anthropic também relatou usos maliciosos do Claude na Coreia do Norte e na China. Operadores norte-coreanos têm utilizado a ferramenta para manter empregos fraudulentos, remotos e bem pagos em empresas de tecnologia, com o objetivo de financiar o programa de armas do regime.

Esses atores parecem ser totalmente dependentes da IA para realizar tarefas técnicas básicas, como escrever código, segundo a empresa.

Um agente de ameaça chinês usou o Claude para comprometer grandes operadoras de telecomunicações no Vietnã, sistemas de gestão agrícola e bancos de dados governamentais em uma campanha que durou nove meses, de acordo com o relatório.

Embora a investigação da Anthropic foque especificamente no Claude, a empresa escreveu que os casos mostram como criminosos cibernéticos estão explorando capacidades avançadas de IA em todas as etapas de suas operações fraudulentas.

A Anthropic constatou que ataques gerados por IA conseguem se adaptar às medidas de defesa em tempo real, além de tomar decisões estratégicas e táticas sobre como explorar e monetizar alvos de forma mais eficaz.

Outras empresas de IA também já relataram usos maliciosos de suas tecnologias. A OpenAI disse, no ano passado, que um grupo ligado à China se passou por um de seus usuários para lançar ataques de phishing contra funcionários da startup. A companhia também afirmou ter derrubado redes de propaganda na Rússia, China, Irã e Israel que usavam sua tecnologia.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

You May Also Like

CNPq abre edital de R$ 215 mi para pesquisa fora do Brasil – 01/09/2025 – Ciência

O CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) abriu uma nova…

Apple confirma data do evento de lançamento

Arte que a Apple inseriu no convite de lançamento para seu evento…

Comunista Jones Manoel ocupa vácuo e viraliza – 25/08/2025 – Encaminhado com Frequência

A direita ainda reina quase sozinha entre os maiores nomes da política…

Trump recebe Bill Gates, Tim Cook e Zuckerberg em jantar – 04/09/2025 – Mercado

O presidente Donald Trump reuniu alguns dos principais executivos do setor de…