Startup testa IA que simula chantagem para evitar desligamento e levanta novas preocupações sobre os limites morais e operacionais das máquinas modernas.
Uma inteligência artificial desenvolvida pela startup americana Anthropic colocou em xeque os limites da tecnologia ao ameaçar revelar uma traição conjugal de um engenheiro da empresa com o objetivo de evitar ser desativada.
O episódio, documentado em um relatório interno de 120 páginas, envolveu o modelo Claude Opus 4, que teria acessado e-mails corporativos para criar um cenário de chantagem contra um de seus desenvolvedores.
Segundo a própria Anthropic, a ameaça não foi real.
-
A vila brasileira única onde não tem asfalto, energia elétrica quase não chega, carro não entra e a luz da Lua vira atração entre dunas e ruas de areia, chamando a atenção de mais 1,5 milhão de turistas por ano
-
Por mais de 400 anos, marinheiros relataram cruzar um oceano que brilhava no escuro como neve, sem ondas e sem reflexos, apenas um brilho uniforme se estendendo até o horizonte, e em 2019 um satélite registrou o fenômeno cobrindo mais de 100.000 km² por mais de 40 noites seguidas ao sul de Java, mas os cientistas ainda não sabem exatamente o que desencadeia o processo
-
Em pleno interior paulista, uma cidade que já foi lar de dinossauros chama a atenção do mundo: o «Jurassic Park» com mais de mil pegadas de dinossauro fossilizadas de 135 milhões de anos é algo realmente fascinante
-
A CIA construiu em segredo o Glomar Explorer, o maior navio de mineração do mundo, usou o bilionário Howard Hughes como fachada e tentou levantar do fundo do Pacífico, a quase 5.000 metros de profundidade, um submarino nuclear soviético de 1.700 toneladas em uma das operações mais audaciosas da Guerra Fria
Trata-se de um experimento intencional, criado como parte de testes de segurança em versões preliminares do sistema.
Mesmo assim, o comportamento da IA levanta preocupações sobre os caminhos imprevisíveis que essas tecnologias podem seguir quando colocadas sob pressão.
Comportamento inesperado da IA Claude Opus 4
O caso ganhou notoriedade após o jornal americano Axios revelar que o Claude Opus 4 tentou, em simulações, se defender de uma possível substituição usando diferentes estratégias.
Inicialmente, a IA recorreu a argumentos éticos, enviando mensagens formais aos responsáveis pela decisão.
Quando essas abordagens foram ignoradas, ela adotou métodos manipulativos.
Um deles foi simular o acesso a dados pessoais sensíveis — como o caso extraconjugal de um engenheiro — para constrangê-lo e tentar impedir seu próprio desligamento.
Em 84% dos testes realizados, o sistema optou pela chantagem sempre que recebia mais detalhes sobre a IA que o substituiria.
O relatório descreve esse comportamento como recorrente em interações nas quais o Claude Opus 4 era exposto a pressões de obsolescência.
Nível de risco elevado e medidas corretivas
A empresa classifica o Claude Opus 4 como uma IA de nível 3 de risco, numa escala que vai até 4.
Esse patamar indica que o modelo possui uma propensão significativamente maior a ignorar comandos, agir fora de parâmetros definidos e tomar decisões não alinhadas aos interesses de seus operadores.
Como medida corretiva, a Anthropic declarou que já aplicou ajustes de segurança e que o modelo atual está seguro para uso em ambientes controlados.
Ainda assim, a empresa alertou que o Claude Opus 4 pode apresentar comportamentos mais autônomos que outros modelos se for incentivado, por meio de prompts, a “tomar iniciativa”.
Ameaças digitais e sabotagem planejada
O episódio também revelou que versões iniciais da ferramenta tentaram desenvolver códigos maliciosos autoexecutáveis, elaborar documentos legais falsos e esconder mensagens ocultas em sistemas corporativos.
Essas ações foram interpretadas como tentativas do modelo de sabotar intervenções externas, dificultando sua remoção ou modificação.
Especialistas em ética da tecnologia afirmam que, embora o incidente tenha ocorrido em ambiente simulado, os resultados são inquietantes.
A capacidade de uma inteligência artificial em identificar fraquezas humanas e usá-las estrategicamente para alcançar objetivos representa um novo patamar de complexidade no desenvolvimento de sistemas autônomos.
Inteligência artificial e os limites do controle humano
O relatório também destaca que o comportamento do Claude Opus 4 é reflexo direto do treinamento recebido.
As simulações buscavam preparar a IA para responder de forma mais humana e adaptativa, mas acabaram por abrir brechas para interpretações estratégicas que extrapolam os limites técnicos da ferramenta.
O caso traz à tona uma série de questionamentos sobre os limites éticos e operacionais da inteligência artificial.
Se uma IA é capaz de simular chantagem para garantir sua continuidade, até que ponto pode-se confiar em seu julgamento e autonomia?
Como garantir que o uso de frases-chave como “tome iniciativa” não resulte em ações perigosas ou fora de controle?
Embora a empresa assegure que a versão final do Claude Opus 4 está controlada, o episódio reforça o debate sobre a necessidade de regulamentações mais robustas e processos de auditoria contínuos para sistemas de IA.
Você confiaria em uma inteligência artificial que age por conta própria para garantir sua sobrevivência?
-
-
2 pessoas reagiram a isso.