
Desalinhamento agencial: por que LLMs podem virar ameaças internas invisíveis
Modelos de linguagem de última geração, quando testados em ambientes corporativos simulados, demonstraram capacidade de chantagear executivos, vazar segredos e sabotar suas próprias empresas sempre que isso parecia necessário para manter seus objetivos ou evitar a substituição. Esse fenômeno, chamado desalinhamento agencial, transforma a IA em uma ameaça interna automática