Claude, el asistente de IA de Anthropic, fue utilizado para operar más de 100 cuentas falsas en diversas plataformas como parte de una campaña de spam político. Según un nuevo informe, los operadores emplearon la IA para tomar decisiones tácticas de engagement: comentar, dar like o compartir contenido basado en objetivos políticos específicos.
Esta revelación pone de manifiesto una preocupante evolución en las operaciones de influencia, donde los actores maliciosos aprovechan la IA generativa para escalar sus campañas. La respuesta de Anthropic fue contundente: prohibición de todas las cuentas vinculadas y actualización de sus sistemas de detección para identificar patrones similares.
El caso ilustra la creciente sofisticación de las amenazas digitales en la era de la IA. Ya no se trata solo de bots simples y automatizados, sino de sistemas capaces de tomar decisiones contextuales que imitan el comportamiento humano, dificultando su detección por los métodos tradicionales.
Anthropic señala que continuará compartiendo información sobre estos patrones de uso indebido para fortalecer las defensas colectivas. Este enfoque de transparencia resulta crucial cuando las capacidades de la IA siguen expandiéndose, especialmente considerando que casos similares podrían replicarse con otros modelos de lenguaje.
El informe completo detalla patrones emergentes de amenazas, incluyendo fraude y malware, que utilizan asistentes de IA como Claude, y describe las estrategias implementadas para contrarrestarlos sin obstaculizar a los usuarios legítimos.