OpenAI elimina 10 operaciones encubiertas que utilizaban ChatGPT para propaganda y vigilancia
1. Revelación en el último informe de seguridad
En su reciente informe trimestral, OpenAI confirmó que detectó y desmanteló diez campañas que abusaban de ChatGPT. Cuatro de ellas presentaban vínculos sistémicos con actores estatales chinos, según el portavoz de la compañía.
2. Tácticas empleadas en las operaciones
Estas campañas simulaban cuentas en redes sociales para generar posts, comentarios polarizadores, perfiles falsos y hasta informes internos de desempeño. Algunas dirigían propaganda tanto en plataformas globales como TikTok o Facebook, como en Reddit y X, realizando “compromiso falso” para aparentar interacción orgánica.
3. Campañas vinculadas a China
Operaciones «Sneer Review» y otras similares producían contenido contra temas sensibles (como Taiwán, la política estadounidense o USAID), en múltiples idiomas (inglés, chino, urdu). Además, en algunos casos se redactaron "performance reviews" internas para documentar la actividad de influencia.
4. Alcance de otros actores estatales
El informe revela además campañas relacionadas con Rusia, Irán, Corea del Norte y Filipinas. Entre ellas hubo casos de estafas de empleo operadas por trabajadoras norcoreanas, y otras que generaban software de vigilancia o phishing automáticos.
5. Alcance real y eficacia limitada
Según OpenAI, aunque las campañas fueron sofisticadas técnicamente, su impacto fue limitado: la mayoría no logró engagement auténtico ni difusión masiva, y las contramedidas de la compañía fueron efectivas para contenerlas .
6. Llamado a regulación y visión de OpenAI
OpenAI ha reiterado que, sin regulaciones robustas, la IA representa un riesgo de explotación por regímenes autoritarios para operaciones encubiertas. Sam Altman y Ben Nimmo han defendido la necesidad de normativas que aumenten la transparencia y restrinjan el uso ilegal de herramientas como ChatGPT.