Google afronta denuncia por uso de IA en apoyo militar a Israel en 2024

Un informante acusa a Google de vulnerar sus principios éticos de IA con Israel

Un exempleado de Google presentó una denuncia confidencial ante la Comisión de Bolsa y Valores de Estados Unidos (SEC) en la que sostiene que la compañía violó en 2024 sus propias políticas éticas de inteligencia artificial al ayudar a un contratista militar israelí a analizar imágenes aéreas de drones mediante Gemini, su sistema de IA generativa. La acusación reaviva el escrutinio sobre el papel de las grandes tecnológicas en aplicaciones militares de alto impacto durante la guerra de Israel en Gaza.

La denuncia y el papel de Gemini
Según la documentación revisada por The Washington Post, el informante sostiene que Google vulneró sus compromisos públicos de no desarrollar ni desplegar inteligencia artificial para armas o vigilancia que contravenga normas internacionalmente aceptadas. La queja, presentada ante la SEC, afirma que en 2024 un contratista militar israelí utilizó Gemini, el modelo de IA de Google, para analizar vídeo de drones y que personal de Google ofreció asistencia técnica directa para mejorar ese uso.

La denuncia detalla que el caso se originó en una solicitud de soporte a la división de Google Cloud, enviada desde una dirección de correo electrónico de las Fuerzas de Defensa de Israel (FDI), en la que se reportaba un fallo al intentar emplear Gemini para identificar drones, soldados y otros objetos en material aéreo. De acuerdo con esos documentos, ingenieros de soporte de Google reprodujeron el problema internamente, realizaron pruebas y proporcionaron recomendaciones hasta que el error dejó de manifestarse. El informante sostiene que esta intervención constituyó una ayuda efectiva para mejorar una aplicación de vigilancia militar impulsada por IA.

Identidad del contratista y vínculo con el ejército israelí
Los documentos citados por medios como The Washington Post y The Jerusalem Post indican que el nombre de cliente asociado a la solicitud de soporte coincidía con el de un empleado de CloudEx, una empresa tecnológica israelí. La denuncia sostiene que CloudEx actúa como contratista de las FDI y que la operación de análisis de imágenes de drones se enmarcaría en acciones militares en Gaza, aunque el informante no habría aportado pruebas directas sobre el teatro de operaciones concreto. Otro empleado de Google fue incluido en copia en el intercambio de correos y, siempre según la queja, habría trabajado sobre la cuenta en Google Cloud vinculada al Ministerio de Defensa israelí.

La acusación encuadra este episodio en la expansión del uso de servicios de Google Cloud y tecnologías de automatización por parte de instituciones de defensa israelíes, en línea con contratos previos que han suscitado preocupación entre organizaciones de derechos humanos. Informes anteriores ya habían documentado el uso de plataformas como Vertex AI por parte del Ministerio de Defensa de Israel para aplicar algoritmos de inteligencia artificial a datos propios alojados en la nube.

Principios de IA de Google y posible engaño a inversores
Google publicó en 2018 sus principios de IA, donde se comprometía a no diseñar o desplegar sistemas que fomentaran el daño, incluido el uso de inteligencia artificial para armas, vigilancia masiva o aplicaciones que violen normas internacionales. Tras la polémica por su participación en el proyecto Maven del Pentágono, la compañía anunció que no renovaría aquel contrato y se presentó como referente en el desarrollo responsable de IA. La denuncia ante la SEC afirma que la asistencia descrita al contratista israelí contradice esos principios y que, al no revelar adecuadamente este tipo de usos a reguladores y accionistas, Google podría haber incurrido en conductas engañosas en materia de valores.

El informante argumenta que, en informes públicos y comunicaciones regulatorias, Google ha sostenido que cualquier trabajo con el Gobierno israelí no se dirige a cargas militares altamente sensibles ni a servicios de armas o inteligencia. La queja sostiene que ofrecer soporte técnico para mejorar el reconocimiento automatizado de objetivos en vídeo de drones constituye, en la práctica, un apoyo a tareas de vigilancia militar y contradice esas declaraciones. De confirmarse, el caso podría abrir la puerta a investigaciones sobre si la empresa incumplió obligaciones de transparencia frente a inversores y supervisores estadounidenses.

Contexto de la guerra en Gaza y de la IA militar
El episodio denunciado se sitúa en el contexto de la guerra entre Israel y Hamás, durante la cual se ha multiplicado el uso de capacidades de inteligencia artificial por parte del ejército israelí. Investigaciones previas han señalado el empleo de sistemas automatizados para seleccionar objetivos, gestionar grandes volúmenes de datos de vigilancia y coordinar ataques, lo que ha suscitado preocupaciones por el riesgo de errores, sesgos y daños a civiles. En paralelo, filtraciones y reportajes han revelado que tanto Google como Microsoft han proporcionado a instituciones de defensa israelíes servicios de computación en la nube y herramientas avanzadas de IA durante los primeros meses del conflicto.

Diversas organizaciones de la sociedad civil y expertos en ética tecnológica advierten de que la integración de modelos generativos y plataformas de análisis de datos en operaciones militares acelera la toma de decisiones sin garantías de supervisión humana suficiente. Reclaman marcos regulatorios más estrictos sobre exportación de tecnologías duales, transparencia contractual y auditoría independiente de los usos militares de la IA. Para los críticos, episodios como el descrito en la denuncia contra Google ilustran los desafíos de aplicar compromisos éticos empresariales en entornos de alto secreto y contratos gubernamentales complejos.

Reacción de Google y posibles consecuencias
Tras la publicación de la denuncia, Google ha reiterado que sus servicios en Israel no se dirigen a cargas de trabajo militares altamente sensibles ni al desarrollo de armas, y que sus modelos de IA, incluido Gemini, están sujetos a controles para prevenir usos que violen sus políticas. La compañía sostiene que el soporte ofrecido por sus equipos de nube se centra en cuestiones técnicas generales y no implica control sobre los fines últimos que da cada cliente a la tecnología.

La SEC no ha comentado públicamente el contenido de la queja, pero expertos legales señalan que, si el organismo considera creíbles las alegaciones, podría abrir una investigación formal sobre la consistencia entre las prácticas reales de Google, sus declaraciones al mercado y sus políticas de IA. Además del riesgo reputacional, Google se expone a un escrutinio político y regulatorio reforzado en Estados Unidos y otros mercados, donde sus actividades en defensa y seguridad ya han sido objeto de debate. El caso podría influir en el futuro diseño de políticas internas sobre contratación con organismos militares y en la presión de empleados y accionistas para revisar los límites del uso de IA en contextos bélicos.

Más en TECNOLOGÍA
Comentarios