A los gigantes estadounidenses de la IA no parece importarles que su tecnología sirva para espiar a los europeos
El chatbot Claude de Anthropic es muy utilizado como herramienta de apoyo a la toma de decisiones por el ejército estadounidense, y recientemente para el ataque del pasado sábado contra Irán. Pero la empresa se mantuvo firme en una supuesta línea roja en las recientes negociaciones contractuales con el DoD, al exigir garantías de que sus modelos no se utilizarán para la vigilancia masiva interna ni para alimentar armas totalmente autónomas.
Washington/Bruselas (Euractiv.com) – Los gigantes estadounidenses de la Inteligencia Artificial (IA) OpenAI y Anthropic no parecen preocupados por el uso de sus tecnologías para la vigilancia masiva de ciudadanos no estadounidenses, incluidos los europeos, según recientes declaraciones públicas de sus responsables.
Los comentarios, realizados en el contexto de una disputa entre Anthropic —que se ha posicionado como el laboratorio de IA más ético de los grandes, después de que sus fundadores abandonaron OpenAI por motivos de seguridad— y el Departamento de Defensa de Estados Unidos (DoD), o el «Departamento de Guerra», como prefiere llamarlo el presidente, Donald Trump.
El chatbot Claude de Anthropic es muy utilizado como herramienta de apoyo a la toma de decisiones por el ejército estadounidense, y recientemente para el ataque del pasado sábado contra Irán. Pero la empresa se mantuvo firme en una supuesta línea roja en las recientes negociaciones contractuales con el DoD, al exigir garantías de que sus modelos no se utilizarán para la vigilancia masiva interna ni para alimentar armas totalmente autónomas.
Las negociaciones fracasaron la semana pasada. El secretario de Defensa de Estados Unidos, Pete Hegseth, no solo rescindió los contratos de su departamento con Anthropic, sino que designó al fabricante de LLM como un riesgo para la cadena de suministro, lo cual se traduce en que otras empresas no podrán utilizar Anthropic mientras trabajen en algún proyecto con el ejército estadounidense.
Se trata de una restricción muy dura que normalmente se reserva a empresas de países como China. En este caso, la motivación para esa restricción parece ser el disgusto de los funcionarios de la administración Trump con una empresa que perciben como repleta de liberales «progresistas».
¡Los europeos no son estadounidenses!
A pesar de ello, en lo relativo al uso de la IA para el espionaje, las salvaguardias que Anthropic quería solo se centraban en la vigilancia masiva nacional, no se oponía a la vigilancia masiva legal de personas no estadounidenses, incluidos los europeos.
«Apoyamos el uso de la IA para misiones legales de inteligencia y contrainteligencia extranjeras», escribió la semana pasada el director ejecutivo de Anthropic, Dario Amodei. «Pero el uso de estos sistemas para la vigilancia masiva nacional es incompatible con los valores democráticos», subrayó.
OpenAI anunció el pasado sábado un acuerdo con el Departamento de Defensa, que, según afirmó la empresa, ofrece mejores salvaguardias que las que solicitó Anthropic. Sin embargo, en temas de vigilancia, las garantías de OpenAI también se centran exclusivamente en los estadounidenses.
«El sistema de IA no se utilizará para la vigilancia sin restricciones de la información privada de personas estadounidenses, de conformidad con estas autoridades», reza el texto de un extracto del contrato de OpenAI con el Departamento de Defensa, según una entrada del blog del sitio web del desarrollador de IA.
Tras algunas reacciones negativas a nivel nacional, el director ejecutivo de OpenAI, Sam Altman, escribió el martes que modificará su acuerdo con el Departamento de Estado y añadirá más garantías que impidan que su sistema de IA se utilice para la «vigilancia nacional de personas y ciudadanos estadounidenses».
Altman agregó que OpenAI ha recibido garantías de que sus servicios no serán utilizados por agencias de inteligencia estadounidenses dependientes del Departamento de Defensa, como la Agencia de Seguridad Nacional.
La IA potencia la vigilancia masiva
Aunque la IA no es la única herramienta que puede recopilar datos personales para crear perfiles detallados de individuos, Robin Staab, que investiga la IA y la privacidad en la ETH Zürich (Suiza), señala que los sistemas modernos de IA pueden realizar esa tarea de forma mucho más económica que los sistemas menos avanzados.
«Se consigue por una centésima, una milésima parte de la inversión financiera y de tiempo, o incluso menos», explica a Euractiv.
En ese sentido, Staab tampoco está convencido de que sea posible entrenar técnicamente a los modelos de IA para que no se utilicen para la vigilancia masiva, sobre todo porque su función es combinar datos de forma lógica.
Las salvaguardias técnicas tampoco impedirán que alguien motivado para utilizar una herramienta de IA para la vigilancia masiva lo haga, advirtió Staab.
Las normas de la UE
El hecho de que Anthropic u OpenAI acepten en principio que el Gobierno de Estados Unidos pueda utilizar sus modelos de IA para la vigilancia masiva de personas no estadounidenses no significa necesariamente que ningún organismo estadounidense lo esté haciendo.
También hay normas que regulan cómo usa Estados Unidos los datos de los europeos.
El Marco de Protección de Datos entre la UE y EE. UU. (DPF) establece obligaciones para las organizaciones estadounidenses participantes que manejan los datos personales de los ciudadanos de la UE cuando se transfieren a Estados Unidos.
Sin embargo, los anteriores acuerdos transatlánticos de alto nivel sobre transferencia de datos fracasaron precisamente debido a los programas de vigilancia masiva de Estados Unidos dirigidos a personas no estadounidenses. Aunque, en virtud del DPF, las agencias de inteligencia estadounidenses pueden acceder a los datos de los ciudadanos de la UE, el mecanismo de reclamación incluido en el marco tiene por objeto crear controles y contrapesos, aunque su eficacia no está cara.
En ese sentido Max Schrems, activista pro derechos de privacidad cuyas impugnaciones legales enterraron en los tribunales los anteriores acuerdos de transferencia entre la UE y Estados Unidos, no cree que esos acuerdos ofrezcan mucha protección contra la vigilancia mediante IA.
«Si no eres ciudadano estadounidense, casi todo es posible siempre que los datos sean «relevantes para las relaciones internacionales de EE. UU.»»,explicó Schrems a Euractiv.
Otros acuerdos sobre transferencia de datos
También hay acuerdos que facilitan a las autoridades estadounidenses datos específicos sobre ciudadanos europeos, incluidos los vuelos comerciales que han tomado o las transacciones financieras que han realizado. Esos acuerdos tienen como objetivo principal ayudar a combatir el terrorismo.
La UE y Estados Unidos negocian un nuevo acuerdo que implicaría la transferencia de datos sensibles sobre viajeros europeos a Estados Unidos, lo que podría permitir la toma de decisiones automatizadas —posiblemente con el uso de IA— en determinadas circunstancias.
Euractiv se puso en contacto con Anthropic, OpenAI y la representación de Estados Unidos en Bruselas para preguntarles sobre el uso de la IA para llevar a cabo una vigilancia masiva de los europeos y qué normas se aplicarían, pero ninguno respondió al cierre de este artículo.
///
(Editado por Euractiv.com y Fernando Heller)