Empresas & Management

Anthropic, OpenAI y Google: estrategias opuestas ante el tablero bélico de la IA

Mientras Anthropic se desangra en los tribunales y OpenAI enfrenta críticas, Alphabet (matriz de Google) ha comenzado a desplegar sus agentes de IA para la plantilla de 3 millones de personas del Pentágono en tareas no clasificadas.

2026-03-12

POR EFE

La creciente disputa legal y ética entre las tecnológicas y el Pentágono está reconfigurando el tablero de la inteligencia artificial (IA), con tres actores clave, Anthropic, OpenAI y Google, que han adoptado aproximaciones diversas ante el uso bélico de su tecnología.

Anthropic ha visto crecer su popularidad entre los civiles a la par que se enfrenta en los tribunales a la Administración de Donald Trump, OpenAI enfrenta críticas por su cercanía al sector militar, y Google expande discretamente su presencia en Defensa.

La semana pasada, el Departamento de Defensa de EEUU designó a Anthropic como un "riesgo para la cadena de suministro" y vetó el uso de su tecnología en contratos militares tras no lograr un acuerdo con la compañía.

El origen de la fricción radica en las salvaguardas que Anthropic -una empresa que se distingue por priorizar la seguridad- pidió al Pentágono, como la prohibición explícita del uso de su modelo Claude en vigilancia doméstica masiva o en el desarrollo de armas totalmente autónomas.

Anthropic contra gobierno de Trump por designarla como riesgo nacional

Por el contrario, el Pentágono exigió un acceso "para todo propósito legal" sin restricciones del proveedor, lo que le llevó a un acuerdo con OpenAI para el uso de sus modelos de IA.

La vanguardista tecnología de Anthropic había sido integrada en sistemas críticos del Pentágono, utilizados para sintetizar documentos, optimizar cadenas de suministro y analizar datos en tiempo real en operaciones de defensa.

Según medios con acceso a fuentes del Departamento de Defensa, Claude ha sido empleado en análisis y logística de operaciones militares como la reciente incursión militar en Venezuela para capturar al líder Nicolás Maduro, así como en operaciones en Irán, pese a la decisión del Pentágono de limitar su uso.

El Pentágono utiliza estos modelos para sintetizar documentos, optimizar cadenas de suministro y analizar datos en tiempo real.

Popularidad impulsada por la seguridad

El conflicto entre Anthropic y el Pentágono escaló aún más esta semana cuando la firma presentó una demanda contra el Gobierno de EEUU en la que apuntaba que no se puede estigmatizar a una empresa por defender sus valores de seguridad.

Paradójicamente, el rechazo al acuerdo con el Gobierno ha disparado la popularidad de Anthropic entre los consumidores civiles y ha generado el apoyo de grandes titanes de la tecnología como Microsoft, empresa que solicitó una orden judicial que bloquee temporalmente la designación de esa empresa como "riesgo para la cadena de suministro".

Los titanes de la nube Google y Amazon, que también integran tecnología de Anthropic, aclararon a sus clientes que, fuera del ámbito de defensa, los productos de Anthropic seguirán estando disponibles en sus plataformas.

El público estadounidense tomó las líneas rojas de Anthropic como un sinónimo de "seguridad y ética" y como una alternativa responsable en el mercado de la IA.

La inteligencia artificial pone a prueba la resiliencia del sector software

Los civiles optaron por catapultar a Claude al número 1 en la lista de las mejores aplicaciones gratuitas de Apple tras el rechazo del Pentágono.

Los usuarios de pago de Anthropic, que fue fundada por exempleados de OpenAI, se han duplicado este año. También ha alcanzado una valoración de 380.000 millones de dólares, por encima de empresas como Coca-Cola o Goldman Sachs, y prevé ingresos para finales de 2026 que podrían superar a los de su rival OpenAI.

Preocupación interna en OpenAI

Mientras, la directora de la división de Robótica de OpenAI, Caitlin Kalinowski, anunció el sábado pasado su dimisión en la compañía debido a profundas preocupaciones éticas sobre el reciente acuerdo de colaboración firmado entre la tecnológica y el Pentágono.

"La vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron", afirmó la ingeniera, subrayando que su decisión se basa en una cuestión de "principios".

El silencio estratégico de Google

No obstante, algunos analistas apuntan a que los ojos tienen que ponerse en Google, gigante tecnológico que ha adoptado una postura pragmática que le está permitiendo ganar terreno de forma acelerada.

Mientras Anthropic se desangra en los tribunales y OpenAI enfrenta críticas, Alphabet (matriz de Google) ha comenzado a desplegar sus agentes de IA para la plantilla de 3 millones de personas del Pentágono en tareas no clasificadas.

Analistas de firmas como PitchBook señalan al medio Axios que la solidez financiera de Google le permite absorber el coste reputacional y los riesgos de estos contratos de una manera que las empresas emergentes no pueden.

12 ejemplares al año por $75

SUSCRIBIRSE