En una escalada sin precedentes en el mundo de la inteligencia artificial empresarial, Anthropic presentó este lunes una demanda contra el gobierno de los Estados Unidos, acusando a la administración Trump de haber reaccionado ilegalmente ante las políticas de uso de la empresa.

El fondo del conflicto es llamativo: Anthropic fue designada como 'riesgo de cadena de suministro' por el Pentágono —una categoría reservada típicamente para empresas extranjeras sospechosas de espionaje o sabotaje— después de que la compañía se negara a permitir que sus modelos de IA fueran usados para vigilancia masiva doméstica o para sistemas de armas totalmente autónomas. Estas restricciones son parte de los llamados 'límites rojos' de uso que Anthropic establece para sus modelos.

La demanda, presentada ante un tribunal federal en California, alega que el gobierno violó la Primera Enmienda (libertad de expresión) al castigar a la empresa por su postura sobre seguridad en IA, y la Quinta Enmienda al perjudicar económicamente a la compañía sin el debido proceso. Además, Anthropic argumenta que el mandato ejecutivo que obliga a todas las agencias federales a dejar de usar su tecnología en seis meses excede las competencias del poder ejecutivo.

Las consecuencias ya son visibles: la Administración de Servicios Generales (GSA) canceló el contrato OneGov que hacía disponibles los servicios de Anthropic a los tres poderes del gobierno federal. El Departamento del Tesoro y el Departamento de Estado también han cortado o planean cortar vínculos con la empresa.

Microsoft —uno de los mayores clientes de Anthropic— aclaró que seguirá trabajando con la empresa, pero asegurando que ningún trabajo que involucre a Anthropic toque contratos con el Pentágono.

El caso genera un debate crucial: ¿puede el gobierno federal penalizar a una empresa privada por negarse a eliminar salvaguardas de seguridad en sus productos de IA? Para el ecosistema tech latinoamericano, que depende en gran medida de acceso a los modelos de Anthropic (especialmente Claude), este litigio podría redefinir quién tiene autoridad sobre las 'reglas del juego' de la IA a escala global.