La empresa detrás de Claude declina acatar las demandas del Departamento de Defensa de EE. UU., pese a las amenazas de cancelación del contrato y acciones legales. Dario Amodei, director general, sostiene que un uso ilimitado de su tecnología va en contra de los principios democráticos.
Las tensiones entre las principales compañías de inteligencia artificial y el sector militar estadounidense han llegado a un punto crítico. Anthropic ha comunicado este jueves su rechazo a aceptar las condiciones establecidas por el Pentágono para emplear su IA, Claude, en operaciones bélicas y sistemas de vigilancia. Esta postura pone en peligro un contrato multimillonario y genera un debate sin precedentes acerca de la responsabilidad ética en las empresas tecnológicas.
El dilema ético frente a la seguridad nacional
Dario Amodei, CEO de Anthropic, ha declarado de forma clara que no puede aceptar «de buena fe» la petición del Departamento de Defensa para autorizar un uso sin limitaciones de sus herramientas. Según la compañía, el borrador actualizado del contrato carece de garantías adecuadas para impedir que Claude se utilice en la creación de armas totalmente autónomas —es decir, aquellas que operan sin supervisión humana— o en dispositivos de vigilancia masiva dirigidos a ciudadanos estadounidenses.
«Emplear estos sistemas para una vigilancia doméstica masiva implica riesgos graves y nuevos para nuestras libertades fundamentales», indicó la empresa en un comunicado oficial.
Anthropic afirma que, aunque respalda el uso de la IA en análisis de inteligencia y operaciones en ciberseguridad, las armas autónomas actuales «no cuentan con la fiabilidad necesaria» ni con las medidas preventivas suficientes para evitar consecuencias negativas tanto civiles como militares.
Advertencias vinculadas a la Ley de Producción de Defensa
El Pentágono ha respondido firmemente. El Departamento de Defensa estableció este viernes 27 de febrero como fecha límite para que Anthropic acepte los términos que permiten «cualquier uso legal» de la tecnología. En caso contrario, el Gobierno amenaza con:
- Excluir a Anthropic de todos los sistemas de defensa.
- Clasificar a la empresa como un «riesgo dentro de la cadena de suministro».
- Activar la Ley de Producción de Defensa para forzar la transferencia tecnológica.
Sean Parnell, portavoz del Pentágono, calificó como una «narrativa errónea» las inquietudes expresadas por la compañía, asegurando que no existe interés en la vigilancia ilegal masiva ni en armas sin control humano.
Contrato de 200 millones en riesgo
La empresa, ubicada en San Francisco, obtuvo en julio de 2025 un contrato valorado en 200 millones de dólares destinado a fortalecer la seguridad nacional. No obstante, ante el actual desacuerdo, Anthropic ha expresado su disposición a facilitar una «transición ordenada a otro proveedor» si el Pentágono decide finalizar la colaboración.
Aunque enfrenta presiones, la compañía reafirma que continuará apoyando a las fuerzas armadas solo si se mantienen intactas sus salvaguardas éticas, estableciendo un precedente en la resistencia de Silicon Valley frente a las demandas del sector militar.
Únete al canal de WhatsApp de Más que al día
Recibe las alertas de última hora directamente en tu móvil.
UNIRME GRATIS AL CANAL

















