CuriosidadesEstados UnidosInternacionalesPolíticaportadaSucesosTecnologia

Anthropic: la empresa de IA que desafió al Pentágono y abrió un debate global

Un conflicto que trasciende lo corporativo.
Mientras Estados Unidos ejecutaba operaciones militares en Venezuela e Irán, en Washington se gestaba otra batalla: una empresa de inteligencia artificial se negó a ceder ante el Pentágono. Anthropic, creadora del modelo Claude, rechazó eliminar los límites éticos de su tecnología, marcando un precedente histórico.

El choque con el Departamento de Defensa.
El Pentágono exigió acceso irrestricto a los sistemas de Anthropic para “todos los usos legales”. La compañía se negó, defendiendo dos líneas rojas: no permitir vigilancia masiva doméstica ni el uso de armas totalmente autónomas. La respuesta provocó que el gobierno catalogara a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta reservada normalmente para empresas extranjeras consideradas hostiles.

El trasfondo ético.
Anthropic fue fundada en 2021 por exinvestigadores de OpenAI con la misión de desarrollar IA segura y responsable. Sus directivos sostienen que los sistemas actuales no son lo suficientemente confiables para decidir de forma autónoma en escenarios militares. El riesgo, advierten, es que la dependencia humana en las recomendaciones de la máquina erosione el juicio crítico y conduzca a errores graves.

Un debate que nos concierne a todos.
El caso plantea preguntas urgentes: ¿Quién controla el uso de la inteligencia artificial en operaciones militares? ¿Hasta dónde se delegan decisiones letales en sistemas automatizados? Expertos de Oxford señalan que este episodio revela vacíos de gobernanza que persisten desde hace años y que aún no tienen respuesta.

Artículos relacionados

Botón volver arriba
Translate »