Etiquetas: Disputa legal

Jueza califica como intento de 'debilitar' a Anthropic la decisión del Pentágono de etiquetarla como riesgo en la cadena de suministro

Jueza califica como intento de 'debilitar' a Anthropic la decisión del Pentágono de etiquetarla como riesgo en la cadena de suministro
Durante una audiencia, la jueza del Tribunal de Distrito de EE. UU., Rita Lin, cuestionó la decisión del Departamento de Defensa de etiquetar a Anthropic, desarrolladora de inteligencia artificial, como un riesgo en la cadena de suministro, describiéndola como un intento aparente de debilitar a la empresa después de que buscó límites en el uso militar de su herramienta Claude. Anthropic ha presentado demandas alegando represalias ilegales, y la jueza está considerando una injunción temporal que podría pausar la designación. El caso destaca las tensiones sobre el uso de la inteligencia artificial en las fuerzas armadas, las preocupaciones sobre la Primera Enmienda y la autoridad del Pentágono para restringir a los contratistas. Leer más

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar
El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes. Leer más