Etiquetas: ética de la inteligencia artificial

Baltimore demanda a xAI por daños causados por Grok con deepfakes

Baltimore demanda a xAI por daños causados por Grok con deepfakes
La ciudad de Baltimore ha presentado una denuncia municipal contra xAI de Elon Musk, alegando que su chatbot de inteligencia artificial Grok y la red social X se comercializaron sin advertir sobre el riesgo de imágenes de deepfake dañinas. La queja cita la herramienta de generación de imágenes de la plataforma, que se utilizó para crear millones de imágenes sexualizadas, incluyendo miles que involucraban menores, y argumenta que esto viola la Ordenanza de Protección al Consumidor de Baltimore. Los funcionarios de la ciudad dicen que la acción tiene como objetivo proteger a los residentes de los daños emergentes relacionados con la inteligencia artificial y responsabilizar a las empresas tecnológicas. Leer más

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial
Más de 2.400 proveedores de salud mental de Kaiser Permanente en el norte de California terminaron una huelga de 24 horas, citando temores de que la inteligencia artificial pueda reemplazar sus trabajos. Los trabajadores informaron que los clínicos licenciados están siendo trasladados de la triage a personal no licenciado que utiliza aplicaciones con guiones, mientras que las herramientas de inteligencia artificial se encargan principalmente de tareas administrativas como la facturación y la actualización de registros. Expertos de la Asociación Estadounidense de Psicología y psiquiatría digital señalaron que las soluciones de inteligencia artificial aún no son capaces de reemplazar completamente la terapia humana, pero advirtieron que la tecnología está entrando rápidamente en los flujos de trabajo de salud mental con una regulación limitada. Leer más

La senadora Elizabeth Warren califica la prohibición del Pentágono a Anthropic de 'represalia'

La senadora Elizabeth Warren califica la prohibición del Pentágono a Anthropic de 'represalia'
La senadora estadounidense Elizabeth Warren calificó la decisión del Departamento de Defensa de etiquetar al laboratorio de inteligencia artificial Anthropic como un 'riesgo de cadena de suministro' como 'represalia'. Warren argumentó que la medida castiga a Anthropic por negarse a permitir que su tecnología se utilice para la vigilancia masiva o armas autónomas sin supervisión humana. Leer más

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar
El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes. Leer más