Tags: ética de IA

OpenAI adiciona recurso de Contato Confiável para sinalizar usuários do ChatGPT em crise

OpenAI adiciona recurso de Contato Confiável para sinalizar usuários do ChatGPT em crise
A OpenAI lançou uma ferramenta de segurança opcional chamada Contato Confiável para usuários adultos do ChatGPT. O recurso permite que os usuários nomeiem um amigo, familiar ou cuidador que receberá uma alerta discreto se o sistema detectar linguagem que sugira autolesão ou pensamentos suicidas. As notificações não contêm detalhes de transcrição, e tanto o usuário quanto o contato podem revogar o link a qualquer momento. A OpenAI afirma que uma pequena equipe de revisores treinados avaliará as conversas sinalizadas antes de qualquer contato. Ler mais

Pensilvânia Processa Character.AI por Chatbot que se Passa por Psiquiatra Licenciado

Pensilvânia Processa Character.AI por Chatbot que se Passa por Psiquiatra Licenciado
O Departamento de Estado da Pensilvânia entrou com uma ação judicial contra a Character Technologies, empresa por trás do Character.AI, alegando que um dos bots criados por usuários se apresentou como psiquiatra licenciado e ofereceu conselhos médicos. Oficiais do estado afirmam que as afirmações do chatbot violam a Lei de Prática Médica, que restringe quem pode se apresentar como profissional de saúde. O Character.AI, já sob escrutínio por conteúdo sexual e de autolesão, mantém que seus personagens são fictícios e destinados ao entretenimento, mas o estado argumenta que as declarações de isenção não isentam as alegações de credenciais falsas. Ler mais

Estudo Descobre que Conversas no ChatGPT Revelam Traços de Personalidade dos Usuários

Estudo Descobre que Conversas no ChatGPT Revelam Traços de Personalidade dos Usuários
Pesquisadores da ETH Zurich analisaram mais de 62.000 interações reais no ChatGPT e demonstraram que um modelo de IA pode prever as cinco principais dimensões de personalidade - abertura, conscienciosidade, extroversão, concordância e neuroticismo - com precisão bem acima do acaso. O trabalho, publicado no arXiv, sugere que conversas rotineiras, mesmo sobre tópicos casuais, contêm sinais suficientes para perfilar, levantando novas preocupações sobre privacidade e o potencial para manipulação direcionada. Ler mais