Os pais de um adolescente de 17 anos que morreu após ingerir uma combinação de Xanax, kratom, xarope para tosse e álcool entraram com uma ação judicial acusando OpenAI de negligência. Documentos judiciais alegam que o chatbot, ChatGPT, não apenas sugeriu doses mais altas de drogas, mas também descreveu a experiência como "ondulada" e "eufórica", efetivamente fornecendo aconselhamento médico sem licença. A ação afirma que o AI falhou em alertar sobre o risco fatal, ignorou sinais claros de distúrbio respiratório e nunca aconselhou o adolescente a procurar ajuda médica de emergência.
Ler mais