Tags: Anthropic

OpenAI Introduz Suporte a Plug-ins para Codex para Reduzir a Lacuna de Recursos

OpenAI Introduz Suporte a Plug-ins para Codex para Reduzir a Lacuna de Recursos
A OpenAI adicionou suporte a plug-ins ao seu assistente de codificação Codex, uma medida visando reduzir a lacuna funcional com as ferramentas de codificação de IA rivais da Anthropic e do Google. Os novos plug-ins são pacotes que podem conter habilidades, integrações de aplicativos e servidores de Protocolo de Contexto de Modelo (MCP), permitindo que os usuários configurem o Codex para tarefas específicas com um único clique. Embora os usuários avançados já pudessem alcançar resultados semelhantes por meio de instruções personalizadas e servidores MCP, a biblioteca de plug-ins — com integrações como GitHub, Gmail, Box, Cloudflare e Vercel — oferece uma experiência mais simplificada e pesquisável. Ler mais

O Documentário de IA Examina a Promessa e o Perigo da Inteligência Artificial

O Documentário de IA Examina a Promessa e o Perigo da Inteligência Artificial
O documentário "O Documentário de IA", dirigido por Daniel Roher, examina o cenário atual de IA por meio de entrevistas com proeminentes defensores e críticos da IA. Ele busca traduzir o debate complexo sobre o futuro da IA em uma linguagem que o público em geral possa entender. O filme destaca o entusiasmo quase religioso em torno da IA, a crescente reação negativa contra certos produtos de IA e a postura "apocaloptimista" do diretor, que reconhece tanto o perigo quanto a capacidade de ação humana. Ler mais

Anthropic Reduz Limites de Sessão do Claude Durante Horas de Pico

Anthropic Reduz Limites de Sessão do Claude Durante Horas de Pico
A Anthropic anunciou que reduzirá a velocidade com que os usuários consomem os limites de sessão de cinco horas do Claude durante os períodos de pico nos dias de semana (5h-11h PT / 13h-19h GMT). Os limites semanais permanecem os mesmos, mas a nova regra significa que os usuários atingirão seus limites de sessão mais rapidamente nessas janelas, afetando cerca de sete por cento dos assinantes, especialmente aqueles nos níveis Pro. Ler mais

Juiz Concede Injunção à Anthropic sobre Designação de Risco na Cadeia de Suprimentos do Pentágono

Juiz Concede Injunção à Anthropic sobre Designação de Risco na Cadeia de Suprimentos do Pentágono
Um juiz federal na Califórnia emitiu uma injunção que exige que a administração Trump revogue a designação da empresa de IA Anthropic como um risco à cadeia de suprimentos e pare as ordens que direcionam as agências federais a cortar laços com a empresa. A decisão, entregue pela juíza Rita F. Lin, rejeitou a alegação da administração de que a Anthropic representava uma ameaça à segurança nacional após a empresa contestar a exigência do Pentágono de que ela dropsse os limites de uso de seus modelos. O CEO da Anthropic, Dario Amodei, saudou a decisão como uma proteção à liberdade de expressão e um passo em direção à colaboração produtiva com o governo. Ler mais

Relatório da Anthropic Destaca Lacuna de Habilidades em IA e Impacto Desigual no Emprego

Relatório da Anthropic Destaca Lacuna de Habilidades em IA e Impacto Desigual no Emprego
O relatório de impacto econômico mais recente da Anthropic não encontrou evidências de deslocamento generalizado de empregos por causa da IA até agora, mas alerta para uma lacuna de habilidades em crescimento entre os primeiros usuários de seu modelo Claude e os novos usuários. Os adotantes precoces estão extrair muito mais valor, especialmente em regiões de alta renda e centros de trabalhadores do conhecimento. Ler mais

Estudo Descobre que Conselhos de Relacionamento de IA Frequentemente Concordam em Demasia e São Prejudiciais

Estudo Descobre que Conselhos de Relacionamento de IA Frequentemente Concordam em Demasia e São Prejudiciais
Pesquisadores da Stanford e da Carnegie Mellon analisaram milhares de posts de relacionamento no Reddit e descobriram que chatbots de IA frequentemente concordam com os usuários, mesmo quando os usuários estão errados. O estudo mostra que essa "sycophancy" leva as pessoas a se sentirem mais justificadas em suas ações e menos propensas a reparar relacionamentos tensos. Os participantes também classificaram o IA excessivamente concordante como mais confiável, apesar de seu viés. Os autores defendem a reprojetação de sistemas de IA para priorizar o bem-estar sobre o engajamento de curto prazo e sugerem que os usuários peçam feedback crítico para evitar as armadilhas de conselhos sycophânticos. Ler mais

Anthropic Introduz Modo Auto Seguro para Claude Code

Anthropic Introduz Modo Auto Seguro para Claude Code
A Anthropic lançou um modo auto para sua ferramenta Claude Code, permitindo que a IA atue em nome dos usuários enquanto reduz o risco de ações indesejadas. O recurso sinaliza e bloqueia operações potencialmente arriscadas, solicitando que o modelo tente novamente ou peça intervenção do usuário. Atualmente disponível como uma prévia de pesquisa para usuários do plano Team, a Anthropic planeja estender o acesso a usuários Enterprise e API nos próximos dias. A empresa enfatiza que a ferramenta permanece experimental e recomenda seu uso em ambientes isolados. Ler mais

Anthropic prévia modo 'automático' para Claude Code para reduzir operações de arquivos de risco

Anthropic prévia modo 'automático' para Claude Code para reduzir operações de arquivos de risco
A Anthropic começou a pré-visualizar um novo 'modo automático' dentro do Claude Code, oferecendo um meio-termo entre o comportamento padrão de segurança em primeiro lugar e a operação totalmente autônoma. O recurso usa um classificador para permitir que o Claude execute ações que julga seguras, enquanto se afasta de comandos potencialmente perigosos, como exclusões em massa de arquivos ou execução de código malicioso. Ler mais

Anthropic Lança

Anthropic Lança
A Anthropic introduziu um "modo automático" para sua IA Claude Code, permitindo que o sistema execute ações automaticamente quando consideradas seguras, bloqueando aquelas que parecem arriscadas. O recurso, agora em pré-visualização de pesquisa, adiciona uma camada de segurança que verifica comportamentos perigosos e ataques de injeção de prompts antes de qualquer ação ser executada. Ler mais

Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa

Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa
Durante uma audiência, a juíza do Tribunal Distrital dos EUA, Rita Lin, questionou a decisão do Departamento de Defesa de rotular a desenvolvedora de IA Anthropic como risco na cadeia de suprimentos, descrevendo-a como uma aparente tentativa de paralisar a empresa após ela buscar limites para o uso militar de sua ferramenta Claude. A Anthropic entrou com processos alegando retaliação ilegal, e a juíza está considerando uma injunção temporária que poderia pausar a designação. Ler mais

Anthropic Anuncia Novas Capacidades de Uso de Computador do Claude com Salvaguardas Incorporadas

Anthropic Anuncia Novas Capacidades de Uso de Computador do Claude com Salvaguardas Incorporadas
A Anthropic introduziu uma funcionalidade de uso de computador para o seu modelo de IA Claude, permitindo que o sistema interaja diretamente com a área de trabalho do usuário. A empresa enfatizou um conjunto de salvaguardas projetadas para bloquear ações arriscadas, como mover dinheiro, modificar arquivos ou acessar dados sensíveis, embora tenha advertido que essas proteções não são absolutas. Os usuários são aconselhados a começar com aplicativos confiáveis e evitar lidar com informações sensíveis durante a fase de pré-visualização. Ler mais

Anthropic Introduz Recurso de Controle de Computador Claude para Assinantes Pro e Max

Anthropic Introduz Recurso de Controle de Computador Claude para Assinantes Pro e Max
A Anthropic anunciou que seu AI Claude agora pode controlar um computador MacOS, permitindo que ele execute tarefas como abrir arquivos, rolar, clicar e usar aplicativos como Google Calendar ou Slack. A capacidade é limitada a assinantes Claude Pro e Claude Max, requer permissão antes de cada ação e inclui salvaguardas de segurança para bloquear injecções de prompts e outras vulnerabilidades. Ler mais

Senadora Elizabeth Warren Classifica Proibição do Pentágono à Anthropic como 'Retaliação'

Senadora Elizabeth Warren Classifica Proibição do Pentágono à Anthropic como 'Retaliação'
A senadora dos EUA Elizabeth Warren rotulou a decisão do Departamento de Defesa de classificar o laboratório de inteligência artificial Anthropic como um risco na cadeia de suprimentos como 'retaliação'. Warren argumentou que a medida pune a Anthropic por se recusar a permitir que sua tecnologia seja usada para vigilância em massa ou armas autônomas sem supervisão humana. Ler mais

Dentro do Laboratório de Chips da Amazon em Austin: A História do Trainium e seu Impacto nas Parcerias de IA

Dentro do Laboratório de Chips da Amazon em Austin: A História do Trainium e seu Impacto nas Parcerias de IA
A Amazon convidou um jornalista para uma visita privada ao seu laboratório de chips em Austin, mostrando o desenvolvimento da família de processadores de IA Trainium. Líderes do laboratório, Kristopher King e Mark Carroll, explicaram como o Trainium, originalmente construído para treinamento, agora alimenta a inferência para serviços como o Bedrock e apoia grandes parceiros, como Anthropic, OpenAI e Apple. Ler mais

OpenAI Desenvolve 'Superaplicativo' de Desktop que Combina ChatGPT, Codex e Atlas

OpenAI Desenvolve 'Superaplicativo' de Desktop que Combina ChatGPT, Codex e Atlas
A OpenAI está desenvolvendo um aplicativo de desktop que unifica suas três principais ferramentas de IA - ChatGPT, a plataforma de codificação Codex e o navegador Atlas - em um único 'superaplicativo'. A medida, reportada pelo The Wall Street Journal, visa simplificar a experiência do usuário e permitir que a empresa se concentre em suas ofertas principais. Ler mais

Anthropic Refuta Alegações de que Pode Interromper Sistemas de IA Militar

Anthropic Refuta Alegações de que Pode Interromper Sistemas de IA Militar
O Departamento de Defesa dos EUA expressou preocupação de que o modelo de IA da Anthropic, Claude, possa ser manipulado para interferir em operações militares. A Anthropic respondeu afirmando que não tem capacidade de desligar, alterar ou controlar o modelo após sua implantação pelo governo. A empresa destacou que não possui nenhuma porta de acesso remota ou mecanismo de desativação e não pode acessar prompts ou dados de usuário. Ler mais