OpenAI está a punto de limitar la distribución de su última oferta de ciberseguridad, GPT-5.5 Cyber, a una audiencia muy definida de "defensores críticos de ciberseguridad" después de que el CEO Sam Altman criticara públicamente a Anthropic por hacer lo mismo con su herramienta Mythos. En una publicación en X el jueves, Altman dijo que la implementación comenzaría dentro de días, pero solo después de que los solicitantes presenten información detallada sobre sus credenciales profesionales y uso previsto.

La aplicación, alojada en el sitio web de OpenAI, pide a los usuarios potenciales que describan sus calificaciones de seguridad y describan cómo planean utilizar la herramienta. Según el formulario, Cyber puede realizar pruebas de penetración, identificar y explotar vulnerabilidades, y realizar ingeniería inversa de malware - funciones que podrían ser invaluables para defender redes corporativas pero también atractivas para actores de amenazas.

La crítica de Altman a Anthropic se centró en lo que llamó "marketing basado en el miedo" después de que la empresa rival limitara Mythos a una base de usuarios selecta. Los críticos coincidieron con su sentimiento, sugiriendo que Anthropic exageró los riesgos de un acceso más amplio. Irónicamente, un grupo no autorizado supuestamente violó las restricciones de Anthropic y obtuvo acceso a Mythos de cualquier manera.

La decisión de OpenAI refleja una creciente tensión en la comunidad de inteligencia artificial: equilibrar la implementación rápida de herramientas poderosas con la necesidad de prevenir el mal uso. Al restringir Cyber, la empresa espera mantener la tecnología fuera del alcance de actores maliciosos mientras proporciona a los equipos de seguridad legítimos capacidades avanzadas.

En paralelo con la implementación, OpenAI dijo que está consultando con el gobierno de EE. UU. para identificar a usuarios adicionales que posean credenciales de ciberseguridad verificadas. La empresa enfatizó que busca hacer que Cyber esté más ampliamente disponible una vez que pueda garantizar una supervisión y un uso responsable adecuados.

Los observadores de la industria señalan que el enfoque selectivo refleja una tendencia más amplia entre los desarrolladores de inteligencia artificial para controlar modelos de alto riesgo. Si bien la estrategia puede frenar la adopción, los partidarios argumentan que es una precaución necesaria a medida que las herramientas de inteligencia artificial se vuelven cada vez más hábiles para automatizar ataques sofisticados.

OpenAI no ha revelado cuántas organizaciones o individuos recibirán acceso temprano, ni el cronograma para ampliar la piscina de usuarios más allá del grupo inicial. Los próximos pasos de la empresa probablemente dependerán de los comentarios de los adoptantes tempranos y las discusiones en curso con los reguladores.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.