El modelo de IA más peligroso de Anthropic acaba de caer en las manos equivocadas

«Un pequeño grupo de usuarios no autorizados accedió a un modelo de Mythos AI de Anthropic, una poderosa herramienta de ciberseguridad que, según la compañía, podría ser peligrosa en las manos equivocadas». Bloomberg Un miembro anónimo del grupo, que se identificó sólo como un «contratista externo de Anthropic», dijo a la publicación que los miembros del foro privado en línea ingresaron a Mythos a través de una combinación de métodos, utilizando acceso de contratista y «herramientas de investigación de Internet de uso común».
Claude Mythos Preview es un nuevo programa de propósito general que es capaz de identificar y explotar vulnerabilidades «en todos los principales sistemas operativos y en todos los principales navegadores cuando el usuario así lo solicite», según Anthropic. El acceso al modelo oficial está limitado a unas pocas empresas por tema. Proyecto Glasswing en Marteincluidos Nvidia, Google, Amazon Web, Apple, Microsoft. Comandos También lo son a los ojos de la tecnología. Actualmente, Anthropic no tiene planes de lanzar el modelo públicamente debido a la preocupación de que pueda dañarse.
«Estamos investigando un informe que solicita acceso no autorizado a Cloud Mythos Preview a través de uno de nuestros entornos de proveedores externos», dijo un portavoz de Anthropology en un comunicado a Bloomberg. Anthropic ahora no tiene evidencia de acceso no autorizado al sistema de la empresa o más allá del alcance del proveedor externo.
Se informó que se accedió ilegalmente al modelo el 7 de abril, el mismo día en que Anthropic anunció que lanzaría Mythos a un pequeño número de empresas para que lo probaran. Aunque el grupo que obtuvo acceso al extraterrestre no ha sido identificado públicamente. Bloomberg informa que sus miembros son parte de un canal de Discord que busca información sobre el lanzamiento de modelos de IA.
El grupo se acercó a Mythos utilizando el conocimiento de otras formas antrópicas obtenido de estudios recientes. compro violación de datos como una «suposición fundamentada» de su sitio en línea. Los miembros utilizaron mitos con regularidad cuando obtuvieron acceso: las capturas de pantalla y una demostración en vivo del modelo son prueba de ello. Bloomberg – aunque aparentemente no debido a medidas de ciberseguridad en un intento de evitar la detección por parte de Anthropic. El grupo también ha abordado otros modelos antropogénicos de IA sin resolver, según n Bloomberg.