Cuando lanzamos Llama-3.1-Foundationai-Securityllm-Base-8B (Foundation-SEC-8B) En abril, demostramos que un modelo de ocho billones de parámetros, entrenado exclusivamente en datos de seguridad, puede superar a los LLM de uso general muchas veces su tamaño en puntos de referencia de seguridad cibernética. A los practicantes les encantaron los resultados, pero seguían preguntando:
“¿Puedo interactuar con él como chatgpt, no hay andamios adicionales, solo rápido y ir?”
Ahora puedes. Llama-3.1-FoundationAi-Securityllm-Instructo-8B (Foundation-SEC-8B-Instructo) Instrucción de capas Autoring en la parte superior de nuestro modelo base centrado en el dominio, que le brinda un copiloto nativo de chat que comprende el contexto de seguridad y sigue direcciones de lenguaje natural directamente fuera de la caja.
Construido para la seguridad, sintonizado para la conversación
- Instrucción siguiente -Foundation-SEC-8B-Instructo obedece las indicaciones cotidianas para resumir, respuesta de pregunta, análisis de sentimientos y generación de texto creativo sin ningún ajuste adicional.
- Conciencia de papel -Entiende los roles de sistema, usuario y asistente, que permite chats múltiples giros, generación de recuperación y aplicaciones de estilo agente.
- Huella compacta -Una ventana de contexto de 4K-token permite que Foundation-SEC-8B-Instructo se ejecute en una sola GPU de alta memoria, mientras que empujamos hacia ventanas mucho más largas.
- De código abierto y liviano -Al igual que su hermano, Foundation-SEC-8B-Instructo se envía como pesas totalmente abiertas bajo una licencia permisiva, lo suficientemente pocas veces para implementaciones de bordes o de borde sin bloqueo sin bloqueo de proveedores.
Rendimiento que supera los modelos más grandes
Foundation-SEC-8B-Instructo ofrece un rendimiento de seguridad de peso pesado en un factor de forma de ocho billones de parámetros. En evaluaciones independientes, supera a los modelos más grandes y permanece lo suficientemente pequeño como para ejecutarse en una sola GPU de alta memoria.
Punto de referencia | Fundación-SEC-8B-Instructo | Llama-3.1-8b-Instructo | Llama-3.1-70B-Instructo | GPT-4O-Mini |
---|---|---|---|---|
CTI-RCM | 0.692 | 0.558 | 0.623 | 0.655 |
Igual de importante, Foundation-SEC-8B-Instructo mantiene un fuerte rendimiento del idioma general en pruebas amplias como MMLU. Eso significa que puede explicar con fluidez el comportamiento de la amenaza, apoyar las narrativas de investigación de forma larga y responder naturalmente en los flujos de trabajo de chat, sin comprometer su enfoque de seguridad o exigir una infraestructura de gran tamaño.
Donde encaja hoy
Centros de operaciones de seguridad (SOC) Enfrentan un ruido de alerta implacable, herramientas fragmentadas y brechas crónicas de personal. En los pilotos de Cisco CSIRT y Cisco XDR, Foundation-SEC-8B-Instructo clasifica alertas, mapas observables a las tácticas de inglete, reconstruye los plazos y redacta los informes de investigación, colocando falsos positivos y acelerando el triaje para que los analistas puedan centrarse en amenazas reales.
Seguridad de la aplicación (APPSEC) Los equipos hacen malabarismos con las revisiones de código, los modelos de amenazas y la planificación del equipo rojo con un ancho de banda de expertos limitado. Las implementaciones tempranas en SBG Product Security, Meraki, y el grupo de seguridad de la aplicación web utilizan el Instructo Foundation-SEC-8B para simular las rutas de ataque, generar diagramas de modelos de amenazas, revisar el código contra las pautas de OWASP y crear cargas útiles personalizadas, el trabajo cambiante de las fijas reactivas al diseño proactivo.
Debido a que el instructo de Foundation-SEC-8B está ajustado a las instrucciones, la mayoría de los flujos de trabajo solo necesitan un aviso bien elaborado o una plantilla de recuperación simple, no se requiere un bucle de entrenamiento adicional.
Mirando hacia el futuro
Foundation-SEC-8B-Instructo es un hito, pero está lejos del destino final. Nuestra hoja de ruta se centra en desbloquear un contexto más rico, una estructura más estricta y modalidades de datos más amplias, por lo que el modelo podrá manejar todos los defensores de artefactos, sin atar a la infraestructura adicional. En el corto plazo puede esperar:
- Windows de contexto más largo – 16k+ tokens para libros de jugadas completos, SBOMS y paquetes de troncos
- Interacción estructurada -JSON valorado por esquema, llamadas de función explícita e incluso la generación de código o binaria
- Entradas multimodales – registros, capturas de paquetes, capturas de pantalla y otros artefactos en una sola conversación
- Modelos de próxima generación -Una variante de ocho mil millones de parámetros optimizados por el razonamiento y un próximo modelo de setenta mil millones de parámetros
Empiece a construir hoy
- Agarra las pesas – Descargar Fundación-SEC-8B-Instructo en la cara abrazada y ejecutarlo en el programa, en enclaves de nubes seguros, o en laboratorios con recaudación de aire, sin restricciones de licencia.
- Sigue las recetas – El Foundation AI Cookbook Ofrece guías de implementación, plantillas de recuperación y ejemplos de agentes.
- Únete a la comunidad -Piloto de nuevos flujos de trabajo, contribuya con indicaciones o ajustes finos, y alimente sus hallazgos al ecosistema de código abierto.
Fundación-SEC-8B-Instructo está vivo, abierto y listo para defenderse. Descárguelo, avíselo y ayude a dar forma al futuro de la ciberseguridad con IA.
Colaboradores: Bastantew, Paul Kassiian, Blaine Nellson, Baturay Saig, Anu Veere, Aun Velore, Anu Velore, Anu Velore, Anu Velore, Auinso, Vija’s Support, Viryielo Massmot, Burch, Arthy Golding, Arthdy, Eline Forr, The Hill of Oshiba, Jaron. Shener, Amén Carrazi
¡Nos encantaría escuchar lo que piensas! Haga una pregunta y manténgase conectado con Cisco Security en las redes sociales.
Cisco Security Social Media
LinkedIn
Facebook
Instagram
incógnita
Compartir: