Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Google publie plusieurs analyses majeures sur la sécurité de son modèle d’IA Gemini

janvier 2025 par Google

Google a récemment dévoilé plusieurs analyses majeures sur la sécurité de son modèle d’IA Gemini, révélant trois avancées stratégiques :

• L’équipe GTIG (Google Threat Intelligence Group), qui regroupe les experts de TAG et Mandiant, a publié une analyse approfondie sur l’exploitation de Gemini par des groupes de hackers soutenus par des États. Cette étude couvre aussi bien les menaces persistantes avancées (APT) que les campagnes de désinformation coordonnées.
• Évaluation de la robustesse aux attaques contre Gemini dans des environnements critiques pour la sécurité : Les chercheurs en sécurité de l’IA agentique de Google ont développé une stratégie contre les "attaques indirectes par injection de prompt". Leur approche repose sur deux axes : le premier repose sur le déploiement actif de défenses dans leurs systèmes d’IA, et le second sur l’utilisation d’un cadre d’évaluation automatisé. Ce dernier permet de tester la résistance des systèmes face à ces attaques.
• Enfin, l’équipe Open Source Security de Google a publié un guide pratique destiné aux développeurs, établissant les fondamentaux de sécurité pour la conception et le déploiement de modèles d’IA robustes.


Voir les articles précédents

    

Voir les articles suivants