SESSION EN REPLAY
Sécurité de l'IA générative
empêcher l'exposition aux données de Microsoft Copilot
A la demande
Comment empêcher les outils d’IA générative comme Microsoft Copilot de créer et d’exposer des données sensibles à une vitesse affolante ?
De nombreuses équipes de sécurité doivent gérer ce problème tous les jours.
Rejoignez-nous pour découvrir exactement comment fonctionne le modèle de sécurité de Microsoft Copilot et comment il peut augmenter sans le vouloir l’exposition des données. Nos experts présenteront des scénarios concrets et vous donneront un plan d’action qui vous permettra de vous assurer que les mesures de sécurité des données appropriées sont en place avant de déployer des outils d’IA générative.
Nous vous montrerons également comment Varonis peut vous aider à vous préparer plus rapidement au déploiement de Copilot en limitant le rayon d’explosion de votre IA, en classant et en étiquetant les données générées par l’IA et en surveillant le comportement des utilisateurs.