Attaques adverses, spoofing, empoisonnement de données, injection de code malveillant, exfiltration et rétro-ingénierie de modèles…, l’IA est fragile ! Pour la protéger, il est impératif d’effectuer une sélection et une gestion rigoureuse des données d’entraînement afin de prévenir les biais et d’assurer la qualité des modèles obtenus. Parallèlement, accorder une attention prioritaire à la prévention des biais implique une surveillance régulière et la mise en place de stratégies d’atténuation. La sécurité des données de l’IA,
que ce soit via chiffrement ou gestion d’accès restreinte, se révèle cruciale pour éviter toute divulgation d’informations sensibles. En outre, garantir la protection des modèles contre les attaques adverses et assurer
leur actualisation à travers des correctifs de sécurité sont des démarches essentielles. Pour véritablement ancrer la sécurité dans chaque aspect de l’IA, l’approche « secure by design » doit être une priorité dès la phase de conception. Comment se défendre contre ces attaques ? Comment corriger les vulnérabilités et sécuriser ces modèles ? Quel rôle pour “l’apprentissage fédéré” sans remettre en cause la confidentialité et la protection des données collectées ? Quels sont les défis et les avantages liés à la mise à jour régulière des modèles d’IA avec des correctifs de sécurité ?
Ещё видео!