Introduction
Depuis 2018, Microsoft a mis en place une équipe dédiée, baptisée “AI Red Team”, chargée d’attaquer les systèmes d’apprentissage automatique pour les rendre plus sécurisés. Alors que de nouveaux outils d’IA générative ont été récemment dévoilés au grand public, le domaine évolue déjà rapidement.
L’émergence de l’IA dans la vie quotidienne
Ces derniers mois, l’utilisation d’outils d’intelligence artificielle dans la vie quotidienne, voire simplement pour s’amuser, est devenue courante pour la plupart des gens. Les nouvelles versions d’outils d’IA générative de grandes entreprises technologiques et de startups, tels que ChatGPT d’OpenAI et Bard de Google, ont contribué à populariser ces technologies. Cependant, en coulisses, la technologie a connu une prolifération depuis des années, soulevant des questions sur la meilleure manière d’évaluer et de sécuriser ces nouveaux systèmes d’IA.
L’équipe de sécurité AI Red de Microsoft
Microsoft dévoile maintenant des détails sur l’équipe au sein de l’entreprise qui, depuis 2018, a pour mission de déterminer comment attaquer les plates-formes d’IA afin d’en révéler les faiblesses. Au fil des cinq années depuis sa création, l’équipe de sécurité AI Red de Microsoft est passée d’une simple expérience à une équipe pluridisciplinaire composée d’experts en apprentissage automatique, de chercheurs en cybersécurité et même d’ingénieurs sociaux. L’équipe communique ses résultats au sein de Microsoft et dans l’ensemble de l’industrie technologique en utilisant le langage classique de la sécurité numérique. Cela permet de rendre les idées accessibles sans nécessiter des connaissances spécialisées en IA que bon nombre de personnes et d’organisations n’ont pas encore.
Autre: L’Exploration du Potentiel du Big Data dans le Développement Durable 2023
La sécurité de l’IA : une nouvelle approche
Cependant, l’équipe de sécurité AI Red a conclu que la sécurité de l’IA présente des différences conceptuelles importantes par rapport à la défense numérique traditionnelle. Cela nécessite donc une approche différente dans leur travail. Au-delà de la sécurité traditionnelle, l’accent est désormais mis sur la responsabilité des échecs des systèmes d’IA, tels que la génération de contenu offensant ou non fondé. C’est ce que l’équipe appelle le “saint graal” de la sécurité AI Red. L’objectif n’est pas seulement de repérer les failles de sécurité, mais aussi les échecs de l’IA responsables.
Évolution de l’équipe au fil du temps
Au départ, l’équipe AI Red a travaillé sur des outils de sécurité plus traditionnels, tels que la Matrice de Menace en Apprentissage Automatique Adversarial de 2020, développée en collaboration avec le groupe de recherche et développement à but non lucratif MITRE, ainsi que d’autres chercheurs. Cette même année, l’équipe a également mis à disposition des outils d’automatisation open source pour le test de sécurité de l’IA, connus sous le nom de Microsoft Counterfit. En 2021, elle a publié un cadre d’évaluation des risques de sécurité de l’IA supplémentaire.
Des attaques diversifiées sur les systèmes AI
Au fil du temps, l’équipe de sécurité AI Red a pu évoluer et se développer, car l’urgence de résoudre les problèmes et les échecs de l’apprentissage automatique est devenue de plus en plus évidente. Parmi les opérations menées, l’équipe a évalué un service de déploiement cloud de Microsoft comportant un composant d’apprentissage automatique. Ils ont réussi à lancer une attaque de déni de service sur d’autres utilisateurs du service cloud en exploitant une faille qui leur permettait de créer des demandes malveillantes pour abuser des composants d’apprentissage automatique et créer stratégiquement des machines virtuelles. En plaçant judicieusement ces machines virtuelles dans des positions clés, l’équipe a pu lancer des attaques de type “voisin bruyant” sur d’autres utilisateurs du cloud.
Un engagement envers la sécurité de l’IA
L’équipe AI Red a finalement créé et attaqué une version hors ligne du système pour prouver que les vulnérabilités existaient, sans risquer d’impact sur les clients réels de Microsoft. Ces résultats ont éliminé tout doute sur l’utilité de l’équipe AI Red. Ils ont démontré les dangers potentiels des vulnérabilités de l’IA, soulignant que même des attaquants moins expérimentés pourraient exploiter ces systèmes d’IA.
Conclusion
En somme, l’équipe de sécurité AI Red de Microsoft joue un rôle essentiel dans l’amélioration de la sécurité et de la responsabilité des systèmes d’IA. Leur approche proactive et multidisciplinaire permet d’anticiper les tendances des attaques et de collaborer avec d’autres groupes au sein de Microsoft pour résoudre les vulnérabilités des systèmes logiciels. Alors que l’IA continue de se développer, l’importance de ces équipes spécialisées ne fera que croître pour assurer un avenir plus sûr et plus responsable pour l’intelligence artificielle.
Pour plus d’articles : https://www.moussasoft.com/tutoriels-electroniques