Microsoft lance Security Copilot, son assistant GPT-4 pour la cybersécurité
Le nouvel assistant alimenté par l’IA permettra d’identifier les failles et d’émettre des préconisations. On vous dit tout !
Un assistant pour les professionnels de la cybersécurité
Microsoft a profité de son événement en ligne Microsoft Secure pour annoncer l’arrivée de Security Copilot, un nouvel assistant alimenté par l’IA destiné aux professionnels de la cybersécurité. L’outil combine la technologie GPT-4 d’OpenAI et un modèle de sécurité développé par Microsoft. Il s’exécute sur l’infrastructure Azure. Microsoft Security Copilot est ainsi en mesure d’analyser plus de 65 milliards de signaux quotidiens.
Selon la firme, l’arrivée de ce nouvel assistant vise à pallier une problématique majeure du domaine de la cybersécurité : le déséquilibre entre les incessantes menaces et le manque de personnel qualifié pour y répondre.
Les professionnels de la cybersécurité mènent une bataille asymétrique contre des attaquants prolifiques, implacables et sophistiqués. […] Ce défi est aggravé par la pénurie mondiale de professionnels de la sécurité qualifiés, qui se traduit par une estimation de 3,4 millions de postes à pourvoir dans ce domaine.
Le programme n’a pas pour objectif de remplacer l’expertise humaine, mais d’apporter une assistance pour améliorer l’efficacité des professionnels, qui pourront « répondre aux incidents de sécurité en quelques minutes au lieu d’heures ou de jours ».
Que permet de faire Microsoft Security Copilot ?
Tout comme Microsoft Copilot, annoncé il y a quelques semaines, l’outil se présente comme un simple boîte d’invite. Les professionnels de la cybersécurité pourront ainsi l’utiliser pour différentes requêtes :
- Demander quelles sont les vulnérabilités et incidents : l’IA sera même en mesure de les classer par ordre d’importance,
- Demander des conseils : Security Copilot pourra indiquer les différentes étapes à suivre pour répondre aux vulnérabilités rencontrées,
- Intégrer des documents : il est possible d’intégrer des fichiers, des URL, des extraits de code et de demander des informations à leur sujet,
- Travailler en équipe : un tableau est intégré à l’outil afin de permettre aux équipes d’épingler des réponses qui pourraient être utiles aux collègues.
Microsoft précise cependant que son assistant peut, comme tout programme alimenté par intelligence artificielle, réaliser des erreurs. Il est toutefois doté d’un système d’apprentissage, qui lui permettra de s’améliorer continuellement avec des informations internes et externes à l’organisation. Security Copilot est également en mesure de donner des informations au sujet d’éléments détectés par d’autres outils de cybersécurité. De plus, le chatbot indique les sources qui lui permettent de générer ses réponses.
Des données strictement confidentielles
Concernant l’utilisation des données, Microsoft tient à se montrer rassurant, et garantit que l’intelligence artificielle sera utilisée de manière « sûre, sécurisée et responsable ». Ainsi, les données ne seront pas utilisées pour alimenter l’IA en dehors du cadre de l’organisation.
Vos données sont vos données. C’est à vous de les posséder et de les contrôler, et c’est à vous de choisir comment vous voulez les exploiter et les monétiser. Vos données ne sont pas utilisées pour former ou enrichir des modèles d’IA de base utilisés par d’autres. Personne en dehors de votre organisation ne bénéficie de l’IA formée sur vos données ou processus d’affaires.
À ce jour, Microsoft n’a pas encore communiqué de date pour le déploiement de Security Copilot.