Microsoft ha annunciato la disponibilità di Microsoft Copilot for Security a partire dal 1° aprile 2024. Si tratta della prima soluzione di AI generativa progettata per aiutare i professionisti della sicurezza e dell'IT a rilevare le minacce in modo più accurato e veloce. Microsoft Copilot for Security si basa su threat intelligence e dati su larga scala, tra cui più di 78 trilioni di alert di sicurezza elaborati da Microsoft ogni giorno, e viene abbinato a modelli linguistici all’avanguardia che offrono approfondimenti personalizzati.
Secondo un
recente studio di Microsoft relativo a Copilot for Security, è emerso che i professionisti della sicurezza hanno riscontrato numerosi vantaggi in termini di risparmio di tempo e accuratezza delle analisi:
Grazie a Copilot, gli analisti di sicurezza hanno lavorato il 22% più velocemente
Il livello di precisione di tutte le loro attività è stato più alto del 7%
Il 97% ha espresso il desiderio di continuare ad utilizzare Copilot per le stesse attività
Questa soluzione, dotata di un'interfaccia localizzata in 25 lingue e capace di comprendere e rispondere a prompt in otto lingue, consente ai professionisti della sicurezza e dell'IT di ampliare le proprie competenze, collaborare in modo più efficace e avere una maggiore visibilità sulle minacce, consentendo una risposta più rapida.
Microsoft Copilot for Security includerà nuove funzionalità:
Promptbooks personalizzati che consentono ai clienti di creare e salvare una serie di prompt utili in un linguaggio naturale
Integrazione con Knowledgebase che permette di integrare Copilot for Security all’interno delle logiche e dei processi aziendali e di eseguire attività personalizzate
Collegamento alla superficie di attacco esterna personalizzata da Defender EASM per gestire e proteggere la superficie di attacco esterna delle aziende, identificando e analizzando le informazioni più aggiornate sui rischi
I registri di accesso e di diagnostica di Microsoft Entra forniscono ulteriori approfondimenti per le indagini di sicurezza e le analisi dei problemi IT dei log di audit relativi a un utente o a un evento specifico, riassunti in linguaggio naturale
I report sull'utilizzo forniscono approfondimenti sul modo in cui i team sfruttano Copilot, in modo da poter identificare ulteriori opportunità di ottimizzazione.
La piattaforma unificata per le operazioni di sicurezza integra Copilot in Defender per SIEM e XDR, guidando gli utenti nell'indagine e nella risposta alle minacce. Copilot automatizza la rilevazione dei dettagli, migliora l'efficienza con risposte guidate e fornisce analisi avanzate, inclusa la valutazione dei rischi. Inoltre, in Microsoft Entra, Copilot aiuta a prevenire la compromissione dell'identità e in Microsoft Purview fornisce report concisi degli alert, nonché insights e supporto in linguaggio naturale per prioritizzare gli alert critici. Copilot in Intune migliorerà invece la gestione degli endpoint consentendo decisioni più informate e la risoluzione dei problemi prima che questi si verifichino.
L'introduzione di un numero sempre maggiore di servizi di intelligenza artificiale generativa sul mercato per tutte le funzioni aziendali, oltre a fornire infinite opportunità ha introdotto anche nuove sfide e rischi. Tenuto conto di questo e per agevolare le organizzazioni nella protezione e regolamentazione dell'uso dell'AI, Microsoft ha introdotto le seguenti esperienze nel proprio portfolio di soluzioni:
Scoprire i rischi dell'AI: i team di sicurezza possono scoprire i potenziali rischi associati all'utilizzo dell'AI, come la fuga di dati sensibili e l'accesso degli utenti ad applicazioni ad alto rischio.
Proteggere le applicazioni e i dati di AI: i team di sicurezza e IT possono proteggere le applicazioni di AI in uso e i dati sensibili che vengono elaborati o generati da esse, compresi i messaggi e le risposte.
Gestire l'utilizzo: i team di sicurezza possono gestire l'utilizzo delle applicazioni di intelligenza artificiale conservando e registrando le interazioni con le applicazioni di intelligenza artificiale, rilevando eventuali violazioni delle normative o delle politiche organizzative durante l'uso di tali applicazioni e indagando su eventuali nuovi incidenti.