Microsoft Annuncia Agenti di Sicurezza AI

Image by Windows, from Unsplash

Microsoft Annuncia Agenti di Sicurezza AI

Tempo di lettura: 3 Min.

Microsoft ha introdotto un nuovo insieme di agenti di sicurezza alimentati da intelligenza artificiale, destinati ad aiutare le organizzazioni a difendersi dalle minacce informatiche, tra cui il phishing e le violazioni dei dati.

Sei di fretta? Ecco i punti chiave:

  • Microsoft ha introdotto agenti AI per automatizzare i compiti di sicurezza e rilevare le minacce informatiche.
  • Gli strumenti AI operano all’interno del framework di sicurezza Zero Trust di Microsoft.
  • Questi strumenti aiutano i team di sicurezza a concentrarsi su minacce complesse invece che su compiti di routine.

Le ultime aggiornamenti al Microsoft Security Copilot, annunciati il 24 marzo 2025, ampliano le sue capacità introducendo agenti AI autonomi progettati per assistere i team di sicurezza.

La mossa si verifica mentre gli attacchi informatici continuano ad aumentare in volume e complessità, spesso sopraffacendo i team di sicurezza umani. Microsoft riferisce di rilevare oltre 30 miliardi di email di phishing ogni anno e di elaborare 84 trilioni di segnali di sicurezza al giorno. Queste minacce includono 7.000 attacchi di password al secondo, come spiegato nell’annuncio.

Tra i nuovi agenti AI c’è l’Agente di Triage Phishing in Microsoft Defender, che può analizzare automaticamente le email di phishing per distinguere le vere minacce dai falsi allarmi. Altri agenti si concentrano sulla sicurezza dei dati, sulle minacce interne e sulla gestione delle vulnerabilità.

Microsoft ha dichiarato che i suoi agenti AI aiutano i team di sicurezza automatizzando le attività di routine, permettendo loro di concentrarsi su minacce informatiche complesse. L’azienda ha sottolineato che questi strumenti sono integrati all’interno del suo framework Zero Trust, garantendo che i team di sicurezza mantengano il controllo.

Oltre agli agenti propri di Microsoft, saranno disponibili anche cinque agenti di sicurezza AI sviluppati da partner terzi. Ad esempio, l’agente OneTrust Privacy Breach Response aiuta le organizzazioni ad analizzare le violazioni dei dati per conformarsi alle normative sulla privacy.

Blake Brannon, Direttore dei Prodotti e della Strategia presso OneTrust, ha definito ciò un “cambio di gioco” per l’industria, affermando: “Gli agenti AI autonomi aiuteranno i nostri clienti a scalare, aumentare e incrementare l’efficacia delle loro operazioni sulla privacy.”

Inoltre, l’annuncio afferma che Microsoft Defender estenderà ora la gestione della postura di sicurezza AI oltre Azure e AWS per includere Google VertexAI e altri modelli di AI. Nuovi strumenti di rilevamento sono inoltre pronti per aiutare i team di sicurezza a identificare minacce specifiche per l’AI, come gli attacchi di iniezione indiretta di prompt e le perdite di dati.

Gli aggiornamenti, tra cui una protezione migliorata contro il phishing per Microsoft Teams, verranno distribuiti a partire da aprile 2025.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...