Yarix evidenzia come l’intelligenza artificiale stia ridefinendo strategie, difese e minacce nella cybersecurity globale
AI nella cyber security: perché il primo livello dei Soc sta cambiando
L’aumento costante e globale degli attacchi informatici, sempre più rapidi e automatizzati, è al centro dell’ultimo report di Yarix, società italiana specializzata in cyber security. Gli esperti descrivono un salto di qualità nei metodi dei criminali, che sfruttano strumenti basati su intelligenza artificiale per condurre offensive più distribuite, adattive e difficili da bloccare.
Il fenomeno interessa in particolare i Security Operation Center (Soc), chiamati a fronteggiare un volume crescente di alert e un’accelerazione drastica tra il primo accesso malevolo e l’impatto dell’attacco.
Per reagire, Yarix annuncia un test operativo pionieristico: la gestione di un Soc L1 interamente con sistemi di AI, mantenendo però competenze umane nei livelli superiori di analisi e risposta.
In sintesi:
- Gli attacchi cyber crescono in velocità e complessità grazie all’uso offensivo dell’AI.
- I Soc sono sotto pressione per il boom di alert e rischio di “alert fatigue”.
- Yarix testerà un primo livello di Soc gestito integralmente dall’intelligenza artificiale.
- La sfida chiave è ridurre falsi positivi e valutare correttamente la rilevanza degli eventi.
Attacchi più veloci e numerosi: come cambia il lavoro dei Soc
Secondo il report di Yarix, uno degli elementi più critici è il “fattore tempo”: il divario tra accesso iniziale e potenziale danno si sta riducendo drasticamente.
L’uso offensivo dell’AI consente ai cybercriminali di comprimere la fase di weaponization, trasformando una vulnerabilità nota in un exploit pronto all’uso in tempi molto inferiori al passato, soprattutto nel campo dei ransomware.
Sul fronte difensivo questo costringe i team di sicurezza a identificare varianti di attacco in maniera quasi istantanea, facendo leva a loro volta su algoritmi di AI per analisi comportamentale, correlazione eventi e prioritizzazione degli incidenti.
Al “fattore tempo” si somma il “fattore volume”: la rapidità di sviluppo degli strumenti offensivi genera uno tsunami di tentativi di intrusione e di alert che rischia di paralizzare i Security Operation Center.
A livello Soc, l’eccesso di segnalazioni può saturare la capacità analitica, facendo passare inosservati gli incidenti davvero critici. Finora l’AI è stata impiegata come supporto agli analisti, ma per Mirko Gatto, manager di Yarix, il contesto impone un salto di scala: *“A fine luglio eseguiremo il primo test operativo per gestire un Soc L1 interamente con l’intelligenza artificiale”*.
Il livello 1 dei Soc filtra gli eventi, elimina i falsi positivi e seleziona ciò che richiede approfondimenti di L2 e azioni di L3.
Affidarlo all’AI rappresenta un cambiamento significativo nel modello operativo, ma non elimina la centralità dell’elemento umano per l’analisi avanzata e le decisioni di contenimento.
Rischi, benefici e prossime sfide dell’automazione con AI
Lo stesso Mirko Gatto invita alla prudenza sull’automazione totale del primo livello di analisi.
Il rischio principale è che i sistemi di AI non valutino correttamente la rilevanza di eventi borderline, sottostimando incidenti gravi o, al contrario, amplificando falsi positivi.
Nonostante ciò, la pressione legata all’“alert fatigue” rende questo rischio quasi inevitabile per i Soc che gestiscono infrastrutture complesse e distribuite.
La possibilità di ridurre sensibilmente i falsi positivi è indicata da Yarix come uno dei driver strategici dell’adozione dell’AI in cyber security.
Come sottolinea Gatto, *“la capacità di ridurre i falsi positivi rilevati dall’AI sarà uno degli aspetti su cui il mondo della cyber security dovrà concentrarsi attraverso l’affinamento del prompting”*.
In questa fase, la qualità dei modelli, dei dati di addestramento e delle tecniche di prompt engineering diventa determinante per costruire Soc realmente proattivi, capaci di riconoscere pattern anomali prima che diventino incidenti conclamati.
*“Personalmente sono ottimista”*, conclude Gatto, indicando una direzione chiara: l’AI non sostituirà gli esperti, ma ridisegnerà le priorità e le competenze necessarie nei centri di sicurezza.
FAQ
Perché gli attacchi informatici stanno diventando più veloci e pericolosi?
Stanno diventando più veloci perché i criminali usano l’AI per automatizzare la weaponization, riducendo drasticamente il tempo tra scoperta della vulnerabilità e sfruttamento effettivo.
Che ruolo ha l’intelligenza artificiale nel lavoro dei Security Operation Center?
Ha un ruolo centrale: supporta l’analisi degli eventi, automatizza il triage degli alert, identifica pattern anomali e riduce i tempi di risposta agli incidenti.
Cosa significa gestire un Soc L1 interamente con l’intelligenza artificiale?
Significa affidare all’AI il filtro iniziale degli eventi, la riduzione dei falsi positivi e la selezione degli incidenti da passare ai livelli L2 e L3.
Qual è il principale rischio nell’automazione spinta della cyber security?
Il rischio principale è una valutazione errata della gravità degli eventi, con possibili incidenti critici ignorati o troppi falsi positivi residui.
Da quali fonti sono state ricavate le informazioni su AI e cyber security?
Le informazioni provengono da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.



