I rischi dell’IA generativa per la cybersicurezza svizzera
Il Cyber-Defence Campus dell’Ufficio federale dell’armamento armasuisse ha pubblicato il suo secondo studio Open Access, evidenziando le sfide e i rischi per la cibersicurezza derivanti dall’uso dell’intelligenza artificiale (IA) generativa. Lo studio mira a supportare specialisti e decisori nel valutare i rischi e sviluppare misure di sicurezza.
L’IA generativa, utilizzata ampiamente per creare testi, immagini e video, comporta rischi significativi come deep fake, messaggi contraffatti e tentativi di frode, ma può anche avere effetti positivi se usata correttamente. I modelli linguistici di grandi dimensioni (LLM) sono particolarmente potenti e già impiegati in applicazioni cruciali per la sicurezza, ma possono essere sfruttati per generare malware e phishing.
Lo studio sottolinea la necessità di consapevolezza e misure di sicurezza nel trattamento dei dati, data la produzione prevalente degli LLM all’estero, e l’importanza per la Svizzera di comprendere i rischi di dipendenza da fornitori stranieri.
Il Cyber-Defence Campus, creato nel 2019 e integrato nel DDPS, funge da collegamento tra amministrazione federale, industria e mondo accademico per la ricerca e lo sviluppo in cibersicurezza. La HES-SO Vallese, la maggiore scuola universitaria professionale svizzera, collabora con il Campus per affrontare questi sviluppi tecnologici.