Sicurezza dell’intelligenza artificiale, tra vulnerabilità e “fattore umano”: tutti i rischi

tratto da Agenda Digitale

Quando i sistemi di intelligenza artificiale divengono componenti autonome, parti di un sistema informatico più ampio, diventa essenziale conoscerne le vulnerabilità e le loro implicazioni sulla sicurezza, anche fisica, dei loro utilizzatori.

E così fare in modo che gli aspetti di sicurezza vengano considerati sin dalla fase iniziale del processo di introduzione della tecnologia.

E non parliamo di casi astratti o scenari futuristici. Questi sistemi sono già tra noi: riconoscimento del parlato, di volti ed immagini, classificazione di documenti, previsioni di scelte, consigli per gli acquisti, analisi di mercato sono solo alcuni degli ambiti che vedono un impiego crescente di questi algoritmi.

In questo caso i sistemi di IA presentano vulnerabilità specifiche, che devono essere comprese e mitigate. Il tutto senza ovviamente dimenticare che spesso le criticità maggiori in termini di sicurezza sono legate al “fattore umano”.

Dopo avere in precedenza esplorato il tema delle tecniche di Intelligenza Artificiale come strumento per la sicurezza informatica, ed i suoi possibili usi per rendere più forte ed efficace la difesa, l’oggetto di questo terzo articolo della serie è proprio quello di esplorare le vulnerabilità dei sistemi basati su algoritmi di Intelligenza Artificiale e di evidenziare l’esigenza dello sviluppo di metodi e specializzazioni specifiche per la verifica della sicurezza di tali sistemi.

leggi l’articolo completo