L’Intelligenza artificiale deve essere “spiegabile”, ecco i progetti e le tecniche

Fonte: AgendaDigitale

La comprensione dei processi che stanno alla base delle decisioni prese da un sistema di intelligenza artificiale è un tema sempre più centrale: questo perché il deep learning e le reti neurali assumono un ruolo sempre più di primo piano nel modellare la trasformazione tecnologica di diversi settori di business e di conseguenza sempre più processi di decisione automatica diventano basati su algoritmi di IA.

La questione della trasparenza degli algoritmi è al centro anche di alcuni articoli del GDPR: 12, 13, 21 e soprattutto 22. Quest’ultimo, in particolare, prevede che in quei casi in cui una decisione sia stata presa senza intervento umano ma esclusivamente tramite un processo automatico, il soggetto a cui i dati si riferiscono ha il diritto di ricevere una spiegazione su come tale decisione sia maturata.

Questo si applica in tutti i casi in cui un ente usi un processo automatico che utilizza dati personali per la valutazione di un individuo residente nella Comunità Europea.È facile intuire quindi che il diritto ad una spiegazione introdotto con il GDPR ha particolare impatto sugli enti responsabili di tali servizi. Continua a leggere