I BIAS DEGLI ALGORITMI E LA REGOLA DELL’APPRENDIMENTO
I BIAS DEGLI ALGORITMI E LA REGOLA DELL’APPRENDIMENTO
Giovanni Crea*
Fra i trattamenti automatizzati – svolti esclusivamente da software che, dunque, sostituiscono la figura (umana) dell’incaricato del trattamento – si distinguono quelli ‘inferenziali’ che, sulla base di algoritmi di apprendimento, integrano talune regolarità (pattern) rappresentate da correlazioni tra dati (associazioni tra caratteristiche, comportamenti, preferenze) osservate, in determinate situazioni, in una frazione significativa di casi.
I trattamenti di natura inferenziale, dunque, assumono euristicamente come ‘certe’ le correlazioni aventi un’alta frequenza; assunzione che è suscettibile di attribuire alle persone interessate dati che potrebbero non riguardarle, in tal caso realizzando una profilazione fuorviante e, con essa, integrando una violazione del princìpio di esattezza dei dati (art. 5.1.c), gdpr).
E se l’algoritmo si estende alla fase decisionale (decision making) – come sovente accade – gli errori riguarderanno anche tale fase[1].
Da qui, i rischi per i diritti, le libertà ed i legittimi interessi delle persone fisiche coinvolte e l’applicazione dell’art. 22, gdpr.
Nel quadro delle misure tecniche da adottare per ridurre i predetti rischi, non occorre intervenire sui dati e sulle regolarità che, come tali, si mostrano, salvo riscontrare errori nei dati (sia nei dati originari, previsti dagli algoritmi come input di una procedura, sia in quelli dedotti dagli algoritmi).
Occorre, invece, intervenire sulla lettura e interpretazione delle predette regolarità da parte degli algoritmi in ragione dei bias cognitivi umani che questi incorporano nella fase di addestramento[2].
A tal riguardo, tra gli altri casi, va ricordato il software che Amazon inziò a impiegare nel 2014 nella fase di selezione del personale per posizioni previste in “aree tecnologiche”; il software era stato addestrato per l’analisi dei curricula delle persone candidate sulla base di curricula che la società aveva ricevuto negli precedenti dieci anni.
I curricula storici erano prevalentemente ‘maschili’ in ragione della elevata percentuale di candidature provenienti da tale genere per le predette posizioni. Sicché, da questa regolarità il software aveva dedotto (inferito) che il genere maschile rappresentava un criterio di selezione; ragion per cui, nell’ambito del trattamento dei dati personali connesso alla selezione, il software escludeva (decisione) il genere femminile[3].
Dal caso ‘Amazon’ si desume come i bias algoritmici siano errori di progettazione e dunque minacce annidate nel trattamento, e fonti di rischio per i diritti, le libertà ed i legittimi interessi delle persone fisiche, nel caso di specie le candidate.
Lo stesso caso ci dice che, per tali trattamenti automatizzati (inclusa la profilazione), le misure tecniche che devono essere adottate per minimizzare il rischio non sono solo misure di privacy by design e non sono solo quelle di cui all’art. 22.3, gdpr; sono necessarie anche misure che agiscano sulla qualità della deduzione/inferenza operata dal software nel corso del trattamento, anche prevedendo una loro periodica rivalutazione[4]. In altre parole, per ridurre i rischi, è necessario lavorare sulla “regola dell’apprendimento”.
* Direttore CReFIS, Docente di “Economia aziendale e processi di amministrazione del lavoro” presso l’Università Europea di Roma.
[1] Cfr. M.C. Cavallaro, G. Smorto, Decisione pubblica e responsabilità dell’amministrazione nella società dell’algoritmo, in federalismi.it, 4 settembre 2019.
[2] Cfr. B. Fiammella, Intelligenza Artificiale, euristica e bias cognitivi applicati agli algoritmi, in Altalex, 4 agosto 2020 (https://www.altalex.com/documents/news/2020/08/03/intelligenza-artificiale-euristica-e-
bias-cognitivi-applicati-agli-algoritmi).
[3] Caso tratto da G. Rizzi, M.T. Cimmino, Bias negli algoritmi: come le macchine apprendono i pregiudizi dagli esseri umani, in https://ibicocca.unimib.it/bias-negli-algoritmi-come-le-macchine-apprendono-i-pregiudizi-dagli-esseri-umani/
[4] Cfr. Garante per la protezione dei dati personali, Audizione di Antonello Soro, Presidente del Garante per la protezione dei dati personali, in tema di utilizzo delle metodologie di data mining per eseguire visite mediche di controllo nei confronti dei lavoratori del settore pubblico, in https://lnkd.in/d9c9A9QH home/docweb/-/docweb-display/docweb/9043373
Per contenuti come questo e su tanti altri temi, Iscriviti alla nostra Newsletter!!