Commento al regolamento europeo sull’intelligenza artificiale
A cura di Redazione Selefor CReFIS
La proposta di regolamento sull’intelligenza artificiale definisce quest’ultima come “una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali”[1].
La crescita esponenziale dell’adozione di queste tecnologie in tutti i settori della società moderna ha spinto le istituzioni europee a stilare una proposta di regolamento che possa disciplinare l’uso delle stesse in modo da evitare la violazione dei diritti fondamentali dell’uomo e far sì che vi sia un mercato unico che tuteli tutti gli stakeholders. Inoltre, per incoraggiare l’innovazione sono stati proposti degli spazi di sperimentazione normativa (un sistema normativo meno stringente) per le PMI e le startup. La proposta di regolamento, redatta a Bruxelles il 21 aprile del 2021, si basa su quanto scritto nel “Libro Bianco sull’intelligenza artificiale” pubblicato nel febbraio 2020. L’approccio adottato dalla Commissione per sviluppare il regolamento si basa su una piramide del rischio che va da un livello “basso/medio” ad uno “elevato” per arrivare poi al culmine del “rischio inaccettabile”; in quest’ultima categoria rientrano tutti quei rischi legati alla sopracitata violazione dei diritti fondamentali che si possono esplicare con forme di razzismo, sessismo, violazione della privacy o forme di violenza fisica e psicologica[2]. L’idea è quella di applicare delle regole più o meno rigide in base all’entità del danno che l’uso improprio dell’IA può arrecare.
Partendo da questa classificazione piramidale, uno degli ambiti in cui l’IA viene impiegata con maggiore frequenza, grazie ai numerosi vantaggi tecnico-pratici che offre, è sicuramente quello del lavoro. Ormai sempre più attività prima prettamente umane, stanno cedendo il posto a quelle robotizzate (si pensi ad esempio alle grandi industrie di produzione di massa). I proprietari di queste aziende godono dei benefici più evidenti legati all’uso dell’IA, essa infatti garantisce più efficienza e più rapidità, con un impatto economico notevole. Eppure, nonostante possa sembrare controintuitivo l’IA, stando al “Libro Bianco”, permetterà un aumento dei posti di lavoro di 60 milioni di unità entro il 2025[3].
Ciononostante, la paura della crescita della disoccupazione non è diminuita; infatti, come detto, è desumibile che le occupazioni prettamente caratterizzate da attività routinarie saranno gradualmente estinte in quanto sostituite dalle macchine. Restano comunque indispensabili le abilità umane per la coordinazione delle attività dell’IA in modo che soprattutto in settori ad alto rischio si evitino errori fatali che possono avere ripercussioni gravi sull’azienda[4]. Da questa considerazione si intuisce la necessità di un adeguamento dell’uso dell’intelligenza artificiale in modo che la nuova generazione di lavoratori abbia un’impronta molto più manageriale e meno operaia, dunque, probabilmente già a partire dalla scuola e dalla formazione in generale sarà necessario puntare allo sviluppo di pensiero critico e creativo che non possa essere sostituito dalle apparecchiature elettroniche, ma che contribuisca come valore aggiunto.
Non è da sottovalutare infatti che non tutti i tipi di occupazioni sono realmente a rischio, il medico, lo psicologo, l’avvocato, ma volendo anche lo chef, l’insegnante e l’interior designer, che lavorano con la creatività, il ragionamento e la relazione, con ogni probabilità, non saranno succubi della macchina, ma padroni della stessa; ed in realtà è ciò che accade già in questo momento.
Su questi presupposti però si fonda il rischio di creare forti disuguaglianze in quanto coloro che hanno le conoscenze e le competenze adeguate riusciranno ad inserirsi nel nuovo mondo del lavoro, ma coloro che tali abilità non potranno acquisirle rischieranno la disoccupazione permanente[5] o, nella meno peggiore delle ipotesi, la dipendenza dalle decisioni di una macchina suscettibili di produrre effetti giuridici (e anche non giuridici) che incidono in modo significativo sull’interessato[6].
Si potrebbe quindi pensare che la soluzione più etica da parte delle aziende o industrie sia quella di non adottare strumenti IA, ma questa non può essere una soluzione in quanto imprese che non innovano e che non si tengono al passo con le nuove tecnologie rischiano nel giro di poco tempo di fallire, è quindi fondamentale un riassetto dell’intera cultura organizzativa in cui si spiega al dipendente non a temere la macchina ma a collaborare e a sfruttarla a proprio vantaggio in modo che apprenda e resti competitivo nel mondo del lavoro.
[1] Commissione Europea, Proposta di Regolamento, che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione, 21.4.2021, COM (2021) 206.
[2] Commissione Europea, Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, 19.2.2020 COM (2020) 65.
[3] Ibidem
[4] Lane, M., Saint-Martin, A., The impact of Artificial Intelligence on the labour market: What do we know so far?, in “OECDiLibrary”, 2021, n.256, pp.1-60.
[5] Balzano, G., Occupazione e disoccupazione, le due facce dell’AI, in AI4business, n.5, 2021.
[6] Cfr. Garante per la protezione dei dati personali, Ordinanza ingiunzione nei confronti di Foodinho s.r.l., Provvedimento n. 234/2021, in Registro dei provvedimenti
Per contenuti come questo e su tanti altri temi, Iscriviti alla nostra Newsletter!!
Violazioni di dati personali, tra rischi e investimenti
A cura di Redazione Selefor CReFIS
La penetrazione delle tecnologie digitali nelle attività di famiglie, imprese e pubbliche amministrazioni implica la codifica di tali attività in dati che vengono elaborati per il perseguimento delle rispettive finalità. In questa prospettiva, i processi di funzionamento di un paese integrano trattamenti di grandi quantità di risorse informative, in tal modo delineando un nuovo modello socioeconomico di cui vengono esaltate, principalmente dagli economisti, l’efficacia e l’efficienza.
D’altro canto, la crescente dipendenza dalle tecnologie e dalle rappresentazioni informative che queste producono ha ampliato le occasioni di violazione per cui le organizzazioni e le persone sono esposte a rischi riguardanti diritti, libertà e legittimi interessi. Incidenti come quello che ha coinvolto la Regione Lazio nell’agosto 2021 sono chiari esempi di come una violazione della sicurezza informatica – nel caso specifico una indisponibilità di servizi e dati – possa produrre ricadute sugli interessati. Nel caso specifico l’indisponibilità ha riguardato dati relativi alle prenotazioni per la somministrazione dei vaccini con conseguenti disagi per le persone interessate rappresentati, tra gli altri, dall’inevitabile rinvio della somministrazione e del rilascio della relativa certificazione.
Questo e altri casi mettono in luce anche il mancato adeguamento delle organizzazioni alle norme previste dal regolamento europeo relativo alla protezione dei dati personali che contemplano, tra gli altri obblighi, l’adozione di misure tecnologiche e organizzative idonee a prevenire le minacce che possano determinare, ad esempio, la loro distruzione, perdita o divulgazione non autorizzata e, se del caso, anche misure correttive per porre rimedio alle violazioni che si sono comunque verificate.
I soggetti pubblici e privati sono pertanto chiamati a organizzarsi e ad investire nella sicurezza dei trattamenti di dati personali. Ma sono proprio gli investimenti a rappresentare la nota dolente delle politiche di sicurezza, specie nelle realtà di piccole dimensioni dove tali investimenti trovano poco spazio sia per ragioni di limitata disponibilità di risorse economiche sia perché i manager tendono a considerarli solo un un flusso di cassa in uscita senza una prospettiva di rendimento. Prospettiva che, invece, esiste ed è rappresentata dai “costi evitati” e da altri “benefici intangibili” (accessori, supplementari) che, nel medio-lungo periodo, sono superiori agli investimenti in sicurezza richiesti. Tuttavia, per comprendere il ritorno derivante dagli investimenti in sicurezza (return on security investment) c’è bisogno di formazione continua, comunicazione, sensibilizzazione, affinché la sicurezza e la protezione dei dati personali possano trovare spazio nella cultura organizzativa, andando oltre le norme giuridiche.
Per contenuti come questo e su tanti altri temi, Iscriviti alla nostra Newsletter!!
L’impatto dell’intelligenza artificiale (IA) sul mondo del lavoro: nuovi modelli organizzativi e nuovi compiti per l’HR
di Giuliana Cristiano
L’introduzione delle nuove tecnologie nel mondo del lavoro e delle organizzazioni è associabile, tra le altre cose, all’accelerazione tecnologica a cui si aggiunge una conseguente accelerazione dei cambiamenti sociali e dei ritmi di vita. Ci troviamo in quella fase storica che gli esperti hanno ribattezzato “era dell’industria 4.0” in cui le nuove tecnologie, sia nella produzione che nell’erogazione dei servizi, la fanno da padrona[1].
Nel mondo del lavoro, l’utilizzo di tecnologie sempre più sofisticate non sta andando a sostituire solo i processi che prima richiedevano uno sforzo fisico, come la produzione industriale, ma gradualmente sta invadendo anche un settore che fino a poco tempo fa era squisitamente umano, per esempio i processi aziendali di decision making e lo scambio di informazioni. La svolta decisiva in questo senso è avvenuta grazie (o a causa) della diffusione capillare di internet che è diventato una componente essenziale della vita quotidiana della quasi totalità della popolazione attiva mondiale. L’uso massiccio della rete ha determinato, come effetto collaterale, un costante e velocissimo accumulo di dati che, se usati con astuzia, sono uno strumento indispensabile per chi ha necessità di conoscere l’utente ultimo a cui va erogato il servizio o va offerto un prodotto. I big data infatti abbinati all’intelligenza artificiale, permettono il cosiddetto “learning machine” ovvero fanno sì che la macchina (il software) letteralmente impari dai dati che gli vengono messi a disposizione [2].
L’intelligenza artificiale d’altronde non è altro che un ramo dell’informatica, nato nel 1956, che permette di programmare le macchine affinché possano avere caratteristiche cognitive tipicamente umane [3]. L’IA ha un impatto decisivo su diversi livelli, da quello individuale a quello della società. Gli stessi modelli organizzativi hanno subito e subiranno notevoli cambiamenti: le principali sfide da affrontare sono legate alla necessità di acquisire sempre maggiori competenze da parte del personale per il suo utilizzo, capacità quindi di affrontare gli eventuali problemi tecnologici, la necessità di un continuo controllo e il bisogno di fiducia, nonché una ridefinizione della life-work balance. I rischi principali per i lavoratori e le aziende si traducono nella riduzione della privacy, nella possibilità di sviluppare una dipendenza da queste tecnologie e un forte stress lavoro correlato che potrebbe sfociare addirittura nel burnout. I vantaggi però, se l’IA viene usata bene, sono notevoli, in quanto si riducono i costi, vi sono maggiori e migliori feedback sul lavoro da parte della macchina, vi è un miglioramento della qualità dei servizi e prodotti offerti, e se si agisce adeguatamente sulla pianificazione dello smart working, va ad avere risvolti positivi anche sella qualità della vita dei dipendenti. Nonostante alcuni studi tra il 2016 e il 2017 stimarono una sostituzione della manodopera umana con quella artificiale che andava dal 10%[4] al 47%[5], dati molto più recenti hanno dimostrato che la cultura aziendale e l’intelligenza artificiale sono due aspetti organizzativi che si influenzano reciprocamente, tanto che è stato sviluppato un modello detto “CUE” (Culture-Use-Effectiveness Dynamic)che dimostra quanto la cultura migliora l’uso dell’IA che a sua volta migliora i rapporti del team. Questo circolo determina più efficienza e alte prestazioni. Traendo le somme, se utilizzata con astuzia e senza pregiudizio, l’intelligenza artificiale può essere una potente arma verso l’innovazione e il successo dell’azienda sia dal punto di vista produttivo che di benessere del lavoratore[6].
In questo contesto il lavoro degli HR è molto interessante in quanto oltre ad occuparsi della condizione di benessere del lavoratore già assunto, di cui abbiamo parlato poc’anzi, si occupano di acquisizione di nuovi profili. Se fino a qualche anno fa, il recruiter doveva scegliere tra una vasta gamma di offerenti che si proponevano attivamente, oggi, anche grazie alle nuove tecnologie, la cultura del lavoro è cambiata al punto che il potenziale lavoratore è fondamentalmente passivo, carica il suo cv su piattaforme ad hoc e aspetta che sia l’azienda a proporsi. L’HR, quindi, può lasciare l’onere dello screening al software per dedicarsi ad un’attività più lungimirante: la talent acquisition, cioè non semplicemente il processo di ricerca di un lavoratore, ma la ricerca del “talento” adatto all’azienda non soltanto nella risoluzione del problema odierno, ma anche in visione dell’evoluzione dell’azienda stessa e dei suoi problemi a lungo termine[7].
Anche per il recruiting però bisogna agire con cautela: sono diversi, infatti, i casi in cui l’utilizzo dell’IA ha avuto esiti negativi sull’azienda, in particolare un esempio clamoroso è stato quello della grande multinazionale Amazon che a partire dal 2014 ha iniziato ad utilizzare un software per la selezione dei nuovi dipendenti da assumere. A questo software “era stato insegnato” a selezionare i candidati basandosi sui dati estrapolati dei curriculum di dipendenti assunti nei 10 anni precedenti, prevalentemente uomini: si arrivò al punto che la macchina aveva imparato che assumere uomini fosse meglio prediligendo CV con parole come: “eseguito” o “acquisito” tipiche degli ingegneri maschi e scartando quelli in cui c’era scritto “delle donne” o simili. Il software era sessista. Nonostante diversi accorgimenti la situazione non migliorò così il progetto fallì nel 2017[8], lasciando un insegnamento che almeno per ora non può essere ignorato: quando si tratta di scelte sul versante etico e morale, l’uomo ha e deve avere ancora la meglio sulla macchina.
[1] Falcone, R., Capirci, O., Lucidi, F., Zoccolotti, P., Prospettive di intelligenza artificiale: mente, lavoro e società nel mondo del machine learning, in “Giornale italiano di psicologia”, n.1, pp.43-68, 2018.
[2] Ibidem
[3] www.Intelligenzaartificiale.it
[4] Arntz M.T., Gregory T., Zierahn U., The Risk Of Automation For Jobs In Oecd Countries: A Comparative Analysis, in “OECD Social, Employment And Migration Working Papers”, n. 189, 2016.
[5] Frey C.B., Osborne M.A, The Future Of Employment: How Susceptible Are Jobs To Computerization?, in “Technological Forecasting And Social Change”, n. 114, pp. 254-280, 2017.
[6] Ransbotham, S., Candelon, F., Kiron, D., LaFountain, B., Khodabandeh, S., The Cultural Benefits of Artificial Intelligence in the Enterprise, in “MIT Sloan Management Review and Boston Consulting Group”, novembre 2021.
[7] Alashmawy, A., Yazdanifard, R., A Review of the Role of Marketing in Recruitment and Talent Acquisition, in “International Journal of Management, Accounting and Economics”, n. 7, pp. 569-581, 2019.
[8] De Casco A. F., Amazon e l’intelligenza artificiale sessista: non assumeva donne, in “Corriere della Sera – Tecnologia”, 10 ottobre 2018 online: https://www.corriere.it/tecnologia/18_ottobre_10/amazon-intelligenza-artificiale-sessista-non-assumeva-donne-4de90542-cc89-11e8-a06b-75759bb4ca39.shtml
Per contenuti come questo e su tanti altri temi, Iscriviti alla nostra Newsletter!!
Giuliana Cristiano
Dottoressa in Psicologia applicata ai contesti istituzionali
Psicologa Tirocinante in Selefor srl