“Nell’era in cui le macchine svolgono sempre di più compiti e mansioni che solo gli umani erano capaci di fare, cosa andrà a costituire la nostra identità come esseri umani?” Così scrivono Huttenlocher, Schmidt e Kissinger nel libro “The Age of AI and Our Human Future”, che offre un’analisi sfaccettata e quanto mai attuale sul dibattuto mondo dell’intelligenza artificiale e dei suoi possibili sviluppi futuri.

Nel corso delle epoche passate, l’essere umano ha sempre occupato una posizione centrale nella narrazione della storia. Le società che si sono susseguite hanno costantemente celebrato coloro che si sono distinti: dai sovrani ai condottieri, dagli esploratori agli inventori, dagli artisti alle figure religiose, fino ad arrivare ai leader politici, agli imprenditori, agli innovatori e agli astronauti[1]. Tutti individui che hanno rappresentato l’evoluzione dell’umanità e incarnato la distintività della nostra specie.

Oggi, ci troviamo in un’era in cui all’intelligenza artificiale viene sempre più spesso richiesto di svolgere compiti e prendere decisioni che in passato sarebbero spettati alla mente umana. Ogni volta che l’IA porta a termine questi incarichi, spesso con una precisione, efficienza e rapidità superiori a quelle dell’uomo, si mette in discussione uno dei principali attributi che definiscono l’essenza dell’essere umano[2]. Questa capacità di esecuzione è ulteriormente amplificata dal continuo apprendimento evolutivo dell’IA, che le consente di migliorarsi costantemente, raggiungendo risultati un tempo inimmaginabili[3]. È dunque evidente che l’ascesa dell’intelligenza artificiale trasformerà radicalmente i paradigmi che finora hanno definito il ruolo, le aspirazioni e la realizzazione dell’individuo all’interno della società.

L’impatto dell’IA nel mondo del lavoro e la crisi dell’identità professionale

Sebbene l’utilizzo dei sistemi di intelligenza artificiale sia ormai una consuetudine nella nostra società, solo una piccola (ma crescente) parte della popolazione ne comprende appieno il funzionamento. Si tratta, in particolare, di sviluppatori, decisori politici o imprenditori del settore, i quali possono contare sul supporto di consulenti esperti in ambito tecnologico. In questo contesto, il rapporto con l’IA può rivelarsi estremamente fruttuoso, come dimostrano i progressi ottenuti in discipline come la medicina, la chimica o la fisica[4]. Tuttavia, la maggior parte delle persone non possiede le competenze e le conoscenze tecnologiche necessarie per sfruttare appieno le opportunità offerte dall’intelligenza artificiale. Indubbiamente, l’IA può portare benefici anche ai consumatori, semplificando molte attività quotidiane, come ad esempio la ricerca di informazioni tramite assistenti vocali. D’altro canto, esistono situazioni in cui l’interazione con sistemi intelligenti può risultare scoraggiante o persino problematica per l’individuo: si pensi, ad esempio, a quando un’IA suggerisce un candidato piuttosto che un altro in un processo di promozione lavorativa[5].

Nel mondo del lavoro, in particolare in ambito manageriale, l’intelligenza artificiale è destinata ad avere un ruolo sempre più centrale, arrivando persino a minacciare alcune figure decisionali all’interno delle aziende. L’IA, infatti, è in grado di assumere decisioni in modo più preciso e accurato rispetto all’essere umano, il cui giudizio può essere distorto, influenzato da pregiudizi o da fattori emotivi. Inoltre, essa consente di rendere più efficaci ed efficienti processi chiave come la distribuzione delle risorse, la previsione dei risultati e la definizione di strategie operative[6]. L’intelligenza artificiale sta progressivamente trasformando l’essenza stessa del lavoro, rendendo obsolete alcune mansioni e modificando il ruolo delle competenze tradizionali. È già possibile individuare alcune categorie di lavoratori che, vedendo le proprie competenze considerate non più necessarie, rischiano di essere ricollocati o esclusi dal mercato del lavoro. Si tratta, in particolare, di operai e lavoratori impegnati in mansioni prevalentemente manuali o tecniche, di figure appartenenti al middle management (ruoli che richiedono una formazione specifica e mirata), nonché di professionisti coinvolti in attività legate all’interpretazione di dati o alla produzione di documenti standardizzati[7].

Nonostante stimare con precisione gli effetti dell’intelligenza artificiale sul lavoro nel lungo periodo risulti complesso, è ormai certo che, nel breve termine, il suo impiego sistematico avrà un impatto rilevante sulle dimensioni economiche, professionali e identitarie dei lavoratori. Le società saranno quindi chiamate a gestire un’ampia quota di personale da ricollocare, non solo creando nuove opportunità di guadagno, ma anche offrendo alternative in grado di garantire soddisfazione, stimoli e un rinnovato senso di utilità alle persone[8].

Generazioni digitali: cambiamento del processo educativo e delle relazioni sociali

Al giorno d’oggi si assiste a una contrapposizione tra i nati nell’era digitale e la generazione precedente. La disponibilità di informazioni digitali e la grande familiarità con cui soprattutto i giovani vi interagiscono hanno già trasformato l’esperienza educativa e culturale di un’intera generazione. Tuttavia, si sta delineando una nuova divisione: quella tra i nativi digitali e i nati nell’era dell’intelligenza artificiale. Questi ultimi cresceranno a stretto contatto con macchine e sistemi intelligenti ancora più potenti e avanzati di quelli attualmente esistenti. Basti pensare agli assistenti domestici oggi molto diffusi, come Alexa o Google Home: è facile immaginare che in un futuro prossimo saranno sostituiti da sistemi ancora più evoluti, capaci di svolgere numerose funzioni, come fare da babysitter, tutor o persino diventare veri e propri amici per l’utente[9]. Inoltre, un assistente così avanzato avrebbe le capacità di sostituirsi ad un educatore, diventando un insegnante privo di sensibilità umana ed emozioni, ma in grado di guidare i giovani nell’apprendimento di ogni materia o lingua, monitorando le loro performance e sviluppando metodi didattici personalizzati, in grado di valorizzare al massimo le potenzialità di ciascun bambino. Un assistente intelligente, presente sin dall’infanzia, potrebbe influenzare profondamente l’individuo. Crescendo, la macchina si evolverebbe insieme al suo utente, modellandone pensieri e comportamenti.La persona sarebbe abituata ad averlo sempre accanto e questo potrebbe portarla a preferire i loro assistenti virtuali piuttosto che altri essere umani (soprattutto coloro che hanno delle differenti preferenze). Così, si potrebbe ridurre l’inclinazione a costruire relazioni umane, soprattutto in individui più vulnerabili[10]. Questo scenario lascia aperte molte domande. La presenza costante di macchine intelligenti ma senza emozioni, come impatterà sulla visione del mondo dei bambini, sulla loro immaginazione e sulla loro vita sociale? Quali modifiche subirà il loro modo di giocare? Ci saranno cambiamenti nel modo di interagire tra le persone e nel processo per instaurare una relazione sentimentale o di amicizia?

Una sfida per la democrazia: tra regolamentazione dell’IA e protezione dei diritti fondamentali

Se l’avanzata dell’IA influenzerà profondamente la sfera sociale e relazionale, lo stesso accadrà per l’arena politica, amministrativa e decisionale. Per convivere ed interagire in modo fruttuoso con l’IA a livello politico, sarà necessario sempre più rispettare dei principi cardine. Innanzitutto, dovrà essere garantita all’uomo l’autonomia nella scelta di adottare o meno determinate decisioni, normative o misure. Assicurare che sia l’uomo a mantenere il controllo sulle dinamiche governative sarà cruciale per preservare e rafforzare la legittimità del sistema[11]. Pensiamo all’amministrazione della giustizia: in questo ambito, fornire spiegazioni e un ragionamento morale rappresenta un elemento essenziale di legittimità, poiché consente ai partecipanti di valutare l’equità del tribunale e di contestarne le conclusioni qualora risultino in contrasto con i principi morali riconosciuti dalla società. Ne consegue che, ogniqualvolta vi sia una questione rilevante su cui pronunciarsi, il decisore debba essere una persona qualificata, e non una macchina inanimata[12].

Analogamente, anche la democrazia deve preservare la propria dimensione umana, proteggendo l’integrità del dibattito democratico e delle elezioni. L’intelligenza artificiale, infatti, può rappresentare una minaccia per la libertà di parola, che in una democrazia consente la condivisione delle informazioni tra i cittadini, la partecipazione al processo democratico e promuove l’autorealizzazione dell’individuo attraverso la produzione di narrativa, arte, poesia, cinema e musica. L’IA possiede la capacità di generare, sia in alta definizione che in grande quantità, disinformazione, come avviene ad esempio con i video deepfake, che sono difficili da distinguere da contenuti reali[13]. Arginare l’uso dell’IA nella produzione di disinformazione, tramite una precisa regolamentazione, non sarà facile ma, dovrà essere una priorità cruciale.  Ogni società dovrà dunque determinare quali usi dell’IA saranno consentiti e quali inammissibili nei diversi settori. Legislatori di tutto il mondo sono impegnati nel creare un quadro giuridico volto a garantire la sicurezza, privacy e i diritti dei cittadini, salvaguardando al contempo le aziende e promuovendo l’innovazione[14].

A questo proposito prendiamo come esempio l’Unione Europea. Entrato in vigore nel 2018, il “Regolamento Generale sulla Protezione dei Dati” (GDPR), è una delle normative più avanzate in tema di salvaguardia dei dati personali. Pur non riguardando direttamente l’IA, le sue disposizioni hanno ugualmente un forte impatto sull’utilizzo dei dati da parte dei sistemi intelligenti[15]. Il GDPR rafforza i diritti già esistenti, introduce nuove tutele e offre alle persone un controllo più ampio sui propri dati personali. In particolare, prevede: un accesso più semplice e trasparente ai propri dati, con l’obbligo di fornire informazioni chiare e comprensibili su come vengono trattati; un diritto alla cancellazione più definito (noto anche come “diritto all’oblio”), se una persona non desidera più che i propri dati siano trattati e non esistono motivi legittimi per conservarli, questi devono essere eliminati; il diritto a essere informati in caso di violazione dei propri dati personali. Infatti, le aziende e le organizzazioni hanno l’obbligo di notificare l’accaduto all’autorità garante per la protezione dei dati e, nei casi più gravi, anche agli interessati[16]. Inoltre, il GDPR ha gettato le basi per i lavori che nel 2024 avrebbero portato all’entrata in vigore dell’”AI Act”, il quale mira a garantire che i sistemi di IA utilizzati in Unione Europea siano trasparenti, sicuri e rispettosi dei diritti fondamentali. Il Regolamento si concentra sullo sviluppo di tecnologie di intelligenza artificiale affidabili, con l’obiettivo di rafforzare la competitività dell’Europa, tutelando e promuovendo al contempo i valori democratici. L’intento è quello di estendere i benefici dell’IA a settori chiave come la sanità, l’istruzione, l’industria e la sostenibilità ambientale[17]. Nello specifico, l’”AI Act” identifica quattro livelli di rischio per i sistemi di intelligenza artificiale: basso, medio, alto e inaccettabile; contestualmente le normative variano a seconda del livello di rischio. Per quanto riguarda i sistemi di IA considerati a rischio minimo o nullo, l’”AI Act” non introduce regole specifiche. La maggior parte delle applicazioni di IA attualmente in uso nell’UE rientra proprio in questa categoria. Tra gli esempi vi sono i videogiochi basati su IA o i filtri antispam. Il livello di rischio medio è legato alla necessità di garantire trasparenza nell’uso dell’intelligenza artificiale. L’”AI Act” introduce obblighi specifici di informazione, volti ad assicurare che le persone siano adeguatamente informate nei casi in cui ciò sia necessario per mantenere la fiducia. Ad esempio, quando si utilizzano sistemi di IA come i chatbot, è fondamentale che gli utenti siano consapevoli di interagire con una macchina, in modo da poter prendere decisioni informate. I sistemi ad alto rischio sono soggetti a requisiti stringenti prima della commercializzazione: valutazione e mitigazione dei rischi, utilizzo di dataset di qualità per evitare risultati discriminatori, tracciabilità dei processi, documentazione dettagliata, supervisione umana, informazioni chiare per gli utenti e alti standard di sicurezza informatica. Infine, i sistemi a rischio inaccettabile, che rappresentano una minaccia significativa per la sicurezza, il rispetto dei diritti fondamentali e i valori dell’UE sono vietati. Tra questi troviamo: i componenti di sicurezza basati su IA nelle infrastrutture critiche, come nei trasporti, il cui malfunzionamento potrebbe mettere a rischio la vita e la salute, le soluzioni IA utilizzate nelle istituzioni educative, come la valutazione degli esami, le applicazioni IA in ambito medico, come la chirurgia assistita da robot così come gli strumenti utilizzati per la selezione dei candidati nel mondo del lavoro, come il software per l’analisi dei CV. In ambito giuridico e nelle forze dell’ordine, l’IA può interferire con i diritti fondamentali delle persone. Inoltre, pratiche vietate riguardano l’utilizzo di IA nella gestione della migrazione, dell’asilo e dei controlli alle frontiere, come nell’esame automatizzato delle domande di visto. Infine, proibite sono le soluzioni di IA che vengono impiegate nell’amministrazione della giustizia e nei processi democratici[18].

Il futuro è nella collaborazione?

Con una percezione della realtà sempre più integrata a quella umana, l’intelligenza artificiale è destinata a emergere come una figura complementare all’essere umano.In molti ambiti, dalle scoperte scientifiche ai lavori creativi, fino allo sviluppo di software, la collaborazione con l’IA potrebbe rivelarsi particolarmente fruttuosa. Tuttavia, questa sinergia richiederà necessariamente un ripensamento del ruolo dell’uomo, in un mondo in cui ingegno e ragionamento non saranno più gli unici, né i più completi, strumenti per comprendere ed esplorare la realtà[19]. In definitiva, individui e società dovranno decidere quali aspetti della vita riservare all’IA o alla collaborazione tra IA e uomo. Inoltre, man mano che ci abituiamo e diventiamo dipendenti dall’IA, limitarla sarà sempre più oneroso e impegnativo. Per questo, dobbiamo assumerci la responsabilità di comprendere a fondo le trasformazioni che i sistemi intelligenti apporteranno al nostro modo di vivere, le sfide che pongono all’identità umana e gli ambiti che richiederanno nuovi equilibri e regolamentazioni. Ora che ci troviamo alle soglie di una nuova epoca, è fondamentale attingere alle nostre risorse più profonde, come la fede, la ragione e le tradizioni, per ridefinire il nostro rapporto con una realtà in continuo mutamento, affinché essa resti autenticamente umana[20]. La sfida, dunque, non sarà adattarci all’IA, ma ridefinire cosa significa essere umani in sua presenza. In un mondo che cambia, dovremo scegliere consapevolmente quale direzione dare alla nostra evoluzione.

Descrizione immagine: Concetto di IA (Intelligenza Artificiale). Deep learning. Apprendimento automatico. Singolarità. Credits:             metamorworks via Getty Images; https://www.gettyimages.it/detail/foto/concept-deep-learning-machine-learning-immagine-royalty-free/1277730895?phrase=AI%20e%20identit%C3%A0%20umana&searchscope=image%2Cfilm&adppopup=true.                     


[1] Kissinger H., Schmidt E., Huttenlocher D.; The Age of AI and Our Human Future; John Murray; 2021; p. 180.

[2] Ibidem.

[3] Lazzini F.; Intelligenza artificiale e identità umana: una visione etica; BeeMagazine; 2024;  https://beemagazine.it/intelligenza-artificiale-e-identita-umana-una-visione-etica/.

[4] Kissinger H., Schmidt E., Huttenlocher D.; The Age of AI and Our Human Future; John Murray; 2021; p. 184.

[5] Ibidem

[6] Ivi, p. 185.

[7] Ivi, p. 186.

[8] Ibidem.

[9] Ivi, p. 191.

[10] Ivi, p. 192.

[11] Ivi, p. 199

[12] Ibidem.

[13] Ivi, p. 200.

[14] Libertà S.; EIAI: Etica, Pratica e Grammatica dell’Intelligenza Artificiale; 2024; p. 77.

[15] Ivi, p. 78.

[16] European Union; Regolamento generale sulla protezione dei dati (GDPR); 2022; https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=LEGISSUM:310401_2.

[17] European Commission; European approach to artificial intelligence; 2025; https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.

[18] European Commission; AI Act; 2025; https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai#:~:text=The%20AI%20Act%20is%20the,in%20AI%20across%20the%20EU.

[19] Kissinger H., Schmidt E., Huttenlocher D.; The Age of AI and Our Human Future; John Murray; 2021; p. 183.

[20] Ibidem.

Related Post

2 commento su “INTELLIGENZA ARTIFICIALE E IDENTITA’ UMANA: RIFLESSIONI SU UNA COESISTENZA COMPLESSA”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *