
- Data inizio
- Durata
- Formato
- Lingua
- 7 Mar 2025
- 20 giorni
- Class
- Italiano
Rafforzare la capacità di analisi a 360 gradi e di pensiero critico per cogliere tutte le implicazioni dell’agire manageriale e migliorare l'efficacia del proprio ruolo.
Siamo soliti pensare che ogni interazione con altre persone ci cambi, e il più delle volte ci arricchisca. Oggi, però, ci troviamo sempre più spesso a interagire con intelligenze artificiali (AI) e anche queste relazioni producono effetti, che sollevano questioni cruciali sull’impatto sociale dell'AI.
Chiara Longoni, Raina Zexuan Zhang, Ellie J. Kyung, Luca Cian e Kellen Mrkva hanno osservato che, quando le persone subiscono un trattamento percepito come ingiusto da parte di una AI, tendono a comportarsi in modo meno prosociale nei confronti degli altri esseri umani. L’interazione con un’AI vissuta come ingiusta comporta una reazione definita “AI-induced indifference” (indifferenza indotta dall'AI), ovvero una ridotta propensione a punire successivamente comportamenti umani ingiusti.
Le AI vengono utilizzate in vari settori, come la concessione di prestiti, l’assegnazione di un turno di lavoro o lo screening dei CV ricevuti da un’azienda. Tuttavia, le decisioni automatizzate non sono sempre esenti da errori o pregiudizi. Un esempio rilevante è l’utilizzo di sistemi di AI che, basandosi su dati del passato, finiscono per amplificare disuguaglianze già esistenti. Questi pregiudizi, radicati nei dati di addestramento, possono portare a decisioni percepite come ingiuste da coloro che ne sono svantaggiati.
Molti studi si sono concentrati sul modo in cui le persone percepiscono l'intelligenza artificiale rispetto agli esseri umani. Da un lato, le persone tendono a fidarsi meno delle decisioni prese da un’AI, temendo che manchi di empatia o giudizio morale. Dall’altro, alcune ricerche mostrano che le persone attribuiscono meno colpa a un sistema di AI quando commette errori o genera decisioni ingiuste, rispetto a quando sono gli esseri umani a farlo. L’AI viene vista come meno intenzionale e quindi meno responsabile delle sue azioni rispetto agli esseri umani, riducendo la reazione emotiva negativa che solitamente accompagna un’ingiustizia percepita.
La ricerca si pone una domanda semplice e importante: se una persona subisce un’ingiustizia da parte di un’AI, in che modo questo influenza il suo comportamento in un’interazione successiva con un altro essere umano?
Ai fini della ricerca, gli autori hanno condotto quattro esperimenti distinti, per un totale di 2.425 partecipanti. La metodologia utilizzata è stata quella del “gioco in due fasi,” un paradigma sperimentale che simula decisioni di allocazione di risorse per studiare il comportamento prosociale. Nella prima fase, ai partecipanti veniva presentato un gioco di allocazione in cui ricevevano una decisione ingiusta da parte di un allocatore, che veniva alternativamente identificato come un’AI o un altro essere umano. Questa decisione riguardava la distribuzione iniqua di denaro o di tempo, in cui il partecipante riceveva molto meno di una terza parte. Nella seconda fase, i partecipanti dovevano decidere se punire un altro essere umano che aveva trattato ingiustamente un’altra persona in un contesto non correlato.
Gli esperimenti mostrano che, quando le persone ricevono una decisione ingiusta da un’AI, sono significativamente meno propense a punire un’altra persona per un comportamento ingiusto, rispetto a quando l'ingiustizia proviene da un essere umano. Questa differenza è stata etichettata come “AI-induced indifference.” Le persone sembrano desensibilizzarsi di fronte all’ingiustizia dopo un’interazione con un'AI, probabilmente perché tendono a incolpare meno l'AI per la decisione ingiusta, vedendola come meno responsabile. L’effetto persiste indipendentemente dal contesto (sia che si trattasse di allocazioni di denaro o di tempo).
La ricerca ha implicazioni sulla progettazione e implementazione di sistemi di intelligenza artificiale. Gli sviluppatori di AI dovrebbero essere consapevoli del fatto che l’interazione con sistemi di AI che potrebbero fornire decisioni ingiuste può influenzare le interazioni umane successive, anche non collegate, e dovrebbero lavorare per affrontare sistematicamente i bias nei dati di addestramento dell’AI.
I policy maker dovrebbero agire rapidamente per garantire la trasparenza e imporre alle aziende di dichiarare le aree in cui l’AI potrebbe prendere decisioni ingiuste, consentendo agli utenti di comprendere i limiti dei sistemi su cui fanno affidamento e di poter ricorrere contro decisioni percepite come ingiuste.
Inoltre, una maggiore consapevolezza degli effetti collaterali dell’indifferenza indotta dall’AI può aiutare le persone a mantenere sensibilità all’ingiustizia. L’indignazione morale che deriva da un trattamento ingiusto è necessaria affinché le persone riconoscano comportamenti scorretti negli altri e preservino le norme sociali, richiamando l’attenzione su chi commette tali errori per il bene della società.
Comprendendo l’indifferenza indotta dall’IA e i suoi meccanismi sottostanti, i decisori politici e i manager possono fare in modo che l’integrazione dell’AI nei sistemi umani supporti, anziché indebolire, gli standard sociali ed etici essenziali per una società equa.
(L’articolo è opera della redazione di SDA Bocconi Insight)