Clicca qui per leggere l’articolo
Il settore assicurativo sta investendo in modo massiccio nell’intelligenza artificiale per migliorare la qualità delle decisioni: pricing più accurato, underwriting più coerente, gestione dei sinistri più veloce. I risultati, almeno a prima vista, sono evidenti: maggiore efficienza, riduzione degli errori, aumento della capacità predittiva.
Ma c’è una domanda che raramente viene posta. Stiamo migliorando le decisioni… o il modo in cui il sistema prende decisioni? Perché le due cose non coincidono.
L’IA interviene sulla qualità della singola scelta. Ma ogni decisione non è mai isolata: è il risultato di un processo fatto di confronto, interpretazione, dubbio, responsabilità.
È dentro questo processo che si costruisce l’affidabilità di un’organizzazione assicurativa. Ed è proprio qui che può emergere un paradosso.
Le decisioni migliorano, ma il sistema peggiora.
Quando un algoritmo fornisce un output percepito come “più corretto”, le persone tendono naturalmente a fidarsi.
È un comportamento comprensibile e, in molti casi, anche funzionale. Ma nel tempo produce effetti meno visibili.
Si riduce il confronto: se “lo dice il sistema”, diventa meno necessario discutere.
Si attenua la responsabilità: la decisione non è più pienamente mia, ma validata da un modello. Si abbassa il livello di dubbio: il pensiero critico lascia spazio alla conferma.
Non si tratta di errori. È un cambiamento nel modo in cui le persone stanno dentro il processo decisionale. E questo cambiamento ha un impatto diretto su una variabile spesso sottovalutata nel settore assicurativo: la sicurezza psicologica.
Clicca qui e leggi l’articolo completo di Marina Capizzi e Tiziano Capelli sul Giornale delle Assicurazioni
