SEGRETA > Come si sentono i clienti se a prendere le decisioni è un algoritmo?

Ti sei mai chiesto come faccia Netflix a suggerirti contenuti che potrebbero essere di tuo interesse? Magia o coincidenza? Nulla di tutto ciò, si tratta di un semplicissimo algoritmo di raccomandazione. Sono proprio formule come queste che permettono al servizio streaming e a tanti altri servizi simili di orientarsi verso il cliente, personalizzando l’esperienza di quest’ultimo sulla base dei suoi interessi e della sua attività. 

Ci sono diversi tipi di algoritmi, uno per ogni esigenza, anche per valutare i propri clienti. Le aziende, infatti, li stanno adottando per valutare le informazioni fornite dai clienti e prendere decisioni al riguardo. Ad esempio, Zendrive valuta le capacità di guida dei clienti per determinare i premi dell’assicurazione auto e l’istituto finanziario globale ING utilizza algoritmi per prendere decisioni su richieste di prestito. 

Questo pone una serie di domande sul modo in cui i clienti reagiscono a decisioni per loro rilevanti prese da una macchina piuttosto che da un essere umano. Ad esempio, i clienti valuterebbero una banca in modo diverso se la loro richiesta di prestito venisse accettata da un algoritmo piuttosto che da un funzionario? E se invece la loro richiesta fosse stata respinta? Comprendere l’impatto delle reazioni dei clienti può aiutare i manager a prendere decisioni migliori su quando e come implementare gli algoritmi nelle funzioni rivolte ai clienti. Spesso, infatti, – e uno studio del MIT lo conferma – le intuizioni dei manager su questo tema si rivelano infondate. 

Di fronte alla domanda “come reagirebbero i clienti a fronte di un assenso o un rifiuto se a decretarli sono algoritmi o se sono esseri umani?”, la maggior parte dei manager si aspettava che i clienti avrebbero reagito in modo meno positivo all’essere rifiutati dagli algoritmi, mentre non ci sarebbero state differenze di fronte all’assenso dato da un algoritmo o da un essere umano. Peccato, però, che i risultati ottenuti dal MIT raccontino una versione totalmente opposta.

Quando le loro domande vengono accettate, i clienti valutano un’azienda in modo più positivo e sono più propensi a consigliarla ad altri quando le loro richieste vengono accettate da un funzionario in carne ed ossa piuttosto che da una macchina. Questo perché gli esseri umani sono percepiti come più predisposti a riconoscere i clienti per quello che sono e per i loro meriti.  

Il discorso cambia quando le domande dei clienti vengono rifiutate. In questo caso, le persone hanno valutato l’azienda in modo simile, indipendentemente da chi (o cosa) avesse preso la decisione. Questo perché in genere, inconsapevolmente, gli esseri umani sono portati ad accusare gli altri per i propri fallimenti. In questo caso, ad esempio, incolpano le persone per aver preso decisioni soggettive e non essere stati parziali, oppure incolpano gli algoritmi per aver ignorato i loro attributi unici. 

Una possibile soluzione per limitare il rischio di reazioni poco positive dei clienti potrebbe essere quella di rendere l’algoritmo il più simile possibile all’uomo. Lo studio del MIT ci dice che i clienti hanno valutato un’azienda in modo più positivo quando la loro richiesta è stata accettata da un algoritmo più umano. Per fare ciò, le aziende possono presentare algoritmi utilizzando descrittori simili a quelli umani. Ad esempio, agli algoritmi viene spesso assegnato un nome umano (come Alexa di Amazon o Bill di ING), un avatar dall’aspetto umano o entrambi (come l’assistente virtuale di Ikea, Anna).

Cosa succede, infine, quando le aziende non dicono ai loro clienti chi ha preso la decisione? I dati indicano che i clienti rispondono come se la decisione fosse stata presa da un essere umano. 

Sembra quindi che i manager debbano concentrarsi molto nel futuro sugli algoritmi e sulla nostra relazione con loro, per comprendere l’impatto che le decisioni prese dalle macchine possono avere sui loro clienti 

Leggi l’articolo completo di Gizem Yalcin, Sarah Lim, Stefano Puntoni e Stijn MJ van Osselaer su www.sloanreview.mit.edu