Il chatbot sbaglia: Air Canada deve risarcire i clienti

by Claudia Ceci | 19 Febbraio 2024 12:08

Air Canada ha dovuto risarcire un cliente per una prenotazione errata originata dall’intelligenza artificiale. La compagnia aerea canadese è stata condannata perché il suo chatbot (l’assistente virtuale generato attraverso i sistemi avanzati di Ai) aveva fornito informazioni imprecise e fuorvianti. La notizia è stata divulgata dalle testate giornalistiche locali Vancouver Sun e Ctv News e poi ripresa dalla stampa internazionale.

IL CASO

I fatti risalgono al 2022 e partono da un servizio offerto da Air Canada, le tariffe scontate per persone che devono andare al funerale di un parente stretto o assisterlo se in fin di vita.

Il giorno in cui Jake Moffatt ha perso la nonna, ha visitato immediatamente il sito di Air Canada per prenotare un volo da Vancouver a Toronto. Per chiarirsi i dubbi sulla politica tariffaria del vettore nel caso di un lutto, ha chiesto spiegazioni al chatbot (ormai molto comune sui siti fornitori di servizi).

E il bot ha fornito informazioni inesatte, incoraggiando Moffatt a prenotare immediatamente un volo per poi poter richiedere il rimborso tramite modulo online entro 90 giorni. Questa la risposta data: “Se devi viaggiare immediatamente o hai già viaggiato e desideri presentare il tuo biglietto per ottenere la tariffa ridotta per lutto, ti preghiamo di farlo entro 90 giorni dalla data di emissione del biglietto compilando il nostro modulo di richiesta di rimborso del ticket”.

Moffatt ha comprato quindi il biglietto di andata e ritorno a tariffa piena, convinto di ricevere il rimborso successivamente.

In realtà, la policy di Air Canada afferma in maniera esplicita che la compagnia aerea non fornirà rimborsi per i viaggi legati a un lutto dopo la prenotazione del volo.

Fidandosi dell’assistente virtuale, Moffatt ha tentato di chiedere il rimborso sul volo prenotato e si è visto respingere la richiesta.

Per mesi ha provato a ottenere il risarcimento, ma Air Canada ha sostenuto che non si sarebbe dovuto fidare del chatbot e che la compagnia non era responsabile delle informazioni fuorvianti fornite dall’assistente virtuale, considerandolo “un’entità legale separata responsabile delle proprie azioni”. Il vettore ha quindi promesso di aggiornare il chatbot e offerto a Moffatt un coupon da 200 dollari canadesi da utilizzare per un volo futuro.

Non soddisfatto della risoluzione, il cliente ha rifiutato il buono sconto e ha presentato denuncia al tribunale di risoluzione civile canadese.

LA SENTENZA

La sentenza del tribunale[1] è stata pubblicata online mercoledì 14 febbraio e ha dato appunto ragione a Moffatt, riconoscendogli il diritto al rimborso parziale di  650,88 dollari canadesi (equivalenti a circa 482 dollari) sulla tariffa originale di 1.640,36 dollari canadesi (circa 1.216 dollari Usa), oltre a ulteriori danni per coprire gli interessi sul biglietto aereo e le spese legali.

Sembra si tratti della prima volta che un’azienda canadese tenta di sostenere di non essere responsabile delle informazioni fornite dal suo chatbot.

Il membro del tribunale Christopher Rivers ha commentato: «Air Canada ha sostenuto di non poter essere responsabile per le informazioni fornite da uno dei suoi agenti, dipendenti o rappresentanti, incluso il chatbot, senza spiegare perché ritiene che sia così o perché la pagina web dedicata alle tariffe per lutto debba essere più affidabile del suo chatbot. Air Canada non spiega perché i clienti dovrebbero ricontrollare altrove le informazioni trovate in una sezione del sito web».

Secondo il tribunale, Moffatt non aveva motivo di ritenere una parte del sito web più affidabile di un’altra.

Air Canada ha già dichiarato che si atterrà alla sentenza e chiuderà la questione. Intanto, nei giorni scorsi la compagnia ha temporaneamente disabilitato il chatbot. Inizialmente il bot veniva utilizzato solo per alleggerire il carico del call center per questioni semplici, poi è stato impiegato per gestire situazioni più complesse, ma un caso simile pone seri interrogativi sull’affidabilità di questo tipo di sistema.

Endnotes:
  1. sentenza del tribunale: https://decisions.civilresolutionbc.ca/crt/crtd/en/item/525448/index.do

Source URL: https://www.lagenziadiviaggimag.it/il-chatbot-sbaglia-air-canada-deve-risarcire-i-clienti/