Tecnología

El chatbot de Air Canada se inventó una política de viaje y ahora la compañía tiene que pagar por ella

  • Es una llamada de atención de que la IA no está preparada para determinadas situaciones más complicadas
  • El juez estimó que toda información que comparte el chatbot es responsabilidad de la compañía
Alamy// Avión de Air Canada

Son innumerables las áreas y empresas que está aplicando la Inteligencia Artificial a sus negocios, y es que esta tecnología ofrece una enorme cantidad de mejoras y facilidades que ya no solo supone un progreso para el trabajo que realizan, sino que en general, también son beneficiosas para la experiencia del cliente.

Entre los usos más populares y extendidos de la IA, y que de hecho se lleva utilizando desde hace ya muchos años, es el uso de esta tecnología como chatbot para ayudar a los clientes de las empresas con cualquier problema o duda que tengan.

La IA en la Atención al Cliente tiene muchísimos beneficios, sobre todo para la empresa, ya que agiliza todo el proceso al ayudar directamente al usuario con su consulta, o en caso de que no pueda hacer nada por él, ya le pone en contacto con una persona de verdad. De esta manera, ya no tienen que perder tiempo con las llamadas en espera, ya que el chatbot está disponible para todo el mundo en cualquier momento.

Además, gracias a la IA las empresas tienen que contratar a menos personas para trabajar en este servicio, lo que por norma general les sale más rentable. Sin embargo, no siempre es así, y aunque podamos pensar que la IA es el trabajador más eficiente y rentable, hay veces que no son tan inteligente como pensábamos.

Esto le ha ocurrido a la aerolínea canadiense Canada Air, quienes se han visto obligados a reembolsar parcialmente el coste de un vuelo a un viajero por culpa de una serie de afirmaciones que hizo su chatbot, que luego resultaron ser mentira.

El error del chatbot que les ha costado unos 880 dólares a Air Canada

Todo comenzó cuando un joven reservó un vuelo con la compañía para acudir al entierro de su abuela, durante el proceso de compra acudió al chatbot para que le ayudara y la IA le explicó que si pagaba la tarifa de viaje completa, Air Canada tenía una política de reembolso por duelo en un plazo de 90 días.

Como el billete había costado unos 1.215 dólares estadounidenses, según la política de la que hablaba el chatbot el joven podía reclamar hasta 880 dólares de reembolso, y como era de esperar, este usuario la pidió, sin embargo, Air Canada la desestimó y dijo que no existía ese tipo de compensación.

A pesar de ello, este joven siguió insistiendo e incluso llegó a acudir a los tribunales para obtener este reembolso que le habían prometido. La aerolínea se negó en todo momento a pagar, alegando que la IA había usado "palabras engañosas" y que dicho sistema era "una entidad legal independiente, responsable de sus propias acciones".

La compañía defendía que en el apartado de políticas de viaje, se explicaba correctamente las situaciones que tuvieran que ver con el duelo y que el joven tendría que haber contrastado la información antes de llevar a cabo la compra.

Por su parte, el viajero denunció una "tergiversación negligente" y defendió que Air Canada era responsable total de toda la información que comparten con sus clientes, incluidas las conversaciones con el chatbot.

Finalmente, el tribunal ha dado la razón al viajero y la aerolínea ha tenido que pagar los 880 dólares de reembolso que la IA había prometido al joven. Esta historia debería poner en alerta a las compañías que usan la IA, ya que queda claro que existen situaciones complicadas para las que esta tecnología todavía no está preparada, y en este caso han sido 880 dólares, pero en otro quizás estemos hablando de miles o de millones.

WhatsAppFacebookTwitterLinkedinBeloudBluesky