La creciente dependencia de los bancos de los chatbots para manejar las tareas de servicio al cliente preocupa al organismo de control del consumidor
NUEVA YORK (AP) — ¿Puedes confiar en que Erica, Sandi o Amy controlarán cada vez más partes de tu vida financiera sin darte información inexacta o enviar dinero al lugar equivocado?
Eso es lo que pregunta la Oficina de Protección Financiera del Consumidor en un informe publicado el martes, donde la oficina expone una serie de preocupaciones sobre el creciente uso de chatbots por parte de los bancos para manejar las solicitudes de servicio al cliente de rutina.
Al CFPB le preocupa que los bancos o las empresas de servicios de préstamos puedan reducir el número de empleados humanos de servicio al cliente y enviar un número cada vez mayor de tareas rutinarias a la IA. Además, el regulador dice que los chatbots mal diseñados podrían infringir las leyes federales que rigen cómo se cobran las deudas o cómo se usa la información personal.
"Si las empresas implementan estos servicios de manera deficiente, existe un gran riesgo de daño generalizado a los clientes", dijo Rohit Chopra, director de CFPB, en una entrevista con The Associated Press.
Durante varios años, los bancos han estado manejando cada vez más solicitudes de servicio al cliente con chatbots, a menudo con nombres que suenan femeninos como Sandi para Santander, Amy de HSBC o Eno en Capital One.
Bank of America ejecuta el chatbot financiero más grande y exitoso bajo la marca Erica. Erica, las últimas cinco cartas en Estados Unidos, ahora maneja cientos de millones de consultas al año de los clientes de BofA.
Inicialmente, los chatbots bancarios se usaban para consultas básicas, como cambiar la dirección o el número de teléfono de un cliente, o decirle a un cliente dónde está la sucursal más cercana o cuál podría ser el número de ruta en su cuenta. Pero a medida que los bancos han invertido millones en estos servicios, los chatbots se han vuelto especialmente sofisticados, capaces de comprender oraciones completas o incluso ayudar a un cliente a mover dinero o pagar una factura.
El CFPB estima que aproximadamente cuatro de cada 10 estadounidenses interactuaron con un chatbot bancario el año pasado, una cifra que esperan que aumente.
Los bancos se están preparando para implementar servicios similares a la IA aún más avanzados. Según se informa, JPMorgan Chase está desarrollando planes para utilizar ChatGPT e inteligencia artificial para ayudar a los clientes a elegir las inversiones adecuadas. Los banqueros de Bank of America pueden usar Erica para crear perfiles de clientes y potencialmente recomendar productos a esos clientes.
Si bien estos servicios pueden ahorrarles a los clientes minutos u horas de espera para comunicarse con un ser humano y hacerles una pregunta de rutina, a la agencia le preocupa si estos chatbots podrán manejar los matices y la naturaleza complicada de las leyes de protección al consumidor sin brindar a los clientes información inexacta.
"Existen leyes federales que otorgan derechos a los clientes cuando se trata de deudas o disputas de una transacción, y si los agentes de servicio al cliente están siendo sustituidos por chatbots, eso puede generar problemas si ese software les brinda información inexacta", dijo Chopra.
La oficina también descubrió que los clientes mayores o los clientes cuyo idioma principal no es el inglés pueden terminar en un "bucle" de servicio al cliente y no poder comunicarse con un agente humano.
"Una y otra vez, encontramos quejas de clientes que se quedaban atrapados en argumentos circulares con un robot o que recibían información incorrecta", dijo.
Chopra, tanto en su cargo actual como director de la CFPB como anteriormente como comisionado de la Comisión Federal de Comercio, ha expresado reiteradamente su preocupación de que los bancos y las empresas puedan violar las leyes del consumidor si implementan algoritmos o software de inteligencia artificial de manera deficiente. Ha habido numerosos informes de chatbots de Microsoft, Google y otras compañías que han usado lenguaje sesgado cuando se les solicitó.