Chatbots: riesgos de una tecnología incipiente

  • Los bancos en todo el mundo estudian las potencialidades y los riesgos de la atención robótica al cliente impulsada por IA
  • Cómo priorizar las regulaciones y los derechos de los consumidores 
  • Las reglas que propone el G7 para las compañías globales

El sector financiero, como el resto de las industrias, está comenzando aprovechar el desarrollo de la Inteligencia Artificial (IA) para brindar servicios fáciles de usar, eficientes y eficaces.

Algunas empresas están desarrollando diseños muy sofisticados; como por ejemplo, Morgan Stanley, que habilitará un chatbot que escuchará la conversación de los clientes con sus asesores. Luego creará un resumen de la conversación de la reunión, redactará un correo electrónico de seguimiento sugiriendo los próximos pasos, actualizará la base de datos del banco, programará una cita de seguimiento y aprenderá cómo ayudar a los asesores a administrar las finanzas de los clientes en áreas como impuestos, ahorros para la jubilación y herencias.

La adopción de estas tecnologías se acelera con los rápidos avances que ofrece la Inteligencia Artificial Generativa, que ayuda a la implementación de chatbots impulsados por IA para interactuar con los clientes.

Sin embargo, hay que tener en cuenta que todavía es una tecnología incipiente, y que los chatbots conllevan ciertos riesgos para las empresas que brindan servicios financieros que no pueden ser soslayados.

Problemas específicos de la IA Generativa

Los chatbots están destinados a simular respuestas similares a las humanas utilizando programación informática y ayudan a las instituciones a reducir los costos del servicio de atención al cliente. Estos chatbots a veces tienen nombres humanos; algunos utilizan tecnologías más complejas de IA para generar respuestas a los clientes.
Debido a la naturaleza de los modelos de lenguaje que impulsan los chatbots, existe un riesgo inherente de que el modelo genere respuestas inexactas o incluso completamente inventadas (en la jerga, denominadas “alucinaciones”). Esas respuestas también pueden ser sesgadas, discriminatorias y muy polémicas. También podrían, básicamente, engañar a los consumidores en su detrimento.
Por lo tanto, por el momento, es muy riesgoso que un chatbot impulsado por IA sea apropiado para su uso en el contexto de actividades reguladas.

Incluso en contextos en los que un chatbot no se utiliza para actividades reguladas (por ejemplo, cuando brinda orientación genérica), las empresas deben ser conscientes de los riesgos generales de potencial daño al consumidor.

Los riesgos específicos que presenta un chatbot impulsado por IA dependen del contexto en el que se implementa la tecnología. Por ejemplo, permitir que los empleados hagan preguntas a un chatbot sobre las políticas internas, planteará riesgos diferentes a implementar un chatbot para realizar una evaluación de solvencia.

La propuesta del G7

Esta semana, los líderes del G7 han logrado un acuerdo sobre unos principios rectores internacionales en materia de Inteligencia Artificial y un código de conducta voluntario para los desarrolladores.

La Comisión Europea, que contribuyó con esta propuesta, especificó que los principios y el código de conducta complementarán, a nivel internacional, las normas jurídicamente vinculantes establecidas en la Ley de IA de la UE, que se está ultimando.
Los 11 principios rectores que, junto con el código de conducta, se revisarán y actualizarán periódicamente, brindan orientación a las organizaciones que desarrollan, despliegan y utilizan sistemas avanzados de IA, como modelos fundacionales y la IA generativa, para fomentar la seguridad y la fiabilidad de la tecnología. Esto incluye compromisos para reducir riesgos y usos indebidos e identificar vulnerabilidades, fomentar el intercambio responsable de información, la notificación de incidentes y la inversión en ciberseguridad, así como un sistema de etiquetado que permita a los usuarios identificar los contenidos generados por IA.

Estos principios, basados en los resultados de una encuesta a las partes interesadas, han servido a su vez de base para redactar el código de conducta voluntario, que ofrecerá orientaciones detalladas y prácticas a las organizaciones que desarrollen IA. El código de conducta también promoverá la gobernanza responsable de la IA a escala mundial.
La Presidenta de la Comisión Europea, Ursula von der Leyen, entre los firmantes de la declaración de los líderes del G7 emitida por la presidencia japonesa del G7 de 2023, afirmó que los principios rectores y el código de conducta voluntario “reflejan los valores de la UE para promover una IA digna de confianza”.

Claves para minimizar riesgos

Tiempo

Una evaluación integral de riesgos es muy necesaria mucho antes de la etapa de despliegue hacia el público. Hay que involucrar a los expertos legales y técnicos antes de invertir recursos y lanzar un chatbot a atender al público.

Transparencia
Si bien un descargo de responsabilidad no evitará por completo las responsabilidades ante los derechos del consumidor, un descargo de responsabilidad claramente redactado y visible contribuye en gran medida a informar a los consumidores que hablan con un robot. Por lo tanto, reduce el riesgo de que los consumidores sean engañados o aleguen un trato injusto.

El lenguaje y la presentación de un descargo de responsabilidad deben tener en cuenta el contexto empresarial específico de cada institución financiera, y la forma en que los clientes perciben la interacción con el chatbot.

Evitar la presión
Los chatbots no deben influir, presionar o molestar a los consumidores, por ejemplo, utilizando un lenguaje emotivo para motivar la toma de decisiones que deben ser muy racionales.

Los proveedores o desarrolladores de servicios de chatbot pueden excluir expresamente las expresiones cargadas de emociones para evitar acusaciones de tácticas de presión.

Freno de emergencia
Es necesario incluir la posibilidad de incorporar una funcionalidad que permita a los consumidores derivar una conversación al soporte humano y/o informar la respuesta del bot como problemática.

 

 

LEAVE A REPLY

Please enter your comment!
Please enter your name here