Hace poco, en Londres, intenté comprar una caja de pastillas de paracetamol en un supermercado. La mayoría de estas tiendas en Inglaterra ofrecen las máquinas de “self checkout” o cajas de autopago, en las cuales es únicamente el comprador ante las instrucciones de la computadora sin que medie un humano.
El sistema informático del supermercado necesita validar que el comprador tenga más de 14 años de edad, por lo que, a la hora de pagar, esta máquina lanza un mensaje advirtiendo que no se puede finalizar la compra hasta que haya un trabajador del supermercado que ‘ayude’ o ‘brinde asistencia’.
Al mismo tiempo, en la caja del lado había una mujer de edad avanzada, también estancada porque el sistema le daba un constante error con una bolsa de mangos. Ella se veía enormemente frustrada y urgida de ayuda.
Nuestro problema en este caso fue que el trabajador que nos ayudaría no aparecía. Pasaron los minutos y no había señales de él, mientras la fila se alargaba con británicos inexpresivos, pero apresurados. Tampoco yo podía salir y dejar las pastillas sobre el escáner de códigos, pues de inmediato la máquina comenzaría a sonar con una alarma como si se tratara de un robo.
Finalmente, apareció un humano que resolvió todo tan rápida y automáticamente como si fuera una máquina. Pude llevarme las pastillas y a la señora le ayudaron con su mercado.
Pero no vayamos tan lejos. Otro ejemplo de estancamiento y frustración sucede cuando buscamos ayuda en una página web y nos ofrecen un chat, pero al otro lado no hay otra cosa que un robot programado para dar algunas respuestas genéricas y aconsejar un inicio de sesión para poder ofrecer ‘ayuda’. Son los famosos ‘chatbots’.
También pasa cuando llamamos a un denominado ‘call center’ o centro de asistencia telefónica. Es semejante a entrar a un laberinto, lleno de posibles opciones, pero cada vez más alejado de la posibilidad de poder hablar con un humano. En algunos casos es imposible encontrar alguien para poder explicar lo que sea que suceda. El servicio al cliente llega solo después de enviar un correo electrónico con una PQR y no morir en el intento de espera.
Ahora todo está a la mano, pero, quizás, cada vez más lejos. Los bancos, por ejemplo, ya reducen todas las consultas a las aplicaciones en línea y la comida a domicilio se pide en frente de la interfaz del celular. Atrás quedaron las preguntas ante una operadora o la espera en la línea. Pero, en cierta medida, esto me agrada.
Sin embargo, cuando es necesario pedir ayuda o hacer un reclamo, se levanta un muro que hace casi que imposible el contacto con un humano que pueda entender alguna incomodidad. La tecnología nos ha impuesto nuestras propias limitantes.
En contraste, tomemos lo que sucede a diario en El Cable, a las afueras de las oficinas de Salud Total, donde se ven largas filas de personas buscando una autorización para un proceso médico. Para poder hablar con un humano, estos ciudadanos, muchos de ellos adultos mayores, deben someterse a largas esperas. Un proceso, que debería ser automático, por lo contrario, exige a los usuarios hasta la indignación.
La frustración que puede causar un mundo más deshumanizado y posiblemente regido por la inteligencia en un futuro próximo nos inquieta sobre la capacidad que tendremos de hacernos entender.
Parece que obtener un servicio al cliente con un humano a bordo cada vez será más complejo, con las ambiciones de muchas empresas de ser efectivas en el gasto y reducir los costos que significa tener una persona empleada versus lo que cuesta el mantenimiento de un software entrenado para brindar ‘ayuda’.
Además, debemos considerar cómo estas decisiones tecnológicas afectan a grupos vulnerables de la sociedad, como los adultos mayores que pasan horas esperando un documento a las afueras de una EPS.
¿Estamos creando barreras adicionales para aquellos que pueden tener dificultades para interactuar con sistemas tecnológicos? ¿Estamos marginando a ciertos grupos de la sociedad en aras de la eficiencia y la conveniencia?
Para que estas empresas entiendan, necesitamos hablar de humano a humano.