Por Equipo del Area de Organizaciones y Empresas: Ana I. Hernández, Fabiola Prieto y José Antón
Tomando el slogan de un conocido programa de televisión, queremos llamar la atención sobre aspectos relativos a la seguridad psicológica y de la gestión emocional, de determinados productos actuales basados en Inteligencia Artificial (IA, a partir de ahora), como son las APP’s o los chatbots, y el papel que puede jugar la Inteligencia Emocional (IE) en el diseño de estos sistemas.
Un mercado con un crecimiento explosivo
Nos encontramos en plena eclosión de sistemas basados en IA Artificial, que abarcan una gran diversidad de actividades: conocimiento de tendencias de mercado, creación de noticias falsas, comportamientos o selección de personal en las organizaciones, prevención de riesgos laborales, identificación policial o antiterrorista, mejora de la forma física o salud psicológica, anuncios de televisión, mejora de rendimiento en cadenas de producción industrial, ayudas a la diagnosis médica o industrial, anticipación de rotaciones en las organizaciones, ayudas a la toma de decisión y, encontraríamos casi tantas aplicaciones como posibilidades de mejora de sistemas o conductas ya establecidas.
Ante todo esto me gustaría que reflexionaras sobre ¿cómo percibes tu todo ésto? ¿cómo te sientes? ¿con qué perspectiva ves que puede afectarte personal y profesionalmente la IA?
Lo cierto es que la presión sobre los distintos actores de este mercado IA, como son las administraciones, las empresas, desarrolladores y consumidores, va a empezar a ser asfixiante, por lo mareante de la previsión de este mercado :
Mercado global de IA: 100.000 millones de dólares en 2021, con un crecimiento anual compuesto (CAGR) previsto 2021-2028 del 40,2%. Por sectores: la mitad del mercado se la reparten Salud y Bienestar (10%), Banca-servicios financieros-seguros (BFI) (20%) y automoción-transportes (20%). GRAND VIEW RESEARCH (2020)
Dicha presión va a modelar en cada uno de dichos actores, actitudes, conductas y emociones, y en particular nos centraremos en la seguridad psicológica y en la gestión emocional.
Es evidente que ante esta previsión mareante de negocio la presión de las empresas va a estar puesta en los equipos de desarrollo y de marketing. Como ha sucedido en otras ocasiones en los mercados que se abren muy deprisa, nos encontramos con una regulación que suele ir a remolque del mercado, para satisfacción de unos y preocupación de otros, y aquí detectamos dos problemas:
- Aspectos de seguridad y ética relativos al desarrollo e implantación de estos sistemas. Hay prisa por poner productos en el mercado y hay un riesgo en no tener suficientemente en cuenta ni la calidad, ni lo más importante, la persona como usuario final.
- Dentro del genérico de productos “Salud y bienestar”, o bien no se trata la seguridad psicológica o la gestión emocional, o en los pocos que lo hacen, son pocos que lo tratan con el rigor psicológico que merece.
APP’s y Chatbots: útiles, bien diseñadas y bien utilizadas
Lo estamos viendo cada vez más en el sector de bienestar y salud, y también usan cada vez más la IA, pero ¿qué son y para qué sirven?
Las denominadas “APP’s”, son aplicaciones para dispositivos móviles inteligentes (“smartphones”), y tienen un foco mayoritariamente centrado en lo lúdico (consumo, autoayuda,..), aunque cada vez más organizaciones y empresas pueden usarlos como soporte de otros servicios profesionales o como complemento a programas propios de salud y bienestar para el empleado. La mayoría son de descarga gratuita, y se observa una tendencia a convertirse en foco de negocio fácil y de rentabilidad rápida, en base a obtener descargas, dada la competencia a la baja de sus costes de desarrollo. En definitiva, el control de la calidad de estos productos es ínfimo, salvo en contadas aplicaciones.
Los denominados “Chatbots” son asistentes conversacionales automáticos, que podemos ver en algunas webs comerciales y también en “intranets” empresariales.
Su objetivo principal es el de facilitar las peticiones de un empleado o un cliente, ante consultas sencillas y de respuesta estandarizada, aunque ya gracias al aprendizaje automático (“machine learning”), una de las claves de la IA, estos sistemas “aprenden” por sí mismos, y pueden llegar a construir respuestas más elaboradas o redirigir la consulta hacia un siguiente nivel más especializado (y humano).
App’s y chatbots basados en IA son aplicaciones de alto interés comercial, profesional y de empresas, y cada vez más interesa más que se comporten de una forma más “humana” -no es casual que usen el denominado procesamiento de lenguaje natural (PLN) para sus desarrollos- y por tanto, apostando decididamente por la atención a las emociones.
Es aquí donde vemos que el abordaje de la gestión emocional es, salvo excepciones, muy superficial, y en muchos casos rayando la pseudociencia, y lo vemos con preocupación en unos momentos donde creemos que el bienestar y el tratamiento de la seguridad psicológica debe tratarse con un foco más científico, menos mercantilista y sobre todo que estas aplicaciones al tratar las emociones nunca deben sustituir a un profesional de la psicología.
¿Cómo sé al usar un producto basado en IA que es seguro?
Aunque de la seguridad psicológica y gestión emocional de APP’s y chatbots hablaremos más adelante, la UE está trabajando a marchas forzadas en materia regulatoria relativa a la IA, y ya editó en febrero de 2020 el libro blanco de la IA, y en los primeros meses de este 2021 distintas normas, orientadas a hacer que los productos basados en IA, sean fiables y seguros y sirvan al desarrollo y bienestar de los seres humanos.
Por tanto las APP’s y Chatbots, como cualquier otro sistema basado en IA, deberán cumplir dichas normativas, lo que conllevará el contemplar actuaciones como puede ser la evaluación de conformidad, disponibilidad de un etiquetado o sello, como cualquier otro producto europeo.
Pero ¿cuál es el peligro? Una persona que ya muestra una cierta vulnerabilidad psicológica emocional o de preocupación por su situación personal o profesional, debe estar protegida de manera que el uso de estos productos no incremente su estado de estrés, ansiedad, frustración o preocupación, sea por un uso incorrecto, sea por una expectativa maliciosa presentada por quien distribuye este producto, sea por una programación o por un aprendizaje ineficiente -por ejemplo por falta de supervisión- del sistema que lleve a éste a comportarse de forma sesgada o promoviendo conductas inapropiadas del humano. En suma, que pueda llevar a estas personas a un estado psicológico peor que el que tenían antes de su uso.
Libro Blanco sobre IA (2/2020):
“las evaluaciones de conformidad deben ser de obligado cumplimiento para todos los agentes económicos sujetos a los requisitos, independientemente del lugar en que estén establecidos”
Estas evaluaciones de conformidad en la práctica suponen entre otros cumplir con los siguientes requisitos:
- Informar sobre el diseño del producto. En la práctica significaría “abrir” el código y exigir que sean técnicas explicables.
- Aprendizaje controlado: estos sistemas aprenden con la experiencia (datos), por lo que deben evaluarse periódicamente. Puede suceder que un sistema aprenda digamos “malos hábitos”, que puedan incrementar la frustración de una persona, y llevarle a estados psicológicos no buscados o empeorar alguno que pudiera tener.
- Verificación de los datos utilizados en el entrenamiento del sistema, así como las técnicas, procesos y metodologías de programación y entrenamiento empleados para construir, probar y validar los sistemas de IA. Es decir que la “reeducación” tiene un coste que el promotor debe asumir, tanto en programación, como en lucro cesante por retirada temporal del mercado.
Aspectos centrales de uso de la IE en productos basados en Inteligencia Artificial
Desde el Instituto Europeo de Innovación en Inteligencia Emocional (IEI+ie), como impulsores de la innovación en IE, en particular de aplicaciones y metodologías de Inteligencia Artificial Emocional (IAE), queremos subrayar algunos aspectos del diseño y uso de estas aplicaciones, además de los anteriormente indicados relativos a seguridad:
- Procesos emocionales: como los que pueden presentarse en el uso de estas aplicaciones. La percepción de los estímulos presentes en la situación, la forma en que se somatizan, el acceso a la memoria emocional, su interpretación, la expresión emocional, la forma de regularse emocionalmente o el curso de la acción que emprende la persona, es absolutamente única.
Es decir que en las emociones que puedan surgir en un diálogo humano-máquina, NO hay un comportamiento estándar. Es por tanto que el diseño debe estar supervisado por un profesional de la psicología experto en IE, que considere la mejor manera de tratar de forma emocionalmente inteligente una posible reacción emocional del humano.
- Diseño: en lo concerniente a las reglas de toma de decisión que provienen de la detección de una reacción emocional y por tanto, de la conducta de respuesta del sistema, o a la supervisión del aprendizaje que el sistema realiza, es necesario el concurso del profesional de la psicología experto en IE.
- Inteligencia Emocional (IE): cualquier aplicación -APP o Chatbot- que considere el aspecto emocional, sea como argumento comercial principal -caso de algunas aplicaciones de Salud y Bienestar-, sea para ofrecer una respuesta más “humana y empática” desde el punto de vista comercial para mejorar la satisfacción de un cliente, o sea para la percepción de ser escuchado y comprendido por parte de un empleado, debería estar participada en las distintas fases de su diseño por un profesional de la psicología experto en IE.
Ira, miedo, tristeza o ansiedad, entre otras emociones, o incluso la frustración, que están latentes en estos momentos, cuando aparecen durante el uso de las APP’s o los chatbots, deben ser detectados e identificada su intensidad, para en su caso parar y proceder a la derivación a un profesional a tiempo, y para esto deben conocerse a la perfección los límites de alarma, y saberlos aplicar.
La IE, a través de una mejor comprensión de las competencias emocionales personales y sociales que pueden aplicarse en cada caso, que pueden ir desde acompañar el proceso empático humano-máquina, por ejemplo dirigiendo una comunicación asertiva , o promover un estado reflexivo de autocontrol, por ejemplo, pautarán y dirigirán de forma mucho más positiva el proceso emocional que pudiera suscitarse.
Estas aplicaciones que abordan, o es previsible que tengan que hacerlo, aspectos emocionales, y aunque hayan sido concebidos como productos de autoayuda, y con mayor razón si están basados en IA, deberían indicar de forma clara que NO son una terapia, ni actúan como sustituto de un profesional de la psicología, y además debieran incorporar un sistema de alerta para detenerse y derivar a un profesional, como decíamos antes.
La presencia y participación de profesionales de la Psicología expertos en IE, en aspectos relativos tanto a la Seguridad Psicológica como a la gestión emocional, en las distintas fases de los desarrollos de estos sistemas, es no solo clave, sino que nos parece que debiera ser normativo, para que la persona que va a interactuar con estos sistemas, se sienta seguro.
La seguridad psicológica y la Inteligencia Artificial Emocional (IAE) en el IEI+ie
Nuestra aproximación a la seguridad psicológica la fundamentamos sobre la operativización de variables basadas en cuatro constructos psicológicos de gran carga de evidencia empírica, relacionándolos con el diseño y el uso de sistemas multipropósito basados en IA.
Para un mayor conocimiento y sensibilización de las posibilidades de la IAE, desarrollamos experiencias innovadoras de aprendizaje basadas en la gamificación, que permiten identificar y mejorar a través de entrenamiento en competencias emocionales personales y sociales propias de la Inteligencia Emocional, la eficacia y seguridad de estos productos aplicados a la problemática concreta de la empresa o la organización, y en definitiva, mejorar la percepción de seguridad ante la incertidumbre que tantas veces necesitamos desarrollar en nuestro ámbito personal y profesional.
Si quieres más información sobre nuestros eventos, y IAE te animamos a escribirnos a :
info@ie-inteligenciaemocional.com
y también a visitar nuestra página web y redes sociales:
Comentarios recientes