TECHDENCIA 06
ExplainableAI

ExplainableAI

¿Cómo sabemos si los resultados que ofrece una IA son correctos? ¿Es importante entender en que se basan estos resultados? 

En los últimos años nos hemos centrado en desarrollar montones de IAs para mejorar el funcionamiento o el rendimiento de nuestras aplicaciones sin tener en cuenta, en muchos casos, las consecuencias del uso de la IA sobre los usuarios a corto y a largo plazo como se ha demostrado en los últimos años. 

Esto ha supuesto la aparición de sesgos en los datos, comportamientos erróneos o incluso comportamientos discriminatorios a nivel de género, raza o sexo como se descubrió en la IA desarrollada por Amazon para la selección de personal. 

Con el objetivo de conocer este tipo de situaciones, muchos investigadores del área de la IA comenzaron a desarrollar las técnicas de explicabilidad de la Inteligencia Artificial (Explainable AI) que intentan ofrecer explicaciones comprensibles por cualquier usuario sobre los resultados que ofrecen este tipo de sistemas en base a los datos de entrada utilizados para la generación de los resultados tanto a nivel de las personas que los construyen como a nivel de las personas que los utilizan.

De manera que unos puedan entender si el funcionamiento está siendo correcto o puedan entender el resultado y tener certeza de qué información se está utilizando y cómo se está teniendo en cuenta para generar ese resultado. 

Este tipo de técnicas nos permiten entender mejor las decisiones que toman los sistemas basados en IA permitiendo a cualquier usuario conocer el porqué de sus respuestas y decisiones, observando que las IAs cumplen con una serie de criterios éticos y morales básicos. 

image ¡Tuitea esta tendencia!