En un moderno restaurante de alta cocina, el uso de robots como servidores promete una experiencia gastronómica innovadora. Sin embargo, la situación se complica cuando el robot encargado de llevar la cena a la mesa se queda inmóvil en la cocina, con el plato principal frío y esperando ser servido. La frustración de los comensales aumenta al darse cuenta de que la tecnología, que inicialmente parecía perfecta, presenta fallas en su operación. Tras consultar a un empleado humano, surgen diversas hipótesis sobre la causa del problema: ¿se quedó sin batería, un cocinero interfirió en su camino o la puerta de la cocina se cerró sola? Este incidente pone de manifiesto la importancia de la Inteligencia Artificial Explicable (XAI) y Robots Autónomos Explicables (XAR), que buscan entender cómo y por qué los robots toman ciertas decisiones, cruciales para mejorar la interacción humano-robot en entornos de HRI (interacción humano-robot).
La complejidad de la explicabilidad se encuentra en el concepto fundamental de qué significa «explicar» en el contexto de las máquinas autónomas. Para los seres humanos, las explicaciones son parte de nuestro comportamiento natural, pero al trasladar este concepto a un robot, se hace necesario un análisis más profundo. Las definiciones de «explicación» en la literatura apuntan a la necesidad de entendibilidad; este debe ser el eje central al comunicarse sobre el funcionamiento de un robot. Así, se podría definir una explicación como información que mejora la comprensión del comportamiento del sistema, adaptándose al receptor y permitiendo que este logre entender no solo lo que hace el robot, sino la razón detrás de sus acciones.
Los formatos de las explicaciones son diversos: pueden ser visuales, como gráficos o imágenes, o verbales, ya sean escritas o habladas. La complejidad y presentación de estas dependen del nivel de conocimiento del usuario final. Comprender que una misma explicación puede ser simple para un experto pero confusa para un niño es clave para el desarrollo de estrategias efectivas de explicabilidad. Así, se debe adaptar la granularidad de la explicación a diferentes perfiles de usuarios, asegurando que las comunicaciones sobre el funcionamiento del sistema sean accesibles y útiles para todos, independientemente de su fondo tecnológico.
La confianza human-robot es vital para que los sistemas autónomos sean acogidos en nuestras vidas. Cuando un usuario no entiende las decisiones de un robot, su confianza se ve comprometida, lo que puede tener repercusiones en la seguridad y eficacia del sistema. La explicabilidad ofrece, además, herramientas para identificar sesgos en modelos de inteligencia artificial, garantizando que los algoritmos son justos y responsables en sus decisiones. De esta forma, asegurar que un robot no solo funcione correctamente, sino que sea capaz de explicar sus acciones, permite no solo una mejor operativa, sino también la reducción de riesgos en entornos críticos, donde la interacción con humanos puede ser de alto riesgo.
El proceso de generación de explicaciones en sistemas autónomos se divide en tres etapas: recolección de datos, interpretación y comunicación. Para la interpretación de datos, se utilizan distintos métodos que permiten a los robots entender y analizar su entorno. Esta capacidad se vuelve crucial, especialmente para robots que interactúan de manera constante con humanos, como los mencionados en el restaurante. Integrar modelos de lenguaje grande (LLM) que permitan a estos sistemas dar respuestas contextualizadas y explicativas podría mejorar significativamente la calidad de las interacciones. Así, al abordar la generación de explicaciones de forma precisa, se contribuye a una mayor confianza y seguridad en el uso de tecnologías autónomas, llevando a una convivencia más armónica entre máquinas y humanos.
















