Aprende a confiar en los robots. Es por tu propio bien

Aprende a confiar en los robots. Es por tu propio bien
robot_vintage_3

Mi compañero Aldo Ros nos ha compartido este artículo sobre los dilemas que plantean el uso de robots para mejorar nuestra seguridad, y siguiendo mi tendencia de traducir artículos interesantes para vosotros, aquí lo tenéis:

You Should Learn to Trust Robots. It’s for Your Own Good

"Un robot podría salvar tu vida, si eres lo suficientemente inteligente como para dejar que lo haga. Basta con pensar en los coches con autoconducción, que por lo menos, disminuyen las muertes en caso de ebriedad o distracción, y que en Estados Unidos representan una cifra superior a los 13.000 accidentes cada año. Sin embargo, la mayoría de los estadounidenses dicen que no se sentirían cómodos usando un sistema automatizado de este tipo. Y si esta mentalidad no cambia, no habrá ninguna posibilidad de que la tecnología despegue. Pasa lo mismo con otros sistemas robóticos y de inteligencia artificial que tienen un gran potencial en mejorar nuestra seguridad o aumentar la productividad. Irónicamente, el factor crucial para el éxito de la automatización es siempre la acción humana que no puede ser automatizada: nuestra confianza en el robot.

Cuando los robots hacen cosas que no entendemos, como la detección de obstáculos siguiendo unas reglas desconocidas para nosotros, tendemos a perder la confianza y hacernos con el control a distancia, incluso cuando los robots están en lo cierto. Los estudios de laboratorio han demostrado también lo fácil que es sacudir nuestra fe: Cuando un sistema diseñado para advertir a los conductores de colisiones inminentes fue propenso a dar falsas alarmas, la confianza de los usuarios declinó precipitadamente, a pesar del hecho de que el sistema no fallaba respecto a las verdaderas amenazas. En otras palabras, incluso cuando nos enfrentamos a la evidencia de nuestra propia inferioridad, seguimos resistiéndonos a que un robot nos pueda ayudar.

Cuando los robots hacen cosas que no entendemos, como seguir unas reglas que no conocemos, les arrebatamos el control incluso cuando están en lo cierto.

Está claro que vamos a necesitar aprender cómo y cuándo confiar en las máquinas. Es para nuestro propio bien. El truco para lograr esto, quizás sea programar un poco de humildad en el sistema mediante el diseño de máquinas que reconozcan sus propias debilidades. Por ejemplo en los experimentos llevados a cabo por Holly Yanco, experta en robótica de la Universidad de Massachusetts con colaboradores de la Universidad Carnegie Mellon, se dieron cuenta que si los voluntarios podían escoger entre la conducción manual y automática de un tanque robot (“Junior”) se sentían más cómodos.

Yanco también programó a Junior con algo novedoso: la capacidad de expresar la duda. Es decir, en algunos ensayos, Junior proporcionó información en tiempo real sobre su propio desempeño, diciendo a su operador humano la confianza sobre lo que estaba a punto de hacer. Cuando la máquina estaba en acción mostraba una luz verde o una cara sonriente; poco antes de tomar un giro equivocado, mostraba una luz roja o una cara con el ceño fruncido. (Yanco y sus colegas habían programado al robot para que cometiera algunos errores, pero se dijo a los sujetos que la luz de advertencia significaba que Junior ya no confiaba en sus lecturas de los sensores).

Los avisos de fiabilidad del robot permitieron que los participantes se sintieran más cómodos con equilibrar su dependencia de la máquina: utilizaron el modo automático cuando el robot era confiable y cambiaron al modo manual cuando el robot estaba a punto de fallar. ¿El resultado? Hubo menos errores en el desempeño respecto a los participantes que no recibieron retroalimentación del robot.

Necesitamos máquinas que pillen sus propias vulneabilidades. Los robots pueden fallar pero deben explicarnos el porqué.

En un estudio realizado en 2006 sobre los sistemas automatizados, unos pilotos tuvieron que usar un simulador de vuelo en condiciones en que se podía acumular hielo en la parte exterior del avión llevando a una pérdida de equilibrio. Se les dijo que el Sistema Inteligente sobre la formación de hielo tenía una precisión global de 70%. ¿El resultado? Cuando estaban volando, se fijaron en el gráfico en tiempo real, sobre la confianza del diagnóstico del sistema (un gesto de humildad de la propia máquina). Los pilotos que recibieron la información en tiempo real de la confianza experimentaron significativamente menos pérdidas de velocidad causadas por el hielo.

El mensaje es claro: los robots se insinúan cada vez más en nuestras vidas y entender sus limitaciones será tan crucial como conocer sus capacidades. Debemos tener máquinas que pillen sus propias vulnerabilidades. Al final el establecimiento de la confianza y la construcción de relaciones productivas con los robots no será muy diferente de cómo lo hacemos con las personas".

Yo lo tengo claro, quiero una Robotina (The Jetsons) aún con 70% de fiabilidad.

Fuente: Wired