Los 'smartcars' del futuro
Supongamos que un coche robot se enfrenta a la decisión inevitable y terrible de tener que chocar contra un objeto. Podría desviarse a la izquierda y golpear un coche Volvo o podría virar bruscamente hacia la derecha y golpear un Mini Cooper. Si el coche está programado para minimizar el daño, ¿qué decisión debería tomar en este escenario?
Si nos basamos en los principios físicos, se debería elegir la colisión con el vehículo más pesado ya que este absorbe mejor el impacto. Esto significa que el coche debe programarse para que elija chocar contra el Volvo. Tiene sentido determinar la elección de colisión del vehículo si esto implica mejorar la seguridad de los pasajeros. Pero la física no es la única cosa que importa. La programación de un coche para que sea inteligente y sepa con qué objeto particular debe colisionar se basa en un algoritmo de focalización similar al sistema de las armas militares, lo que plantea a la industria de robótica algunas interrogantes éticas y legales incómodas.
Lo que parecía ser un diseño de programación sencillo y útil se encuentra con retos éticos. Volvo y otras empresas pueden tener una queja legítima contra el fabricante de los coches robot ya que favorece el choque contra ellos, incluso si la física nos dice que es lo mejor. ¿Es un problema realista? Algunos accidentes de tráfico son inevitables, e incluso los 'smartcars' no pueden escapar de ese destino.
Un gato podría cruzarse en tu camino o un coche del otro carril podría virar bruscamente hacia ti. Un coche robot sin embargo podría hacer las cosas mejor. Mientras que los conductores humanos sólo pueden reaccionar instintivamente en una emergencia, un coche robot es impulsado por el software, explorando constantemente su entorno con sensores que no parpadean y son capaces de realizar muchos cálculos antes de estar siquiera conscientes del peligro. Ellos pueden tomar decisiones en fracciones de segundo para optimizar los accidentes, es decir, para minimizar el daño. Pero el software tiene que ser programado, y no está claro cómo hacerlo para los casos difíciles. Los algoritmos de prevención de accidentes pueden estar sesgados de una manera preocupante.
Google ha anunciado recientemente que ha dado el siguiente paso en la prueba de su coche automático en un casco urbano. A medida que su entorno operativo se vuelve más dinámico y peligroso, los coches robot se enfrentan a decisiones difíciles, ya sea respecto a los objetos o incluso a las personas. Pensemos en otro escenario. El coche robot debe elegir entre un motociclista que lleva un casco o un motociclista que no. ¿Cuál es la manera correcta de programar el coche? Según el criterio de optimización en colisiones se debe programar que el coche choque contra cualquier cosa que pueda sobrevivir. En el último escenario, eso significaba estrellarse contra el Volvo. En este caso significa golpear el motociclista que lleva puesto un casco. Un buen algoritmo explicaría que es más probable estadísticamente que el ciclista sin casco muera, y no creo que matar a alguien es una de las cosas que más desean los fabricantes de automóviles. Deliberadamente al estrellarnos contra un motociclista con casco, estamos penalizando a una persona responsable, a alguien que cumple con la normativa (lleva casco como debe ser). Esta discriminación parece poco ética y además podría promover una mala política. Se podría alentar a algunos motociclistas a no usar casco con el fin de no ser objetivos privilegiados de los coches robot. De la misma forma, las personas comprarían menos coches de la marca Volvo y Mercedes Benz, si quieren evitar ser el blanco de un 'smartcar'.
Una solución elegante a estos dilemas que crean desconcierto es simplemente no hacer una elección deliberada. Podríamos diseñar un coche autónomo para tomar ciertas decisiones a través de un generador de números aleatorios. Es decir, si es éticamente problemático qué elegir, ¿por qué hacer una elección calculada? La programación del coche robot podría generarse gracias a la aleatoriedad. Si es un número impar, el coche toma un camino, y si es un número par, toma otro. Esto evita la posible acusación de que la programación del coche es discriminatoria contra las marcas más seguras o los motociclistas responsables, o cualquier otra cosa.
La aleatoriedad no introduce nada nuevo en nuestro mundo: la entropía nos rodea, tanto para bien como para mal. Una decisión al azar imita mejor la conducción humana. Aunque la principal razón para la creación de los coches robots es que sean capaces de tomar mejores decisiones que nosotros todavía queda un paradigma que romper: la matemática moral.
Fuente: Wired
Ilustración: Stephen Chan