- Data Bytes
- Posts
- El Problema con el Dilema del Tranvía
El Problema con el Dilema del Tranvía
Dejémos de usarlo en las discusiones sobre Inteligencia Artificial.
La publicación de un artículo en la edición de noviembre de la revista Nature desató la conversación sobre un problema moral conocido desde hace tiempo.
Es posible que hayas oído hablar de él. El problema del tranvía, como se le conoce, describe una situación en la que el vehículo avanza sin control y está a punto de matar a cinco personas. Tú estás allí con acceso a una palanca que puede desviar el tranvía a otro carril, matando a una persona en lugar de a muchas. ¿La accionarías?
El artículo en cuestión es obra de investigadores del MIT Media Lab que en 2014 idearon un experimento llamado Moral Machine (la máquina moral). In it, people from around the world would decide what to do in different variations of the trolley problem.
En él, personas de todo el mundo decidirían qué hacer en diferentes variaciones del problema del tranvía.
El experimento midió nueve atributos:
Intervención: Mantener el curso (inacción) / desviarse (acción)
Número de personajes: Salvar más vidas / menos vidas
Relación con el vehículo autónomo: Salvar pasajeros / peatones
Género: Salvar hombres / mujeres
Especies: Salvar humanos / mascotas
Edad: Salvar jóvenes / ancianos
Ley: Salvar a los que cumplen la ley / a los que cruzan ilegalmente
Estatus social: Salvar a los ricos / pobres
Condición física: Salvar a los en forma / menos en forma
Me parece que el experimento en sí es asombroso. La gamificación del estudio en línea permitió a los investigadores acceder a una muestra que de otro modo habría sido casi imposible de reunir.
Sí, la autoselección de los participantes tiene un precio (como la sobrerrepresentación de algunos grupos y la subrepresentación de otros), pero las más de 450 mil personas que además de participar en el experimento también accedieron a completar una encuesta sociodemográfica, ayudaron a los investigadores a explorar el efecto de las variaciones individuales, las estructuras culturales y las características a nivel de país en las preferencias.
Mis principales conclusiones sobre los resultados son:
1. Variaciones individuales: (Edad, educación, género, ingresos, opiniones políticas, opiniones religiosas) son teóricamente importantes, pero no información esencial. La religión y el género son los más significativos. Por ejemplo, aunque todos los grupos están más inclinados a salvar a las mujeres sobre los hombres, los hombres lo están un 0,06% menos.
2. Grupos culturales: Los autores encontraron tres grupos morales de países con un notable parecido al Mapa Cultural de Inglehart-Welzel. (Un famoso gráfico de dispersión basado en la encuesta mundial de valores, pero me desvío). Lo importante aquí es que esto es una medida de consistencia para los resultados del experimento de la Máquina Moral. La proximidad geográfica y cultural tuvo un impacto significativo en las preferencias de los encuestados.
3. Predictores a nivel de país: En línea con lo anterior (y este es mi favorito) las diferencias culturales y económicas entre países mostraron una alta correlación con las preferencias de los participantes. Por lo tanto, aquellos países con instituciones más débiles y bajo PIB per cápita estaban más inclinados a salvar a los peatones que cruzan ilegalmente. Además, las culturas colectivistas mostraron una preferencia más débil por salvar a los jóvenes sobre los ancianos. Este grupo incluye países orientales donde los miembros mayores de la comunidad gozan de un estatus social más alto.
De Wikipedia: Una recreación del Mapa Cultural del Mundo de Inglehart–Welzel, creado por los politólogos Ronald Inglehart y Christian Welzel basado en los datos de la Encuesta Mundial de Valores — ola de encuestas 4, finalizada en 2004
De nuevo, los invito a leer el artículo aquí ya que creo que todo el experimento, la metodología, y los hallazgos son valiosos como exploración de las preferencias morales entre grupos humanos. Me parece importante hacer esta introducción antes de abordar el tema del título de esta publicación: Creo que no debemos usar este enfoque en conversaciones sobre vehículos autónomos e inteligencia artificial. Impone una carga injusta, innecesaria e inconveniente sobre la tecnología, aquellos que trabajan en su desarrollo y aquellos que eventualmente podrían beneficiarse de ella.
Podría / Debería.
El problema del tranvía pregunta si una persona tomaría acción para alterar un resultado basado en una evaluación moral de la situación. Yo argumentaría que es incorrecto hacer una falsa equivalencia entre eso y lo que un programador codifica en el sistema definiendo lo que un vehículo autónomo debería hacer.
El sesgo en machine learning es un hecho innegable. Uno del que todos deberíamos ser conscientes y uno que las empresas tecnológicas deben hacer esfuerzos continuos para prevenir. Pero eso no tiene nada que ver con tratar de forzar valores morales y consideraciones éticas dentro de un sistema.
No estoy diciendo que no deban existir principios. Mi punto es que una evaluación del valor de la vida humana no debe ser uno de ellos porque, déjame ahorrarte el tiempo, no hay una manera imparcial de hacerlo. Y que los legisladores trabajen en ello, es algo que encuentro profundamente incómodo.
El objetivo principal del problema del tranvía es plantear al sujeto un dilema. El trabajo de los legisladores es asegurarse de que las empresas que fabrican sistemas autónomos minimicen la susceptibilidad de sus productos a un dilema.
NO, NO LO HIZO. Uno de los peores titulares que encontré sobre el tema. La fuente es ZDNet.
Un malentendido sobre el vehículo autónomo como producto está en la base de estos enfoques erróneos. Este artículo de Benedict Evans (A16Z) lo explica muy bien. Las personas fuera de la industria están tratando de definir el resultado e ingeniar el camino después.
La verdad es que la autonomía en sí aún está por definirse (razón por la cual algunos fabricantes de automóviles prefieren el término conducción autónoma) y cuando lo esté, la definición tendrá que considerar lo que Evans llama el "qué" y el "dónde".
[…] it’s easy to ask ‘when can we have autonomy?’ (and everyone does) but the ‘when’ depends on the ‘where’ and the ‘what’, and these are a matter of incremental deployment of lots of different models in different places over time.
Niveles de Autonomía
Productos con diferentes niveles de autonomía funcionarán en diferentes contextos con diferentes configuraciones. A medida que más de estos vehículos entren en el mercado, el espacio para colisiones inevitables se reducirá, y nos alejaremos del millón de personas que mueren cada año en accidentes de tránsito.
De manera similar a cómo la vacunación dentro de una población eventualmente alcanza un umbral en el que los individuos no vacunados están protegidos contra la enfermedad, los beneficios de la adopción de vehículos autónomos se distribuirán en la sociedad, manteniendo seguros a peatones y conductores humanos.
Mientras tanto, cuando se encuentre en un dilema, debería frenar…
-WILL SELF DRIVING CARS KILL..
-No. It should brake
-BUT WHAT IF THERE IS A KID ON THE..
-It should brake
-AND FOUR KIDS ON THE OTHER..
-brake
-What if it can’t?
-better brakes
-Slips?..
-better tires. And drive slower.
-what if it’s inevitable?
-THEN ITS NOT AI’S FAULT IS IT?— Alex Van de Sande (avsa.eth) (@avsa)
12:31 AM • Feb 11, 2018