Este es un tema que he venido masticando desde hace tiempo, pero no había tenido el tiempo de escribir. Excede el espacio de la interacción humano-máquina, o el diseño de experiencias de usuario, pero de todos modos las incluye.
Se trata de la incursión de los «vehículos inteligentes», es decir, vehículos controlados por software en lugar de conductores humanos. La idea parece fabulosa y casi de ciencia ficción. Pero tiene un punto complejo.
Y es que los vehículos inteligentes deben ser programados para tomar decisiones que involucran, eventualmente, la muerte. Son situaciones externas, no controladas, pero que requieren de acciones inmediatas, instantáneas.
En una situación extrema, pero totalmente posible, un vehículo inteligente debe determinar cuál es la pérdida menor. Imaginemos un escenario en el que sólo hay dos opciones posibles: A o B. Si decide A, hay riesgo de muerte de una persona, si decide B, morirán dos personas. No hay más opciones, no hay espacio para frenar lo suficientemente rápido y evitar que haya víctimas. ¿Qué deberá decidir, la muerte de una o de dos personas? Traducido a un algoritmo, es una decisión simple, incluso considerando la dimensión ética.
Actualmente esas decisiones las toman personas, que —de un modo u otro—, son responsables por sus actos, independientemente de lo imperfecto de la aplicación de las sanciones que derivan de ellas.
¿Qué decidiría una persona? ¿Optaría por A, la muerte de una persona, o B, la muerte de dos? ¿Tendrá la lucidez de evaluar las consecuencias?
Extrememos el caso: las opciones ya no son sólo A —muere una persona— o B —mueren dos personas—, sino que hay una opción C, en la que el conductor puede evitar que mueran otras personas, pero eso impone un alto riesgo de muerte para el conductor. La decisión que pueda tomar una persona dependerá de su estándar ético: me salvo a expensas de la muerte de otros, o salvo a los demás y me sacrifico.
Todo esto, finalmente, es un problema del espacio de la ética. La discusión teórica de estos puntos me parece completamente necesaria y razonable. La aplicación real de esto es lo que me preocupa.
Si tomamos como ejemplo el caso de Volkswagen —sólo por nombrar uno notorio, aunque no único—, llegamos a un espacio en el que todas las disquisiciones éticas quedan sometidas a decisiones comerciales. Se trata de una compañía en la que se incorporaron medidas, en la forma de software, para contravenir la normativa ambiental sobre emisiones de gases. Es decir, la compañía optó por el beneficio comercial, antes que por el bien común —o el cumplimiento de la ley.
¿Cómo se comportarían las compañías en el escenario de incorporar decisiones de vida o muerte en los vehículos «inteligentes»? ¿Qué harán en un caso como el planteado? Es fácil suponer que un vehículo inteligente, ante una situación extrema, opte por el número menor de víctimas. ¿Pero qué ocurrirá cuando hay una opción C, donde la persona a sacrificar es su cliente? No me cuesta mucho imaginar esto como un argumento de venta, aunque sea velado: «siempre lo salvaremos a usted», «vehículos más seguros para usted». Ciertamente habrá clientes dispuestos a garantizar su seguridad por sobre la de otros.
Para concluir, me queda claro que este tipo de situaciones no las puede decidir el mercado, que ha demostrado que las compañías anteponen el beneficio propio al bien común, sino que deben ser reguladas y controladas por toda la sociedad. Pero eso no garantiza que las compañías cumplan con la regulación, ¿o no Volkswagen? Permítanme el escepticismo.
(crédito de imagen: Nathan Rupert)