Por: Sofía Salas
Docente investigador
Centro de Bioética Facultad de Medicina
CAS-UDD
En un interesante articulo publicado por El Mercurio se analiza un estudio realizado recientemente por el MIT, en el cual se plantearon distintos escenarios que podría enfrentar un vehículo autónomo, todos los cuales conllevan decisiones éticas. Esto recuerda a las tres leyes de la robótica, desarrolladas por el escritor Isaac Asimov para ser aplicadas en sus novelas de ciencia ficción. Estas leyes establecen que “un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño; un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley, y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley”.
Lo interesante del estudio es que sus resultados demostraron que existen diferencias culturales importantes en la forma de resolver estos dilemas. Más allá de potenciales sesgos metodológicos (los que participaron no fueron seleccionados al azar), los resultados sugieren que la forma de programar estos vehículos para que tomen decisiones “éticas” debe tener pertinencia cultural. No obstante, me surge la duda de si acaso al enfrentarse a un choque inminente se tiene el tiempo suficiente para hacer un proceso de deliberación, el cual es propio de la toma de decisiones éticas. Pero bienvenidos son estos “juegos morales”, puesto que nos permiten cuestionarnos de qué manera la intuición moral es modulada por la cultura y factores socioeconómicos.