Tribuna

Coches de choque filosófico

La tecnología ya hace posible que haya vehículos sin piloto, pero plantea un dilema ético sobre las vidas que hay que salvar en caso de accidente

24.07.2016 | 05:00

Mercedes-Benz acaba de ensayar con éxito su primer autobús sin conductor para conectar el aeropuerto Schiphol de Amsterdam con la cercana ciudad de Haarlem. Los coches y autobuses autónomos están aquí. Según Business Insider, en 2020, dentro de 4 años, habrá 10 millones de vehículos autoconducidos en la Tierra. La tecnología para hacerlos realidad ya no es un problema. El verdadero problema del coche autónomo es filosófico, ético. ¿Cómo han de reaccionar estas máquinas en caso de accidente? El dilema lo planteó recientemente en una charla TED el profesor Patrick Lin, director del grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California. En el accidente de un vehículo pilotado por un humano la reacción ante una posible escapatoria se entendería como algo no deliberado, un movimiento de pánico. Pero en un coche autónomo esa reacción, y sus posibles consecuencias, han de estar programadas. Ejemplo. Imaginemos un choque inminente y dos escapatorias, a izquierda y derecha. Lin: «A la izquierda hay un motociclista con casco y a la derecha un motociclista sin casco. ¿Con quién debería chocar el automóvil robótico? Si dices con el motociclista con casco por tener más posibilidades de sobrevivir, entonces, ¿no penalizas al motociclista responsable? Si, en cambio, decides ir contra al motociclista sin casco argumentando que él actúa de manera irresponsable, entonces has ido mucho más allá del principio de diseño inicial de minimizar los daños y el automóvil robótico está ahora impartiendo justicia callejera». El programador estaría cometiendo un homicidio premeditado. Porque la máquina tiene que saber qué decidir llegado el caso: ¿sacrificar a sus ocupantes para salvar la vida a peatones o proteger al pasaje del coche sobre todas las cosas? La inteligencia artificial se encuentra aquí ante uno de sus mayores retos: fabricar máquinas «éticamente autónomas».

Un estudio publicado en Science, con 1.928 entrevistas en EE UU, reveló que el 78% de los encuestados considera «más apropiado» que el vehículo choque contra un muro o contra un árbol, sacrificando a sus ocupantes, antes que arrollar a un grupo de peatones. Sin embargo, sólo un 30% consideró «moralmente aceptable» viajar con su familia en un coche autónomo cuyo programa elegirá sacrificar a sus ocupantes antes de atropellar a un grupo de peatones. Joshua Greene, psicólogo de la Universidad de Harvard, en Cambridge (Massachusetts), escribió respecto: «El problema, parece, es más filosófico que técnico. Antes de que podamos programar nuestros valores morales en las máquinas, debemos esforzarnos por aclararlos y hacerlos coherentes con lo que podría ser la hora de la verdad para la filosofía moral del siglo XXI».

Compartir en Twitter
Compartir en Facebook
Crea tu propio Blog
Enlaces recomendados: Premios Cine