¿Habrá exámenes de conducir para coches autónomos?

Artículo publicado en retina.elpais.com

Qué se puede escribir que no se haya escrito ya sobre el accidente del coche autónomo de Uber y, en general, sobre quién tiene la culpa o responsabilidad (que no siempre es lo mismo) en los accidentes en los que participan coches conducidos por Inteligencia Artificial? Quizá se pueda todavía intentar explicarlo con un poco de pedagogía para que todo el mundo pueda entenderlo.

Hay un viejo chiste que dice que se encuentran dos amigos por la calle y uno de ellos está hecho polvo, lleno de golpes. Y el otro le pregunta: “¿pero qué te ha pasado?”. “Me atropelló un coche”, contesta. “Pero eso no fue lo peor, luego vino una ambulancia y también me atropelló… Y menos mal que pararon el tío-vivo, porque detrás venían el coche de la policía, el de los bomberos, etc.”

¿Quién tiene la responsabilidad en el caso de un ‘atropello’ en un tío-vivo? Habrá que analizar si se produjo por una conducta imprudente del ‘peatón’ (que accedió a la atracción cuando ya estaba en movimiento, cosa que está prohibida) o si ha sido por un fallo del operario, que puso en marcha la atracción sin darse cuenta de que había gente de pie en ella, o por un mal funcionamiento de la maquinaria.

Reflexiones parecidas podemos hacer sobre accidentes con aparatos y sistemas de movilidad automáticos o automatizados (que no es lo mismo que autónomos o inteligentes): un ascensor, una escalera mecánica, un teleférico, un telesilla,… E incluso sobre aquellos vehículos que tienen sistemas de asistencia inteligentes (‘pilotos automáticos’), pero cuya conducción o supervisión todavía es humana.

Como vemos, hay distintos grados de automatización y de ‘inteligencia’ aplicada a los aparatos, vehículos y sistemas de movilidad, y la responsabilidad jurídica (por culpa u objetiva) dependerá de determinar si hubo una imprudencia humana, un defecto de diseño o de fabricación, o un mal funcionamiento de la tecnología por una causa externa. Habrá que analizar cada caso. No se puede generalizar.
¿Qué es un coche?
La primera pregunta que cabría hacerse y que, creo, damos muy rápidamente por supuesta, sería: ¿es el ‘coche autónomo’, realmente, un coche? Está claro que se parece mucho a un coche, pero quizá nos tendríamos que plantear qué es lo que define esencialmente a un coche, más allá de la apariencia, y si, dentro del concepto de ‘coche’, caben diferenciar distintos tipos.
Según el Diccionario de la RAE, un coche (del húngaro kocsicarruaje) es un “automóvil (que se mueve por sí mismo) destinado al transporte de personas y con capacidad no superior a siete plazas”. Pero también es “un vagón del tren o del metro”, que no se desplaza por sí mismo, sino enganchado a otros vagones y a una locomotora. E, incluso, un "coche de niño", empujado por una persona.
Un automóvil es un “vehículo que puede ser guiado para marchar por una vía ordinaria sin necesidad de carriles y lleva un motor, generalmente de combustión interna o eléctrico, que los propulsa”. Y un vehículo (del latín vehere, llevar a cuestas, en carro, transportar) es un “medio de transporte de personas o cosas”. tanto a motor como de tracción animal, tanto terrestres como espaciales.
A su vez, desde el punto de vista jurídico, hay que tener en cuenta el Anexo I, de conceptos básicos, de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial, en el que se define qué es un ‘turismo’: “automóvil destinado al transporte de personas que tenga, por lo menos, cuatro ruedas y que tenga, además del asiento del conductor, ocho plazas como máximo”.
Pero la pregunta es: ¿qué define esencial y jurídicamente a un coche, automóvil o turismo?, ¿el hecho de tener, al menos, cuatro ruedas?, ¿el hecho de tener capacidad para nueve plazas como máximo? (en esto la RAE debe actualizarse), ¿el hecho de tener un motor?, ¿el hecho de moverse por sí mismo?, ¿o el hecho de ser ‘guiado’ por una persona? ¿Y si lo ‘guía’ una inteligencia artificial?
Libertad y responsabilidad
La responsabilidad depende del grado de libertad de una persona, que, a su vez, viene determinada, entre otras cosas, por el grado de información e ‘inteligencia’ de esa información. Por eso la falta de libertad o de información o de inteligencia pueden modular e incluso exonerar de responsabilidad (por culpa) de una acción. Aunque otra cosa es la responsabilidad objetiva (sin culpa).
En el caso de atropellos por coches conducidos por humanos, lo que se analiza es de quién es la culpa: si del peatón o del conductor. Aunque, incluso cuando es del peatón, se suele atribuir la responsabilidad civil objetiva a la compañía de seguros del coche implicado, que suele cubrir los daños. Hay responsabilidad penal del conductor cuando ha actuado negligentemente o intencionadamente.
En el caso de atropellos por coches autónomos, conducidos por una inteligencia artificial, habrá que analizar si son completamente autónomos o inteligentes y el humano es un pasajero, no un conductor (y, en ese caso, la responsabilidad será del fabricante del coche o del sistema de inteligencia artificial) o si tan sólo tenían sistemas inteligentes de asistencia a la conducción humana.
No obstante, cuando hablamos de coches autónomos y de inteligencia artificial, no debemos pensar que salen de fábrica sabiéndolo todo. En estos temas aún estamos en pañales y para conseguir un sistema experto en cualquier materia hacen falta muchas horas de entrenamiento y, desgraciadamente, de corrección de errores, es decir de accidentes, que se seguirán produciendo.
Por eso, creo que es más realista pensar en los coches autónomos como en las personas que están aprendiendo a conducir y van a una autoescuela y conducen con un profesor que las supervisa. Y no sería descabellado pensar en un examen de conducir para coches autónomos e incluso en ciertas limitaciones (sobre todo, de velocidad en el primer año) hasta que sea un conductor experto.
El futuro, ¿exámenes para coches autónomos?

Comentarios

Entradas populares