Trabajo:Coches autónomos

De FdIwiki ELP
Revisión a fecha de 01:00 23 ene 2016; Angulito (Discusión | contribuciones)

(dif) ← Revisión anterior | Revisión actual (dif) | Revisión siguiente → (dif)
Saltar a: navegación, buscar

Resultados de la encuesta sobre los coches autónomos
¿Te gustaría ver las opiniones en los debates éticos sobre coches autónomos?
Ahora puedes ver los resultados obtenidos de la encuesta planteada
[Quiero ver los resultados de la encuesta]

Trabajo realizado por

Alumnos del Doble Grado de Matemáticas e Ingeniería Informática de 5º de ELP

  • Natalia Angulo Herrera
  • Juan Andrés Claramunt Pérez

Definición

Un coche autónomo o un coche sin conductor (en inglés, self-driving car or driveless car), es un vehículo al que se le ha integrado hardware y software diseñado para viajar sin un operador humano. Para que sea clasificado como autónomo, este vehículo debe ser capaz de navegar sin la intervención humana.

Legislación

España

El día 16 de Noviembre de 2015, la DGT (Dirección General de Tráfico) de España estableció un marco para permitir la realización de pruebas con vehículos de conducción automatizada, pudiendo circular estos en vías abiertas. Según indicaron en un comunicado oficial de la DGT, estos ensayos permitidos con coches autónomos, a partir de la fecha en la que se estableció el comunicado, serán un avance para aportar seguridad vial e impulsar la industria de la automoción y la inversión en investigación en España. Así, España se sitúa entre los primeros países que apuestan por este tipo de tecnología, definiendo un marco en el que se puedan realizar pruebas estables y así atraer la realización de ellas con vehículos autónomos.

California

El día 16 de Diciembre de 2015, California establece un nuevo borrador de leyes referentes a la conducción de coches automatizados. Estas reglas prohíben el uso de los coches sin conductor que son totalmente autónomos, y que por lo tanto no tienen un volante o un pedal de freno (como el prototipo de coche autónomo que Google ha desarrollado), resaltando que un operador que tenga licencia debe estar presente en el interior del vehículo supervisando en todo momento el comportamiento del coche, y siendo capaz de tomar el control en todo momento por si la tecnología falla o hay otro tipo de emergencia. Debido a esta regulación que simplemente se ha presentado como un primer borrador, gigantes desarrolladores de coches autónomos podrían efectuar sus pruebas en estados como Texas o Nevada. Otras reglas importantes de este borrador son las siguientes:

  • Se establece la responsabilidad de la conducción al operador del vehículo, incluso cuando el vehículo está conduciendo él solo sin control humano.
  • Los fabricantes deben certificar que sus vehículos autónomos cumplan con los requisitos específicos de seguridad y rendimiento del vehículo.
  • Los fabricantes deben presentar cada mes informes sobre la seguridad y el uso de sus vehículos autónomos. Estos también deben informar sobre los accidentes que ocurrieron mientras el vehículo estaba en modo autónomo y los defectos presentes a la seguridad con la tecnología autónoma.
  • Los vehículos autónomos también tienen que ser capaces de detectar, responder y alertar al operador a los ataques cibernéticos. En caso de una alerta este tipo, el operador de vehículo autónomo tendrá la capacidad para anular la tecnología autónoma.

Como hemos podido leer en los puntos anteriores, en este nuevo borrador de leyes, también se despeja otra duda relativa a los coches autónomos sobre quién es el responsable en caso de accidente, pues será el conductor humano (persona que se sienta al volante y que tendrá que tener permiso de conducir), a pesar de que por ejemplo en el caso de Google su propia fe en ellos ha hecho que decidan hacerse responsables en caso de accidente.

Debates éticos

La charla TED del profesor Patrick Lin

" Si condujéramos el automóvil en modo manual, de cualquier forma que quisiéramos reaccionar (en caso de un choque inminente, con posible escapatoria hacia derecha o izquierda) se entendería sólo como eso, una reacción y no una decisión deliberada. Sería un movimiento de pánico instintivo sin premeditación o malicia.

Pero si un programador tuviera que asignar al auto hacer un movimiento, dadas las condiciones que pueden presentarse en el futuro, bueno, eso se parece más a homicidio premeditado (porque) los accidentes pueden suceder y sucederán, y cuando sucedan, los resultados pueden determinarse con meses o años de antelación por programadores. "


El hecho de que los coches sean conducidos y dirigidos por un ordenador y que se comuniquen entre ellos, plantea debates en torno a la ética. Planteemos algunas situaciones extremas que pueden pasar.

¿Un coche que te puede delatar?

Actualmente, hay casos en los que los conductores que han sido culpables de algún tipo de accidente, se han dado a la fuga. Especialmente, hay un caso en Florida en el que una mujer se dio a la fuga y la mujer contaba con un coche Ford Focus de última generación que se chivó a la policía mediante el sistema 911 Assist que incorpora Ford en los coches de Estados Unidos. Si esta mujer volviese atrás en el tiempo, ¿escogería de nuevo un coche que pudiera llegar a salvarle la vida en una situación extrema, o preferirá el anonimato frente a situaciones de accidente que ella mismo provocó?

¿Un coche que puede escoger matarte?

Supongamos que estamos en la situación en la que vas a tener un accidente contra un obstáculo en la carretera, no da tiempo a frenar, pero si el coche gira el volante hacia un hueco libre en la carretera que hay para salvarte, chocará contra un autobús lleno de personas viene de frente. ¿Qué debería hacer el sistema inteligente autónomo de tu coche, chocarse contra el obstáculo y arriesgar la vida del conductor del vehículo, o chocarse contra el autobús y arriesgar la vida de muchas personas? Este problema también se podría trasladar a que si en lugar de venir un autobús, viene un coche con el mismo número de personas que en el que tú vas, ¿deberías poner en riesgo la vida de otros conductores y acompañantes o la tuya propia y la de tus acompañantes? Este tipo de problemas éticos hacen referencia al conocido Dilema del Tranvía.

Casos coche autonomo.png

¿Y si programamos en código abierto?

Expertos de software y seguridad han encontrado graves problemas en el software de coches autónomos. Esto de hackear la electrónica de un coche no es nada nuevo. De esta manera, igual que ahora un mecánico o un técnico de la ITV revisan las piezas de tu coche, ya sean por problemas técnicos o para garantizar que tu coche está en buenas condiciones para circular, podría plantearse la posibilidad de que un experto en seguridad de coches autónomos podría mirar el software de un vehículo y hacer de técnico de la ITV en este caso. Pero aquí, de nuevo, nos topamos con un gran problema, el software con Copyright de los fabricantes.

Actualmente muchas decisiones las toma el software, pero si nos topamos con el problema de la ley de derechos de autor, no podemos examinar su funcionamiento.


Las aseguradoras

Los coches autónomos están orientados no sólo a la comodidad de los conductores, sino también a la seguridad vial. Aquí entonces se plantean preguntas como, ¿quién tiene la culpa en un choque entre dos coches autónomos? ¿Y entre un coche autónomo y no autónomo? ¿Y de quién es la responsabilidad en la implicación en un accidente de un coche autónomo, del conductor, del propietario o del fabricante? En Octubre de 2015, la compañía Volvo ha hecho público que él será el responsable si uno de sus coches autónomos tiene la culpa de un accidente. ¿Y si planteamos la situación en la que hay un ciber ataque por un criminal? En estos casos, la compañía Volvo ha declarado que ellos no serían los culpables en tal caso, y además, han dicho textualmente: "estamos desarrollando software de forma continua para contrarrestar los riesgos asociados con el hacking en los coches", y añaden como argumento que "No culpamos a Apple o Microsoft por los virus o los hackers" .

¿Debería dejar de ser legal conducir coches manualmente cuando los coches autónomos lleguen?

En leves accidentes producidos en las pruebas del coche autónomo de Google (hasta el año 2015), estos han sido producidos por culpa de humanos que conducían otros vehículos. Esto nos plantea otro debate moral, que por supuesto, actualmente no tiene respuesta y que tendrá que ser regulado en el futuro cuando los coches autónomos lleguen a las carreteras.

Posibles desarrolladores

Hasta el año 2015, hay una gran mayoría de los fabricantes de coches que están trabajando en desarrollar su coche autónomo, como Mercedes-Benz, Audi, Volvo, Jaguar, Ford, Renault, BMW... Incluso grandes empresas tecnológicas que no están aparentemente implicadas en la industria automovilística, como Google y Apple. Como en todo, también hay casos excepcionales y más extraños, como George Hotz (el creador del jailbreak para el iPhone o la primera persona que desactivó la seguridad de PS3) también ha creado un prototipo de coche autónomo con sistema operativo Ubuntu.

Resultados de la encuesta realizada

Se ha realizado la encuesta que puede encontrarse en Encuesta coches autónomos.

Los resultados obtenidos sobre las 99 encuestas realizadas tanto en papel como a través de los Formularios de Google pueden descargarse en Resultados encuestas coches autónomos

Si quieres ver la evaluación de los resultados de las encuestas, puedes visitar Evaluación resultados encuestas coches autónomos

Influencia de este trabajo dentro de 30 años

Actualmente, se ha realizado este trabajo en el 2016. Dentro de 30 años, tendrá una influencia sobre el mundo. Os podréis informar de ello ("dentro de 30 años") en Blog Revolución de los coches autónomos

Fuentes

Leyes de California

Más sobre Leyes de California

Código abierto en coches autónomos

Más sobre código abierto en coches autónomos

Dilemas éticos coches autónomos