Inteligencia artificial, ética y sociedad

De FdIwiki ELP
Revisión a fecha de 13:27 20 dic 2017; AyoubEG (Discusión | contribuciones)

(dif) ← Revisión anterior | Revisión actual (dif) | Revisión siguiente → (dif)
Saltar a: navegación, buscar


La inteligencia artificial (IA) se trata de un programa basado en un conjunto de algoritmos que se encargan de realizar tareas consideradas propias de la inteligencia humana, como por ejemplo el autoaprendizaje o la resolución de problemas. Debido al gran avance de la ética, de hecho, incluso La Casablanca en octubre de 2016 saco a la luz informes que mostraban que la inteligencia artificial avanzaba a una velocidad espeluznante y que alrededor del 2030 la vida estaría rodeada de robots, que en muchos casos sustituirán a los seres humanos, y es aquí donde entramos el debate ético.

Dentro del mundo tecnológico la ética pasa a ser conocida como “Roboética” que viene a estudiar cómo pueden ser las situaciones e interacciones entre las máquinas inteligentes y los seres humanos o el medio ambiente. Esto, es el resultado de, que a dichas máquinas se les quiere implementar agentes éticos y facultades morales como la toma de decisiones.

Debemos diferenciar en primer lugar, la “Roboética” de la ética, propiamente dicha de los seres humanos, es decir, los robots deben estar ligados a las reglas éticas. Estas vienen dadas, algunas de ellas son: cada ser humano debe ser protegido de los distintos daños que pueda causar la inteligencia artificial, o evitar que las máquinas monopolicen el progreso social. Dicho esto, hay que evitar que ciertos colectivos más vulnerables a crear empatía con la inteligencia artificial como niños y personas mayores sean manipulados por las máquinas.

Usos en distintos sectores de la inteligencia artificial (IA)

Un gran problema de la inteligencia artificial, visto en el vídeo de clase de ELP, es que está programada por seres humanos y que estos, están llenos de prejuicios que de una manera u otra acaban siendo reflejados en sus órdenes a las máquinas.

Por ejemplo, en los diferentes procesos de selección, la inteligencia artificial puede denegar un puesto de trabajo a una persona totalmente cualificada solo por el hecho de que exista una probabilidad de dicha persona pueda tener depresión en el futuro. También esto puede verse en anuncios, estadísticas o procesos judiciales, por la raza o color de piel de las personas. Un claro ejemplo es que a una persona negra se le puede representar con una alta propensión a la delincuencia y alguien de raza blanca no, esto sucedió en EEUU cuando un algoritmo acusó a un chica negra de ser potencialmente peligrosa porque siendo adolescente robo una bici para llegar a su casa sin cometer más delitos a lo largo de su vida y en cambio, un hombre blanco que había robado con arma blanca y cometido un asesinato ese algoritmo lo clasificó como una persona sin ningún tipo de peligro. Esto abre un amplio debate sobre si la inteligencia artificial podría tomar decisiones como las de controlar armas en caso de emergencia y sin supervisión de un humano.

En cambio, en la medicina la IA ayuda a interpretar radiografías escaneando imágenes digitales, señalando zonas visibles como posibles enfermedades. También se usa para realizar un análisis del ruido cardíaco. En este caso la IA es un instrumento de ayuda para los profesionales de la medicina, porque puede determinar diversas enfermedades y de esta manera poder actuar con rapidez y eficacia. Se ha de usar siempre con la cautela y con la supervisión de un médico ya que un programa puede dar error y provocar una negligencia.

En aviación se usa la IA en simulación de vuelos para procesar los datos y así también poder simular la guerra entre aviones. También los ordenadores pueden crear estrategias y reordenar la ubicación, tamaño, velocidad… para poder proporcionar ayuda al piloto y así poder realizar distintas maniobras según los datos obtenidos. En 2003, la NASA y muchas más compañías crearon software que permitía a un avión dañado conseguir aterrizar de manera segura compensando los componentes dañados con dependencia de los no dañados.

En la música se intenta hacer que las máquina u ordenadores copien y simulen las acciones de los músicos y cantantes, es decir, intentan que la composición, interpretación y todo el procesamiento de sonido sean las principales áreas donde se esté enfocando la IA.

Inteligencia artificial y empresas de actualidad y problemas en la sociedad

Por esta razón empresas como Apple han decidido introducir la ética en la inteligencia artificial y los robots, porque no se puede imaginar un futuro que los robots puedan perjudicar a los seres humanos ya que no solo dejarían en evidencia a los creadores de este mismo sino también a toda la industria de la tecnología. Por eso se debe implementar códigos que nos comuniquen si hacer algo o no en diversos casos, es decir, que las actuaciones tengan dos opciones, blanco o negro, sin jugar con los grises que puedan mostrar confusión a la máquina.

Microsoft emulo a un joven de 19 años hablando en redes sociales y tuvo que desconectarlo al día siguiente porque su comportamiento era sexista, racista y hablaba demasiado sobre teorías conspiratorias. Esto tiene como objetivos mostrarnos que los seres humanos estamos fundamentados en jerarquías éticas y valores. En cambio, la inteligencia artificial no es más que una simple implementación de algoritmos de autoaprendizaje e interacción con el medio que le rodea.

La ética esconde un proceso de pensamiento extraordinariamente complejo que debe enfrentar paradojas y contradicciones. No interpelamos sólo a la racionalidad, sino a los valores. Entonces, he aquí la pregunta, este joven de 19 años que interactuaba con los demás usuarios, ¿tuvo errores de diseño o fue lo que aprendió de la sociedad que existe actualmente?

Enlaces externos y referencias

http://www.thinkingheads.com/tendencia-global/robotica-inteligencia-artificial-etica-debate/

http://www.expansion.com/blogs/sociedad-empresa-digital/2016/04/29/puede-la-inteligencia-artificial-tener.html

http://www.elperiodico.com/es/opinion/20170116/robots-inteligencia-artificial-y-etica-articulo-bourdin-5747045