Inteligencia artificial, ética y sociedad

De FdIwiki ELP
Revisión a fecha de 14:37 20 dic 2017; AyoubEG (Discusión | contribuciones)

(dif) ← Revisión anterior | Revisión actual (dif) | Revisión siguiente → (dif)
Saltar a: navegación, buscar


La inteligencia artificial (IA) se trata de un programa basado en un conjunto de algoritmos que se encargan de realizar tareas consideradas propias de la inteligencia humana, como por ejemplo el autoaprendizaje o la resolución de problemas. Debido al gran avance de la ética, de hecho, incluso La Casablanca en octubre de 2016 saco a la luz informes que mostraban que la inteligencia artificial avanzaba a una velocidad espeluznante y que alrededor del 2030 la vida estaría rodeada de robots, que en muchos casos sustituirán a los seres humanos, y es aquí donde entramos el debate ético.

Dentro del mundo tecnológico la ética pasa a ser conocida como “Roboética” que viene a estudiar cómo pueden ser las situaciones e interacciones entre las máquinas inteligentes y los seres humanos o el medio ambiente. Esto, es el resultado de, que a dichas máquinas se les quiere implementar agentes éticos y facultades morales como la toma de decisiones.

Debemos diferenciar en primer lugar, la “Roboética” de la ética, propiamente dicha de los seres humanos, es decir, los robots deben estar ligados a las reglas éticas. Estas vienen dadas, algunas de ellas son: cada ser humano debe ser protegido de los distintos daños que pueda causar la inteligencia artificial, o evitar que las máquinas monopolicen el progreso social. Dicho esto, hay que evitar que ciertos colectivos más vulnerables a crear empatía con la inteligencia artificial como niños y personas mayores sean manipulados por las máquinas.

Usos en distintos sectores de la inteligencia artificial (IA)

Un gran problema de la inteligencia artificial, visto en el vídeo de clase de ELP, es que está programada por seres humanos y que estos, están llenos de prejuicios que de una manera u otra acaban siendo reflejados en sus órdenes a las máquinas.

Por ejemplo, en los diferentes procesos de selección, la inteligencia artificial puede denegar un puesto de trabajo a una persona totalmente cualificada solo por el hecho de que exista una probabilidad de dicha persona pueda tener depresión en el futuro. También esto puede verse en anuncios, estadísticas o procesos judiciales, por la raza o color de piel de las personas. Un claro ejemplo es que a una persona negra se le puede representar con una alta propensión a la delincuencia y alguien de raza blanca no, esto sucedió en EEUU cuando un algoritmo acusó a un chica negra de ser potencialmente peligrosa porque siendo adolescente robo una bici para llegar a su casa sin cometer más delitos a lo largo de su vida y en cambio, un hombre blanco que había robado con arma blanca y cometido un asesinato ese algoritmo lo clasificó como una persona sin ningún tipo de peligro. Esto abre un amplio debate sobre si la inteligencia artificial podría tomar decisiones como las de controlar armas en caso de emergencia y sin supervisión de un humano.

En cambio, en la medicina la IA ayuda a interpretar radiografías escaneando imágenes digitales, señalando zonas visibles como posibles enfermedades. También se usa para realizar un análisis del ruido cardíaco. En este caso la IA es un instrumento de ayuda para los profesionales de la medicina, porque puede determinar diversas enfermedades y de esta manera poder actuar con rapidez y eficacia. Se ha de usar siempre con la cautela y con la supervisión de un médico ya que un programa puede dar error y provocar una negligencia.

En aviación se usa la IA en simulación de vuelos para procesar los datos y así también poder simular la guerra entre aviones. También los ordenadores pueden crear estrategias y reordenar la ubicación, tamaño, velocidad… para poder proporcionar ayuda al piloto y así poder realizar distintas maniobras según los datos obtenidos. En 2003, la NASA y muchas más compañías crearon software que permitía a un avión dañado conseguir aterrizar de manera segura compensando los componentes dañados con dependencia de los no dañados.

En la música se intenta hacer que las máquina u ordenadores copien y simulen las acciones de los músicos y cantantes, es decir, intentan que la composición, interpretación y todo el procesamiento de sonido sean las principales áreas donde se esté enfocando la IA.

Inteligencia artificial y empresas de actualidad y problemas en la sociedad

Por esta razón empresas como Apple han decidido introducir la ética en la inteligencia artificial y los robots, porque no se puede imaginar un futuro que los robots puedan perjudicar a los seres humanos ya que no solo dejarían en evidencia a los creadores de este mismo sino también a toda la industria de la tecnología. Por eso se debe implementar códigos que nos comuniquen si hacer algo o no en diversos casos, es decir, que las actuaciones tengan dos opciones, blanco o negro, sin jugar con los grises que puedan mostrar confusión a la máquina.

Microsoft emulo a un joven de 19 años hablando en redes sociales y tuvo que desconectarlo al día siguiente porque su comportamiento era sexista, racista y hablaba demasiado sobre teorías conspiratorias. Esto tiene como objetivos mostrarnos que los seres humanos estamos fundamentados en jerarquías éticas y valores. En cambio, la inteligencia artificial no es más que una simple implementación de algoritmos de autoaprendizaje e interacción con el medio que le rodea.

La capacidad de aprendizaje de una máquina puede sonar como algo muy propositivo, pero los detractores aseguran que esto, sumado a una capacidad de análisis y de cálculo infinito pone al hombre en una severa desventaja frente a una computadora, máquina o programa. Esto trasciende no sólo en la inmediatez del acto, sino que es un reflejo de lo reemplazable que es el hombre, y por consecuencia, de lo vulnerable que somos.

Y esto no es todo, existen además críticos como Kacinsky que aseguran que la polarización de capital y de recursos se verá incluso más exagerada con la popularización de esta inteligencia. Los países que son capaces de invertir en estas tecnologías y aquellos que pueden adquirirlas se levantan muy por encima de aquellos incapaces de hacerlo, dejándolos con menos oportunidades competitivas. Además, otras barreras a tomarse en cuenta son el idioma, la capacidad económica y el estilo de vida

De hecho personajes como Elon Musk y Stephen Hawking advierten de los diversos peligros que acechan con los avances de la inteligencia artificial como pérdida de puestos de trabajo, apareciendo el riesgo de que la IA quede fuera del control humano. Por ello muchos expertos señalaron que la inteligencia artificial podría hacer peligrar la democracia, sobre todo en la posverdad donde la emoción y las creencias tienen más influencia que los hechos objetivos al tomar cualquier tipo de decisión.

Para dotar de razonamiento y sentido común a las máquinas se realiza una técnica llamada como cognición situada que consiste en meter a las diferentes máquinas en simulaciones y entornos reales para que tengan aprendizaje basado en el desarrollo mental. Esta técnica necesita que la IA este en un cuerpo para que los sistemas perceptivos definan lo que observar y las interacciones que se realiza con el entorno donde se encuentra situada la máquina.

Por eso en marzo de 2017 un debate en Barcelona dio lugar a la «Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa».

La presente declaración recalco seis untos en el desarrollo y uso de la inteligencia artificial:

  1. Prudencia: Necesidad de ser conscientes de que todavía queda por resolver un gran número de obstáculos científicos y técnicos, como el sentido común
  2. Fiabilidad: Los sistemas de inteligencia artificial deben someterse a pruebas para determinar su fiabilidad y seguridad.
  3. Rendición de cuentas: Cuando un sistema toma decisiones, las personas afectadas por ellas tienen que poder recibir unas explicaciones y poder cuestionarlas con argumentos razonados.
  4. Responsabilidad: Debe quedar claro si la interacción se hace con una persona o con un sistema de inteligencia artificial, si es el segundo caso debe localizarse sus responsables.
  5. Autonomía limitada: Se necesita disponer de reglas claras que limiten el comportamiento de los sistemas de inteligencia artificial autónomos para que los encargados de desarrollarlos puedan incorporarlos en sus aplicaciones.
  6. Papel del ser humano: En casi cualquier área, la capacidad humana todavía supera con creces la inteligencia artificial, especialmente en el tratamiento de casos que no han aparecido en los conjuntos de datos de ejemplo de los que aprenden los sistemas de inteligencia artificial.

La ética esconde un proceso de pensamiento extraordinariamente complejo que debe enfrentar paradojas y contradicciones. No interpelamos sólo a la racionalidad, sino a los valores. Entonces, he aquí la pregunta, este joven de 19 años que interactuaba con los demás usuarios, ¿tuvo errores de diseño o fue lo que aprendió de la sociedad que existe actualmente?

Enlaces externos y referencias

http://www.thinkingheads.com/tendencia-global/robotica-inteligencia-artificial-etica-debate/

http://www.expansion.com/blogs/sociedad-empresa-digital/2016/04/29/puede-la-inteligencia-artificial-tener.html

http://www.elperiodico.com/es/opinion/20170116/robots-inteligencia-artificial-y-etica-articulo-bourdin-5747045