Inteligencia Artificial

De FdIwiki ELP
Saltar a: navegación, buscar

¿Que es la Inteligencia Artificial? Definición tipos y tecnologías.

Se denomina La inteligencia artificial (IA) a la facultad de razonamiento que ostenta una máquina, y que le fue conferida gracias al diseño y desarrollo de diversos procesos gestados por los seres humanos.

Existen dos formas de presentar el concepto, por una parte enfocadas a procesos mentales y de razonamiento y por otro a la conducta. Cabe recalcar que esta ciencia unifica y abarca temas filosóficos, matemáticos, intelectuales, éticos y biológicos, entre otros, razón por la cual la perspectiva de algunos autores es diferente en concepto a otros, pero mantienen la misma esencia. La IA se divide en dos escuelas de pensamiento:

La inteligencia artificial convencional: Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problema, usando principalmente algoritmos heurísticos.

La inteligencia computacional: Se centra en el estudio de mecanismos adaptativos para permitir el comportamiento inteligente de sistemas complejos y cambiantes, implica desarrollo o aprendizaje automático.

De la misma manera, existen dos vertientes en cuanto a cómo debería funcionar una IA:

Sistemas que piensan y/o actúan racionalmente.

Sistemas que piensan y/o actúan como humanos.

La diferencia entre estas dos vertientes es muy notable, los seres humanos no siempre actuamos acorde a la razón, ya sea por sentimientos u otras causas, tendemos a cometer acciones que consideramos irracionales. Entonces, ¿Debería una IA actuar siempre acorde a la razón, o debería ser capaz de realizar acciones irracionales en ciertas situaciones?

En la actualidad, los avances en la rama de la IA son exponenciales, siendo una tecnología que no para de ser mejorada a un ritmo muy superior a lo preevisto, como ejemplo de esto, tenemos el caso de AlphaGo. Hace poco más de un año se declaró que una máquina no podría ganar a un campeón de Go, debido a la dificultad de este juego, al menos en la próxima decada, sin embargo, tan solo 6 meses después el programa de inteligencia artificial AlphaGo, desarrollado por Google, consiguió ganar por cuatro a uno al campeón coreano del juego de mesa Go, Lee Sedol. AlphaGo cuenta con importantes avances en inteligencia artificial y destaca por la capacidad de aprender y mejorar sus propias estrategias y movimientos en el transcurso del juego.

Actualmente no se podría implementar una IA que razonase y pensase cómo un humano, ya que ni siquiera comprendemos en su totalidad la forma de la que funciona la mente humana. El cerebro humano sigue siendo un misterio para la ciencia. Podemos imitar su conducta, y prever acciones y resultados en función de la situación, pero no comprendemos cómo funciona. Dicho esto,si bien hace unos años la Inteligencia Artificial podría ser considerada ciencia ficción, teniendo en cuenta los avances de la tecnología y de esta rama en concreto en los últimos años, se podría llegar a afirmar que en un futuro lehano la Inteligencia artificial fuerte podría ser una realidad. Esto trae consigo una serie de problemas éticos.

¿Cuando podríamos afirmar que una máquina es inteligente?

En 1950, Alan Turing promueve una prueba para evaluar hasta cierto punto la inteligencia de un sistema. La famosa Prueba de Turing, pone en desafío a una computadora contra un juez humano, la prueba será superada si la persona no logra distinguir si lo que responde es una persona o una máquina. Los puntos a considerar son:

Procesamiento natural del lenguaje: El sistema debe entender nuestro lenguaje natural.

Representación del conocimiento: Es la capacidad de almacenar lo que se conoce, el equivalente a recordar.

Razonamiento automático: Es la posibilidad de crear nuevas ideas y conceptos a través de la base de conocimiento.

Aprendizaje automático: Capacidad de adaptarse, aprender y entender patrones.

Existe una prueba más completa, la Prueba Global Turing que agrega dos formas de evaluar más directas: Visión computacional: Con esta el evaluador prueba las reacciones del sistema ante el mundo, y cómo este reacciona y se adapta.

Robótica: El agente ahora puede interactuar con su entorno con algún tipo de instrumento o miembro artificial.


A pesar de que la prueba siga vigente hoy en día, el hecho de que un sistema consiga pasar dichas pruebas no lo convierte necesariamente en un ente inteligente, ya que simplemente podría estar imitando una conducta humana, por eso a la hora de investigar es necesario enfocarse en estudiar principios básicos y fundamentales del pensamiento, y no en que el sistema pase estas pruebas.

¿Si se llegase a crear una IA perfecta, que problemas éticos plantearía?

El cine y la literatura de ciencia ficción ya han explorado este tema en múltiples ocasiones, desde taquillazos de acción en que las máquinas se rebelan contra el ser humano, hasta historias centradas en la razón de ser, el libre albedrío y/o los derechos que deberían o no tener dichos sistemas, así como las contradicciones a las que se podrían enfrentar.

Véase: Metrópolis (1927/2001); Yo, robot (1950/2004); 2001, una odisea en el espacio (1968); Blade Runner (1982); Tron (1982); Terminator (1984);Ghost in the Shell (1989); The Matrix(1999); Inteligencia artificial (2001); Her (2013); Ex-Machina (2015); WestWorld (2016).

Entonces, dado el caso de que consiguiésemos resolver el enigma que es el cerebro humano y el pensamiento y crear una máquina inteligente, una llamada IA fuerte ¿Qué problemas éticos se nos plantearían? Comportamiento de la IA.

Isaac Asimov, en su famosa obra: "Yo Robot" plantea las tres célebres leyes de la robótica como código moral.

1.Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2.Un robot debe obedecer las órdenes por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Isaac asimov plantea paradojas acerca de estas leyes, que a pesar de parecer muy simples, llevan a problemas muy complejos. Un problema muy sencillo sería cuando una situación provocase que distintos seres humanos estuvieran en peligro y no se pudiera salvar a todos, ¿Cómo decidir a quién salvar?, ante esa situación incluso varios seres humanos podrían actuar de varias maneras diferentes, ya que no todos tienen la misma ética/moral. ¿Y si un humano intentara suicidarse?¿Debería el robot actuar en contra de la voluntad del humano y evitarlo? ¿Y si los humanos se estuviesen haciendo daño a ellos mismos a causa de sus propias acciones, como destruir su ecosistema?¿Deberían ser controlados para evitar hacerse daño? Hay multitud de historias y obras de ficción acerca de estos problemas y cuáles deberían ser las pautas de comportamiento a seguir, y sobre si las IA podrían llegar a ser peligrosas para los humanos.

Dichas normas, en principio creadas por Asimov para sus obras de ficción, acabaron convirtiéndose en objeto de debate y referencia entre ingenieros de todo el mundo a la hora de intentar crear las IA y siguen siendo estudiadas y cuestionadas hoy en día.


Conciencia y trato a las IA:

La conciencia es la capacidad mediante el cual una ser se percibe a sí mismo en el mundo y a su entorno, básicamente es lo que nos hace diferenciar el “yo” de lo demás. ¿Podría una IA llegar a obtener conciencia, o sentimientos?, y de ser así, ¿Debería cambiar nuestra forma de ver a dicha IA?.

Hemos hablado del comportamiento que debería tener una IA, pero ¿cómo debería comportarse un humano con una IA? qué trato se la debería de dar y a partir de qué punto dejaría de ser una simple pieza de tecnología, como un móvil, un ordenador o un simple abrelatas, para convertirse en un ser inteligente a nuestros ojos. Este punto vendría dado por la conciencia, por el entendimiento de la IA de lo que es y del mundo que la rodea, de la capacidad de esta de realizar actos por sí misma, actos que no hayan sido programados.

Entonces, ¿Las IA deberían seguir las nombradas leyes de Asimov o utilizarlas como directrices para su comportamiento, tal y como nosotros utilizamos nuestra moral?, ya que en múltiples ocasiones hacemos cosas que nos parecen inmorales, ya sea debido a nuestras emociones, por beneficio personal, o por ninguna razón aparente.

Conclusión.

Estos son solo unos pocos de los innumerables dilemas éticos que acompañan a la creación de las IA. La Inteligencia Artificial es y será objeto de un interminable debate ético ya que enfrenta cuestiones que ni siquiera hemos conseguido resolver cómo humanos, de esta forma crear una IA fuerte sería algo imposible para nosotros ahora mismo o en un futuro próximo, aunque dispusieramos de la tecnología necesaria, nos falta el conocimiento sobre el cerebro, la conciencia y el pensamiento humano, así como de la ética por la que se rige.