martes, 1 de marzo de 2016

La Inteligencia Artificial ¿un peligro?

<<Stephen Hawking y otros 1500 expertos alertan sobre el peligro de los 'robots asesinos'>> así y con títulos similares se hacían eco los medios de comunicación de todo el mundo sobre una carta firmada por numerosísimos referentes culturales y científicos allá por julio de 2015, al calor de la Conferencia Internacional de Inteligencia Artificial que tuvo lugar en Buenos Aires.
Expertos como Hawkings, Wozniak, NoamChomsky, entre otros denunciaba el peligro que entrañaría el uso de la I.A. en el ámbito militar. Es fácil imaginar que si un país se decidiera a trabajar en el desarrollo de la inteligencia artificial militar una carrera armamentista a nivel mundial sería inevitable.

Puede parecernos algo futurista, y pueden venir a nuestra mente películas de futuros distópicos como "Terminator", donde "Skynet" una malévola, y algo genocida, I.A. totalmente autónoma de su creador humano está decidida a acabar con la raza humana; o "Yo, Robot" (la película) en la que un "ejercito" de robots domésticos son controlados por una I.A. llamada "VIKI", film en el que vemos la utilización de "Las Tres Leyes de la Robótica" de Isaac Asimov por las son regidas estas máquinas, pero "VIKI" evoluciona y es capaz de ignorar las dos últimas leyes para cumplir la primera [Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño], así empieza una rebelión de robots que debería acabar con una especie de "dictadura robótica" en la que la vida humana estará más garantizada que en el sistema actual. Esto solo son un pequeño ejemplo de las numerosas películas y series de televisión, como Battlestar Galactica, que tienen como trama principal el desarrollo de una I.A. decidida a acabar o destruir a sus creadores, ¿la proliferación del uso de esta temática puede reflejar un temor de la sociedad a que algo así pudiera llegar a ocurrir?

¿Pero qué pasaría si ocurriera el desarrollo militar de esta tecnología? Parece muy posible que en un futuro la inteligencia artificial sea usada para fines militares como lo suelen ser los avances científicos, asi lo vimos con la carrera nuclear iniciada a mediados del siglo XX, cuyas consecuencias hoy en día siguen suponiendo un peligro en los conflictos bélicos, o las armas biológicas desarrolladas durante el mismo periodo en la Guerra Fría por EEUU y la URSS. 

Podemos decir, sin temor a equivocarnos, que la utilización de las I.A. no debe entrañar un peligro en sí mismo, el peligro radica directamente en los dueños de la misma, en este sentido, y para variar, es EEUU el que se sitúa a la cabeza en el desarrollo militar y civil de esta tecnología, pisándole los talones se encuentra el gigante chino. 

Lejos está el desarrollo  que vemos de la I.A. en el largometraje "Ex Machina" (film muy recomendable, y sobre todo dada la naturaleza de esta asignatura), pero parece ser que tenemos “a la vuelta de la esquina” el uso de esta tecnología en nuestros hogares, usando las I.A. en nuestras casas para hacerlas inteligentes y capaces de autorregularse así mismas. 

¿Es posible que las Inteligencias Artificiales puedan llegar a superar a su creador humano tan determinados por su evolución biológica y suponer un verdadero peligro para la humanidad?



Lara Fernández Morena

No hay comentarios:

Publicar un comentario