Cómo relacionarnos con las super inteligencias artificiales (1)

Avengers-age-of-ultronHoy se ha puesto de moda la inteligencia artificial (IA), no tanto como área de investigación sino como los riesgos que representa. Debemos recordar que la IA siempre fue bastante incomprendida y para los fabricantes de software era una pérdida de tiempo y de dinero. Solo en los 8Os con la aparición de los sistemas expertos hubo cierto boom, que terminó siendo un espejismo, los sistemas basados en la IA seguían siendo demasiado costosos y poco productivos y la IA se sumió en una gran crisis (Crisis de la inteligencia artificial) en la que muchos auguraban su final.

De las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea.

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Con respecto a la propagación de la singularidad tecnológica mucho ha tenido que ver el científico e inventor Ray Kurzweil, quien ahora es uno de los ingenieros (yo diría que el ideólogo para el futuro de la IA) de Google. Su trabajo como promotor y divulgador de la singularidad tecnológica ha sido clave en la aceptación de la idea, Hoy existen una gran cantidad de eventos, libros, revistas, etc., que tratan el tema de la singularidad o el de una super inteligencia artificial (Super inteligencia artificial), la consecuencia más importante de la singularidad tecnológica. Y este es el punto donde vamos a detenernos.

Luego del actual entusiasmo de las transnacionales de la IA por construir una inteligencia artificial hasta el extremo que hoy nadie espera que la IA surja de un laboratorio de investigación sino de una empresa privada, y todos esperan que sea en Google, dado las inversiones gigantescas que ha estado llevando a cabo. Y aunque muy pocos lo digan directamente, y se van por la tangente de los peligros de una IA fuera de control, la realidad es que causa preocupación la idea de una IA que sea desarrollada e implementada por una empresa privada, de ahí la carrera por construirla cuanto antes. Precisamente aquí es donde se escapa del control, ya que la inteligencia artificial deja de responder a intereses científicos para responder a los intereses del mercado.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica (de esto hablaré en otro artículo) y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad , tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking.

Recientemente el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Comenzaré por el de Max Tegmark, físico e investigador en el MIT, dado su llamado a prepararnos para el adveniemiento de una nteligencia artificial superior a la humana (Let’s Get Prepared!). Veamos

Tegmark parte de tres postulados iníciales
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.

Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otra paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

Dejo el último punto para el próximo artículo, en el cual seguiremos ahondando sobre el tema.

Imagen: inciclopedia-wikia

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Singularidad tecnológica y etiquetada , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s