Los riesgos existenciales de la inteligencia artificial (1)

Vernor_Vinge_small

Vernor Vinge. La singularidad tecnológica

What is the problem? It seems plausible that some time this century, people will develop algorithmic systems capable of efficiently performing many or even all of the cognitive tasks that humans perform. These advances could lead to extreme positive developments, but could also potentially pose risks from intentional misuse or catastrophic accidents. For example, it seems possible that (i) the technology could be weaponized or used as a tool for social control, or (ii) someone might create an extremely powerful artificial intelligence agent with values misaligned with humanity’s interests. It also seems possible that progress along these directions could be surprisingly rapid, leaving society underprepared for the transition. Give Well

Comenzamos con las consideraciones de Give Well sobre cual es problema que enfrentaremos ante el surgimiento de una inteligencia artificial que pueda superar a los humanos. Claro aquí estamos haciendo una abstracción de los demás problemas, ya que los problemas no vienen solos, siempre están precedidos por otros problemas y a su vez estos arrastras a otros. El tema de los problemas, del cual hemos estado hablando y volveremos sobre el en próximos articulo hemos hablado de problemas biomédico, psicoreligiosos, socioeconómico, ecosostenible y tecnocientífico. Aquí nos estamos concentrando en el problema tecnocientífico y los riesgos de la inteligencia artificial (IA).

Para responder a las preguntas que hace Give Well vamos a hacer hincapié en tres enfoques, que iremos tratando en diferentes artículos.

1.-Inteligencia suprahumana. La posibilidad de que surja una inteligencia suprahumana
2.-Riesgos de la IA. Los riesgos potenciales del surgimiento de la IA
3.-Futuro sostenible o poshumano. Si estamos preparados o vamos a ciegas al futuro.

1.-Inteligencia suprahumana

Ya en mi articulo ¿Surgirá una superinteligencia capaz de superar al ser humano? Se realiza un análisis sobre la posibilidad de una IA superior a los humanos, por lo que no me dentendré en detalles.

Lo primero, restringiéndonos al problema tecnocientífico el mismo no está en el surgimiento de una inteligencia superior a la humana, sino como advirtió el bioeticista Van R Potter: el aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento. Ahora: ¿Es posible el surgimiento de una IA superior a la humana?

Vinge planteaba la posibilidad del surgimiento de 4 tipos de inteligencias suprahumanas.
1. Superinteligencia artificial: Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que podremos construir entidades aún más inteligentes.).
2. Superinteligencia colectiva: Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
3. Superinteligencia hibrida: Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
4. Superinteligencia biológica: La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Me gusta utilizar el nombre de inteligencia suprahumana para recordar que mientras muchos quieren construir una inteligencia superior a la humana o ampliar sus capacidades y su inteligencia, existen, aun, inteligencias infrahumanas producto precisamente de las condiciones infrahumanas en que viven muchos seres humanos.
Estoy en contra de los que quieren prohibir las investigaciones sobre el desarrollo de IA que puedan superar a los humanos, pero si creo que es un deber moral erradicar la inteligencia infrahumana natural antes de construir una inteligencia suprahumana artificial.

En dicho artículo se mencionaba la tendencia de priorizar el hard sobre el soft lo que conducía a los siguientes los siguientes conceptos:
• La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
• La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
• La máquinas que se irán auto construyéndose a si misma cada vez más perfeccionadas, más veloces, más memorias, dotadas de mejores algoritmos podrán llegar a convertirse en maquinas superinteligentes que superen a los humanos.
• La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Vemos que se apuesta por el surgimiento de máquinas cada vez más inteligentes, lo que llevaría a una explosión de inteligencia, pienso que la importancia de la inteligencia está sobredimensionada y peor aun, la inteligencia se reduce al concepto de velocidad: velocidad de análisis, velocidad de procesamiento, velocidad de cálculo, etc. Cuando, en realidad, dentro de la escala de desarrollo la inteligencia viene siendo el primer escalón: inteligencia, conocimiento y sabiduría. Tampoco creo que el peligro de una explosión de inteligencia por parte de las máquinas es que se convierta en una superinteligencia fuera de control sino en que no se fomente la sabiduría necesaria para manejarnos con esas inteligencias de forma colaborativa

Los humanos programarán a las IA de acuerdo con sus acciones y las IAs harán lo que los humanos hacen. La IA debe aprender dentro del contexto humano y según las máquinas se vayan haciendo más complejas y autónomas hasta despertar como una inteligencia que tendrá conciencia de sí misma (emergencia). Y es que la IA al igual que nuestros hijos, en algún momento dejarán de depender de nosotros, el problema consiste en; si, para ese entonces, nos verán cómo sus padres o como sus dueños.

Imagen: Wikimedia

Anuncios

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s