Las ideas de una super-inteligencia artificial

Este artículo es un compendio de otros artículos publicados, anteriormente, sobre el tema.

En el articulo “Expectativas de una inteligencia artificial avanzada” con respecto a la singularidad tecnológica hacíamos los siguientes señalamiento.

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas super-inteligentes.

Se está hablando del surgimiento de una super-inteligencia artificial (super IA) superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En “Los riesgos existenciales de una singularidad tecnológica (1)” se hablaba sobre la explosión de inteligencia, inteligencias artificiales que se auto-programan así mismas cada vez más inteligentes hasta llegar a una singularidad tecnológica. Y se definían los siguientes presupuestos a tener en cuenta para lograr una explosión de inteligencia.

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una super-inteligencia.

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.
1.-Relacionada con una inteligencia artificial. Super-inteligencia artificial (super-IA)
2.-Relacionada con la ampliación de la inteligencia

En el primer caso estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que, tendremos varias posibilidades.

  • Superinteligencia artificial creada (en sus bases para que siga mejorándose por sí misma) por los centros de investigación.
  • Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
  • Superinteligencia artificial creada por las grandes transnacionales como parte de su KnowHow, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
  • Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
  • Superinteligencia artificial creada por la comunidad de software libre.

Con respecto a la ampliación de la inteligencia surgen tres vías (ver Inteligencia artificial: ¿Hay razón para preocuparse? )

  • Superinteligencia colectiva (sistemas cooperativos conformados por la relación (colaboración) entre humanos y tecnologías
  • Superinteligencia hibrida, ampliación de las capacidades humanas por medio de dispositivos cibernéticos, estamos hablando del Cyborg.
  • Superinteligencia biológica, ampliación de la inteligencia por medio de la ingeniería genética.

También la ampliación de la inteligencia se puede lograr por cualquiera de las posibilidades mencionadas anteriormente, pero, si en el caso de la inteligencia artificial los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, entre otros siguiendo la línea de un humano mejorado por medio de las tecnologías.

Ni que decir de los proyectos militares, tales como el ideal de crear un superhumano, o las consecuencias sociales de colocar en el mercado dispositivos que permitan alcanzar poderes sobre humanos que tendrán consecuencias tanto ética como sociales ante un mercado que solo responde a las ganancias (ver El desafío de la inteligencia artificial). No se puede ignorar que vivimos en un contexto social competitivo donde se favorece el crecimiento económico a toda costa y el consumismo desmedido, lo cual nos lleva a la competencia por los mercados y, lo más grave, es que la ley del mercado nos está arrastrando a un futuro incierto, ajeno a un verdadero progreso humano.

Vamos a un futuro posthumano

Dado el impacto que tendrán las tecnologías emergentes sobre el ser humano y ante las propuestas del transhumanismo sobre el ser humano, del posthumanismo (singularidad tecnológica), del mejoramiento genético (eugenesia) y de un cerebro global. Que alternativas tenemos (o nos queda) para seguir siendo humanos (para no dejar de SER humanos) y mantener el progreso humano ante el advenimiento de la era tecnológica. Y aquí está la clave de todo, nos acercamos a una nueva era. ¿Estamos preparados para el cambio? ¿Hacia dónde vamos? Refinamiento (2)?

Hay que tener en cuenta que nos acercamos a la era de las tecnologías (tecnocentrismo)  donde las tecnologías dejaran de ser una infraestructura para convertirse en una superestructura y formar parte de las decisiones del planeta. Todo esto ha llevado cierta exageración sobre las posibilidades de la tecnología.

Personalmente no tengo dudas vamos hacia un futuro posthumano en algunas de sus variantes. Siendo el escenario más posible el transhumanismo liberal ya que le da continuidad al neoliberalismo.

¿Por qué vamos hacia un futuro posthumano?

  • Son las propuestas más optimistas sobre el futuro
  • Se insertan perfectamente en el sistema predominante (el neoliberal)
  • No exige de un esfuerzo personal (todo viene de afuera)
  • Ofrece el paraíso en la tierra

En fin, el tecnologismo nos promete el cielo en la tierra

  • No tengo que esperar nada de Dios, las tecnologías me lo ofrecen todo
  • No tengo que estudiar (ej., un idioma, basta implantarnos un chip con ese idioma.
  • No tengo que hacer ejercicios ya que por medio de la genética puedo lograr el cuerpo que desee.
  • Alcanzar patrones de belleza, cambiar el color de los ojos, el de la piel, etc.
  • Puedo llevar una vida disipada, como estar siempre borracho, luego solo tengo que tener un hígado nuevo producido genéticamente que sea resistente al alcohol.

El que todo esto sea realizable o no, es otro tema de discusión, pero sin dudas sus propuestas son prácticamente irresistibles.

Es importante saber, desde hoy, qué posición asumiremos ante las tecnologías

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super-inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad, tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking, ElonMusk y Bill Gate.

Siempre he dicho que me inclino por una   inteligencia artificial colaborativa, que su fin sea la ampliación y de la sabiduría humana y que se oriente hacia la construcción entre humanos (sin excepciones) y máquinas, de una estructura social colaborativa, donde los actores sociales sean la sociedad civil liderada por la comunidad de software libre, en alianza con organizaciones no gubernamentales y centros de investigación no comprometidos con las elites de poder.

 Imagen: Libertaliadehatali 

 

 

5 comentarios en “Las ideas de una super-inteligencia artificial

  1. Alejandro, estoy de acuerdo contigo en todo. hay varios puntos que me preocupan, generalmente cuando se habla de Inteligencia Artificial ser refiere a copiar la inteligencia Intelectual cuando realmente el ser humano posee unas cuantas inteligencias mas, si bien en el libro «la Singularidad Tecnológica» de Murray Shanahan ya va teniendo en cuenta que es preciso tenerlas en cuenta, tengo la sensación que en general todavía no se esta teniendo en cuenta esto y el problema de una I.A. puramente intelectual, puede ser una psicópata en potencia.
    Otro punto que me preocupa, porque es real por parte de una inmensa mayoría es en la parte:
    ¿Por qué vamos hacia un futuro posthumano? y mas precisamente con eso de : No exige de un esfuerzo personal (todo viene de afuera) y todos los puntos que añades.
    Quizas la super IA no precise acabar de forma activa con nosotros como nos hace ver la pelicula «Terminator» quizás nosotros mismos nos vayamos al carajo como toda sociedad que ha llegado al culmen y no ha sabido gestionarlo, un ejemplo claro, es la decadencia del Imperio romano y su posterior desaparición, esto me trae a la mente la escena de la película de Pixar-Disney «Wall-e» donde se ven a seres humanos obesos sin apenas capacidad de movimiento y de critica. Llegaría un momento en que poco a poco empezaríamos a desaparecer sin cuestionarnos el motivo y si tratáramos de oponernos a ello, quizás fuese ya demasiado tarde. Y todo esto, poniéndome en el peor de los casos.

    Me gusta

  2. Matias, con respecto a la singularidad, se ve mas lejana que una inteligencia artificial avanzada (esta podria ser consciente o no) en cambio la inteligencia de una singularidad tecnologica, se considera consciente. El plazo va desde 25 años, los mas optimistas, los que asumen que no sucedera antes de 50 años y los que no creen que surja antes de 100 años. Pero si te remontas al matematico y escritor de ciencia ficcion: Vernor Vinge, existen cuatro tipos de singularidades tecnologica y como la singularidad esta relacionada con el surgimiento de una superinteligencia que supera a los humanos, yo las nombre: Superinteligencia artificial (cuando las maquinas superan a los humanos), superinteligencia hibrida (cuando las maquinas y los humanos se fusionan, el Cyborg), Superinteligencia colecitva (la que surge de la colaboracion entre humanos y maquinas) y Superinteligencia biologica (la que surje producto de la ingenieria genetica). Ahora la pregunta es, cual de ellas surgira primero, si competiran entre ellas. Personalmente defiendo una superinteligencia colectiva.

    Me gusta

Deja un comentario