Podemos escoger nuestro futuro. Problema tecnocientífico

Francis-Ks

Francis Heylighen, lider del proyecto Principia Cybernetica

Problema tecno-científico

Siguiendo con el tema anterior sobre los problemas que tenemos que enfrentar, en artículos anteriores se habían mencionado los problemas biomédico, psicoreligioso, socioeconómico y ecosostenible. Ahora veremos el tecnocientífico.

Comencemos por la preocupación del bioeticista Van R Potter, dado el crecimiento acelerado de las tecnologías (hoy se habla de una explosión de inteligencia) a lo que advierte sobre el aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento.

Asumiendo la agrupación utilizada en el libro “Inteligencia artificial, el futuro del hombre”, tenemos lo siguiente:
1.-Biouditas (inteligencia natural): Los riesgos son tan enormes y desconocidos y las instituciones reguladoras no son confiables, por lo que la mejora debería ser prohibida (renuncia)
2.-Bioconservadores (inteligencia socio-cultural): Las tecnologías deben ser controladas y en caso de duda deben ser prohibidas (precaución).
3.-Bioprogresista (superinteligencia colectiva): Se pretende que las tecnologías sean asequibles a todos pero, antes, hay que erradicar la pobreza. Se necesitan cambios sociales e individuales que modifican nuestra mentalidad actual. Se pueden alcanzar logros alternativos sin contaminación o degradar al planeta y a la propia naturaleza humana. Es necesario saber manejarse con la tecnología y crear una superestructura tecnológica sostenible que se integre armónicamente al contexto humano y no lo invada de forma negligente con fines hegemónicos o de riquezas.
4.-Posthumanistas (superinteligencia artificial): El progreso tecnológico es la única solución (imperativo tecnológico) y debe ser acelerado. Advenimiento de una singularidad tecnológica.
5.-Transhumanistas (superinteligencia hibrida): La tecnología es incontrolable, cualquier intervención del gobierno siempre trae consecuencias imprevistas. Los riesgos son manejables sin el gobierno (resignación).
6.-Tecnoprogresita (superinteligencia biológica): Los riesgos son manejables con la ayuda de la supervisión democrática y la gestión (regulación)

Resumen
Transhumanistas: El progreso tecnológico es la única solución viable por lo que es imprescindible, desarrollar, acelerar y aplicar todo el potencial tecnológico cuanto antes y pasar a una superestructura tecnológica.
Bioconservadores: Los riesgos son enormes y desconocidos. Se debe controlar el desarrollo tecnológico teniendo en cuenta su impacto sobre la sociedad y las consecuencias que tendrá sobre el individuo. Conservar la estructura tecnológica.

Singularidad tecnológica

Últimamente cuando se habla de singularidad tecnológica solo se piensa en la superinteligencia artificial, cuando Vinge desde ese entonces ya mencionaba el surgimiento de cuatro superinteligencias. Ver Caminos hacia la singularidad

1. Superinteligencia artificial (la singularidad).
2. Superinteligencia hibrida (transhumanismo).
3. Superinteligencia biológica (mejoramiento genético).
4. Superinteligencia colectiva (cerebro global).
Ahora vamos a hacer hincapié en la mas mencionada, la superinteligencia artificial y la casi olvidada superinteligencia colectiva.

Superinteligencia artificial

Paradigma de la singularidad (las tecnologías son la solución en si misma)
1. Inteligencia artificial (IA) como heredera (nuestros hijos mentales). Las máquinas como herederas del planeta. Estamos hablando de maquinas superinteligentes sin los humanos (Moravec)
2. IA que nos reconstruye (crea un nuevo mundo y un nuevo ser humano). Reconstrucción de los humanos para que vivan en un entorno artificial. Serían máquinas superinteligentes que incluyen a los humanos como mentes digitales (Kurzweil)
3. Recargar la mente. Puede incluir la idea de una IA amistosa. Se basa en la idea de recargar la mente en un soporte tecnológico.
Como se ve en el punto uno no existe ningún riesgos, las máquinas, sencillamente, sustituirán a los humanos y según Moravec, es lo mejor que nos puede pasar

En el punto dos tenemos que esperar las tecnologías se aceleren y surja una singularidad tecnológica que nos lleve al surgimiento de superinteligencias artificiales que de alguna forma reconstruirán la vida, al planeta y a los seres humanos.

El tres se depositan las esperanzas en lograr encontrar la forma de reproducir la mente en un medio tecnológico. Partiendo de la metáfora del computador que asume que tanto el cerebro como los sistemas de computación son equivalentes ya que ambos procesan información y es posible decodificar la mente (que no es otra cosa que algoritmos complejos) y luego codificarla en forma de programas. Y van más lejos cuando dicen que la conciencia no es solo propiedad del ser humano y que puede ser reproducida en una máquina (conciencia trivial)

Para los posthumanistas el surgimiento de una singularidad tecnológica es inevitable, lo otro sería negar el progreso y el futuro de la humanidad.

Hoy se ha puesto de moda el concepto de desarrollar una IA que no sea peligrosa para los humanos, sobre todo teniendo en cuenta que será más inteligente, y se habla de una IA amistosa o beneficiosa o robusta, etc. Por lo que casi todas las instituciones dedicadas a la inteligencia artificial relacionadas con el futuro asumen como tema de investigación el peligro de la creación de una superinteligencia artificial, y van desde los riegos existenciales, máquinas inteligentes, singularidad tecnológica, el futuro de la humanidad, etc. Y lo más significativo, todos de forma explícita o no, asumen el ideal de una futuro posthumano.

Superinteligencia colectiva

Vinge, hace hincapié en como las redes de computadoras están surgiendo ante los ojos de los desarrolladores sin que estos se percaten y destaca las redes de internet al considerarla como el mejor medio de comunicación entre humanos y humanos y maquinas, y considera que su poder actualmente están subestimados y que a medida que la conectividad, el ancho de banda, el tamaño de los archivos y la rapidez de las computadoras aumenta se percibe una biosfera como un procesador de datos condesado, pero a una velocidad un millón de veces superior y con millones de agentes humanamente inteligentes… Lo que algunos llaman cerebro global. Ver Cerebro global:  ¿Que es?

La idea del cerebro global, defendida por Francis Helyghen, consiste en que la sociedad puede ser vista como un superorganismo basado en la inteligencia colectiva de todos sus miembros. Por lo que su funcionamiento consistiría en lograr estructurar y organizar la información dentro de Internet y para ello este superorganismo tiene que ser capaz de generar, multiplicar y mantener las conexiones neuronales correspondientes.

Instituciones que trabajan en la creación de una inteligencia colectiva.
Proyecto Principia Cybernetica
Instituto del cerebro global
Centro para la Inteligencia colectiva (MIT)

En resumen
Tanto la superinteligencia artificial como colectiva se proponen el desarrollo acelerado de la IA.

En el caso de la superinteligencia artificial se propone construir una máquina superinteligente autónoma capaz de desarrollar su propio pensamiento sobre el mundo y tendrá su propia visión y su propia ideología.

En cambio la superinteligencia colectiva tendrá una visión compartida del mundo (consciencia colectiva); hoy entre humanos, mañana entre todos (humanos y máquinas).

Pienso que las máquinas de ser construidas bajo la ideologías tecnologista actual (Kurzweil, Moravec, etc) tendrá una visión elitista del mundo y se verán a sí misma como una especie superior.

Superinteligencia artificial
• IA fuerte (IA general). IA más inteligente que los humanos. Tendrá su visión tecnologista del mundo (conciencia privada). Será una IA propietaria en manos de las transnacionales (su know).

Superinteligencia colectiva
• IA débil (IA distribuida). IA que va creciendo y desarrollándose junto a los humanos y ambos se hacen más inteligentes y sabios. Tendrá una visión compartida con los humanos (conciencia colectiva).

La pregunta es: ¿a quién le conviene una IA privativa que sea más inteligente que los humanos o a quién le conviene una IA libre que apoye y, a su vez, se apoye en los humanos y vaya ampliando la inteligencia y la sabiduría humana.

Imagen en Principia Cybernetica

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Desafíos éticos y etiquetada , , , , , . Guarda el enlace permanente.

2 respuestas a Podemos escoger nuestro futuro. Problema tecnocientífico

  1. Me parece que como reflexión de hacia donde vamos es interesante y considero no muy lejana. Sin embargo, si pienso en la generalidad del ser humano no estoy muy segura que tengan el bagaje como para poder entender y responder las preguntas con las que se cierra el post, y yo estoy en esa gran mayoría que lo único que podría decir es ¡whats! ¿de qué se trata esta complejidad?

    Me gusta

    • Tienes razón Maria los cuestionamientos al final son bastante categoricos, y aunque no es mi estilo, aqui esta hecho para llamar la antención sobre el tema ante el menosprecio de los tecnofuturistas por los aspectos sociales y de una parte a la idea de que las tecnologias van a darle solucion a todos los problemas y de la otra parte, la creencia, casi convertida en una moda, que la inteligencia artificial, por si misma, puede convertirse en el mayor peligro para la humanidad.

      Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s