¿Hacia donde vamos? Problema psicoreligioso

Dilema: Falta de educación secular para desarrollar un sentido de responsabilidad individual e integridad moral.

cerebrodigital

Partiendo de la comparación entre las posiciones bioconservadoras y transhumanistas desarrolladas por James Hughes y combinándola con las ideas del biotecista Van R. Potter hemos agrupado las posiciones teniendo en cuenta los problemas que estamos enfrentando. Ya vimos el problema biomédico y el enfrentamiento entre bioconsevadores y transhumanistas, ahora tocaremos los problemas psico-religiosos y socioeconómicos y las posiciones que se están produciendo (Podemos escoger nuestro futuro. Enfrentamientos religiosos y sociales)

Problema psico-religioso.

Todas las religiones buscan la perfección espiritual como una acción secundaria, cuando la primera debe ser la perfección espiritual del SER humano, la manifestación plena del ser, en parte, las religiones tienen culpa de que sea si, ya que priorizan el culto a una divinidad sobre la propia perfección del ser humano. Lo cual no niega que solo los procesos religiosos puede cambiar el interior del ser ninguna otra ideología penetra tan profundamente la conciencia humana.

Y es que la conciencia social es una conciencia externa que se comparte pero no es remanente. Es una conciencia que funciona como una memoria de trabajo a corto plazo. Los sistemas sociales autoritarios lo saben de ahí que su intento desesperado por sustituir a la religión y en muchos casos hasta es perseguida. Por eso recurren a la propaganda constantes de mensajes sugestivos, para tener a las masas bajo cierta hipnosis colectiva y no puedan pensar por si misma.

Las ideologías socieconómicas solo producen cambios superficiales, es como un traje que uno se pone, en cambio las religiones son las que producen cambios profundos capaces de cambiar la mentalidad humana. Por eso creo que además de una educación secular se necesita de una creencia en las posibilidades del ser humano de trascenderse a si mismo. Podemos no estar de acuerdo con los mitos y leyendas religiosas que hay detrás de cada religión, pero eso no quita que nuestra mentalidad este conformada por diferentes estados mentales que van desde las creencias en hechos mundanos hasta los ideales mas sublimes. La experiencia religiosa o la necesidad de creer  “en algo” forma parte de nuestra historia, nuestra cultura y nuestra propia espiritualidad.

Nos acercamos a la era de las tecnologías y hoy mas que nunca hay que preguntarse donde queda el ideal de la espiritualidad del ser humano y que entendemos por trascendencia. Pienso que el papel de la religión tiene y debe ser crucial en los nuevos cambios que se avecinan. Pero tiene que abrirse a los cambios y las otras religiones, pero sobre todo tiene que guiar al ser humano hacia su propia perfección espiritual independientemente del Dios que se adore.

Hay Empezar por cambiar nuestra propia mentalidad y alcanzar la manifestación plena del ser por medio del desarrollo de nuestra propia fuerza interior (Retomar el progreso humano)

El problema psicoreligioso nos lleva al enfrentamiento entre los que afirman que el ser humano ya se agotó y no tiene otra opción que trascenderse a si mismo por medio de las tecnologías o los que siguen creyendo que la trascendencia no puede ser reducida a los limites puramente biológicos (el ser humano como biomáquina). Por lo que estamos ante dos posiciones: la trascendencias bio-sico-social y la trascendencia tecnológica.

Enfrentamiento ante el problema psico-religioso

Potter asume que estamos ante el dilema de la falta de la educación secular para desarrollar un sentido de responsabilidad individual e integridad moral.

Trascendencia bio-sico-social vs Transcendencia tecnológica

1) Trascendencia religiosa  —————————————-  Trascendencia digital

2)            Trascendencia social  ———————————  Trascendencia ciborg

3)                   Trascendencia espiritual  —— Trascendencia biotecnlógica

1.-Trascendencia religiosa: La humanidad debe ser restringida por los tabúes divinos o ecológicos. El mejoramiento humano solo es posible dentro de la religión. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (conciencia metafísica)

2.-Trascendencia social: El ser humano posee una condición (esencia humana) que es única e irrepetible. El humano como ser netamente social. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (conciencia físico/irreproducible).

3.-Trascendencia espiritual: No existen límites biológicos,  pero si, consecuencias espirituales, sociales y ecológicas. Los derechos desde la ética de la amplitud, la participación de todos sin exclusión; y la ética de la profundidad, no excluir a las próximas generaciones, para que esta pueda en su momento decidir.  Alcanzar el perfeccionamiento espiritual por medio del desarrollo de la fuerza interior (filosofía oriental), como ser integral en su dimensión tecno-bio-psico-social (conciencia amplificable)

4.-Trascendencia digital: No existe nada más allá del cuerpo y solo es posible mejorar al individuo por medio de las tecnologías. La tecnología se convierte en una nueva creencia. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá conciencia de manera más o menos automática (conciencia trivial).

5.-Trascendencia ciborg: No existen límites religiosos ni naturales que prohíban el uso de las tecnologías para superar las limitaciones biológicas. Los seres humanos son libres de determinar su propio futuro. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (conciencia físico/reproducible).

6.-Trascendencia biotecnológica: No hay límites evidentes, naturales o divinos que impidan el uso de las tecnologías de mejoramiento humano. Los seres humanos son libres de determinar su propio futuro, guiados por la razón prudente (conciencia físico-modificable)

Más que si el cerebro es físicamente reproducible o no. El problema radica si la podemos mentalmente valernos de nosotros mismos, de nuestras fuerzas, de nuestras facultades, de nuestra sabiduría. Y si podemos seguir desarrollando nuestras potencialidades y trascender nuestras limitaciones actuales.

En la trascendencia digital de Kurzweil, ¿Dónde queda el cerebro? ¿En la nube, conformado físicamente por una red de computadoras? Si antes el cerebro era la computadora  (hard) hoy es la red de computadoras (internet). Y aquí es cuando surge una interrogante, que ha perdurado hasta nuestros días: ¿si se reproduce la mente humana en una máquina, esta será consciente? (La copia del cerebro).

Resumen

Transhumanistas: No existe nada más allá del cuerpo y solo es posible perfeccionar al individuo por medio de las tecnologías ya sea porque la mente son algoritmos complejos y pueden ser programados en una computadora (conciencia trivial)  o  porque el ser humano funciona como una biomáquina y se puede reproducir por medios cibernéticos (conciencia reproducible).

Bioconservadores: El ser humano es intocable debido a su condición espiritual (conciencia mística) o biológica (conciencia irreproducible).

 

Imagen: Cerebrounbvirtual

 

Publicado en Desafíos éticos | Etiquetado , , , , , | Deja un comentario

¿Hacia dónde vamos? Problema biomédico

Dilema: ¿cuándo no aplicar toda la tecnología disponible en el ser humano?

Problema biomedico

La discusión sobre el postulado tecnológico nos lleva a uno de los problemas centrales de la bioética moderna, que radica en las consecuencias de la aplicación de la tecnología sobre el ser humano. Y nos obliga a retomar la pregunta formulada por el fundador de la bioética Van R. Potter: ¿Cuándo no aplicar toda la tecnología disponible? (Podemos escoger nuestro futuro. Bioconservadores vs Transhumanistas)

Progreso humano

Ya Potter, había hecho una definición sobre el concepto de progreso humano. Lo que nos lleva a que tenemos que repensar el concepto de progreso humano y lo que entendemos por progreso humano, a la luz de la contaminación ambiental y del acelerado progreso tecnológico. Un error muy frecuente actualmente, a veces inconsciente o porque no se pensado lo suficiente sobre el tema, es creer que l progreso humano va en una dirección y el progreso tecnológico va en otra, debido a que se ven como dos procesos diferentes. Los humanistas puros defienden un progreso humano al margen de las tecnologías, en el mejor de los casos estas siguen subordinadas a los deseos humanos y se niega el surgimiento de toda inteligencia no humana (Entre el progreso humano y el progreso tecnologico)

El uso de las tecnologías para el mejoramiento humano, nos a dos posiciones encontradas:  conservar la naturaleza humana o transformar la naturaleza humana.

–       Preservar los atributos individuales que definen al ser humano y respetar la vida teniendo en cuenta las consecuencias globales. No se deben aplicar las tecnologías de mejora, ya que perderemos nuestra condición humana(posición bioconservadora)

–       Potenciar los atributos individuales por medio de las tecnologías y manipular la vida con el fin de mejorarla.  Cada cual es libre de aplicar las tecnologías de mejoras sobre si (posición transhumanista).

Antes de seguir, veamos la definicion de transhumanismo.

“Movimiento cultural, intelectual y científico, de corte futurista que propone aplicar las nuevas tecnologías al hombre, de manera que se puedan eliminar los aspectos no deseados y no necesarios de la condición humana como el sufrimiento, la enfermedad, el envejecimiento e incluso, el ser inmortales”.

Los transhumanistas proponen eliminar el sufrimientos, las enfermedades y el envejecimiento, con lo cual todos estamos de acuerdo. Entonces… ¿Que nos detiene? La ética y los presupuestos antropologicos que se derivan, y es que son muchos los dilemas y cuestionamientos que llevan a desconfiar del transhumanismo (El desafío humano ante el transhumanismo)

Bioconservadores vs Transhumanistas

1) Bioludismo ———————————————————- Posthumanismo

2)           Bioconsevadurismo —————————- Transhumanismo

3)                   Bioprogresismo —————— Tecnoprogresimo

Estas son las diferentes posiciones que se asumen ante el debate entre biocnservadores y transhumanistas. Para este esquema partimos de las ideas de James Hughes, parte de cuatro posiciones: de una parte transhumanistas y tecnoprogresista, y de la otra bioluditas y bioconservadores. Observen que el esquema muestra un acercamiento entre las diferentes posiciones siendo la mas irreconsilibare los bioluditas y los posthumanistas, mientras los bioprogresista y tecnoprogresista tienen un acercamiento.

La discusión se centra en la libertad individual de escoger nuestro destino, mienstras de la otra parte se plantean los problemas eticos y sociales que traerá para la humanidad en general (Transhumanismo y el fin de la humanidad).

Veamos las diferentes posiciones

Bioludismo: Prohibir la aplicación de las tecnologías en el ser humano. El ser humano es intocable debido a su condición espiritual (condición religiosa).

Bioconservadurismo: No siempre se puede aplicar todo el potencial en el ser humano, debido a los riesgos y a las implicaciones sociales (condición social).

Bioprogresismo: Se somete a la decisión individual no solo al mejoramiento biológico, por las tecnologías, o al desarrollo social, de unos pocos; sino, también, al crecimiento espiritual y a la evolución humana.

Posthumanismo: La aplicación de la tecnología siempre es buena. Se debe aplicar todo el potencial de las tecnologías sobre el ser humano en aras del progreso.

Transhumanismo: El individuo es libre de elegir su propio futuro y nada puede impedir que se transforme por medio de las tecnologías. La libertad individual está por encima de la condición social.

Tecnoprogresismo: El humano es un ser con limitaciones, propenso al sufrimiento y por medio de las tecnologías puede y debe mejorar su condición evitando los riesgos.

Observaciones:

Bioludismo: parte de las ideas del movimiento anticiencia (ludismo)

Bioconservadurismo: se busca salvaguardar la vida y preservar la condición humana

Bioprogresismo: se fundamenta en las ideas de Potter y sobre todo en la concepción de una bioetica profunda que busca alcanzar un progreso humano verdaderamente digno en la era de las tecnologías.

Posthumanismo: parte de la idea de que se alcanza una singularidad tecnologica.

Transhumanismo: la aplicacion de las tecnologias para el mejoramiento de las facultades humanas.

Tecnoprogresismo: tambien llamado transhumanismo democraticco ya que tiene en cuenta los riesgos no solo tecnologicos sino tambien sociales y ecologicos.

Me gustaria ir conociendo la opinion sobre este y los siguientes articulos en que ire tocando el tema. En el grupo Effective Altruism Futuro Sostenible ha abierto una encuesta sobre las posiciones entre bioconservadores y transhumanistas.

Libro recomendado: Inteligencia artificial, el futuro del hombre

Imagen: Mediatelecon

Publicado en Desafíos éticos | Etiquetado , , , , , , , | Deja un comentario

¿Hacia dónde vamos? (1)

2-640x350

Seguimos esperando que las soluciones nos lleguen de fuerzas externas, de Dios, del mercado, del estado y ahora de las tecnologías. Las antiguas preguntas de ¿Quiénes somos? Y ¿A dónde vamos? Han perdido su significado y son sustituidas por ¿En qué queremos convertirnos? ¿En cuánto podremos aumentar nuestras potencialidades? Y es que la pregunta a donde voy ya parece resuelta: ¡Vamos a la poshumanidad! Y es que gracias a las tecnologías nos convertiremos en superhumanos, y ¿Por qué no? En dioses. Atrás queda el dolor, los desasosiegos, la tristeza humana pero, también, el amor a la humanidad, a nuestra propia humanidad y la esperanza de ser cada día mejores seres humanos.

En el futuro nuestra realización dependerá de tener cada vez más dispositivos cibernéticos que sustituirán nuestras propias facultades. ¿Qué estaremos perdiendo por cada dispositivo que se implante en nuestro cuerpo? ¿Esteremos echando por tierra nuestra evolución humana conformada durante siglos? ¿Al final no estaremos ante un aborto prematuro de la especie humana. Porque en realidad, nos rendiremos ante el poder de las tecnologías y nos abandonaremos a una evolución artificial.

Siempre he pensado que vamos a ciegas al futuro arrastrados por una economía de mercado que está arrasando con el planeta y con todas las formas de vida. Pero luego de mucho pensar sobre el tema, he cambiado de opinión, y es que el futuro ya está decidido, vamos a un futuro poshumano debido a que la ideología imperante: el neoliberalismo está siendo sustituido por el tecnoliberalismo donde la tecnología va sustituyendo los recursos naturales por recursos artificiales y ya no importa que el planeta se agote si por medio de las tecnologías podemos reconstruirlo.

Hoy una nueva mentalidad se está imponiendo: la mentalidad tecnologista que viene a sustituir a la religión y que nos da una visión optimista del futuro, ya que gracias a las tecnologías se resolverán todos los problemas que hemos estado arrastrando durante siglos. Por otra parte, a esta mentalidad tecnologista, se opone una mentalidad ecologista que propone la conservación del planeta y de la vida.

Mientras la mentalidad tecnologista es de corte optimista, la mentalidad ecologista es, más bien  pesimista y tiene como fundamento salvaguardar la vida y el planeta, por lo que busca la sostenibilidad del planeta y alerta sobre el deterioro del planeta y las consecuencias que tendrá para la humanidad de seguir por el camino que vamos.

Solo para que tengan una idea vamos una breve comparación entere la mentalidad tecnologista (optimista) y la mentalidad ecologista (pesimista)

 Tecnologista – Ecologista

  • No tendremos que trabajar. Las tecnologías lo harán todo – Nos quedaremos sin trabajo. Las tecnologías nos sustituirán
  • Por medio de las tecnologías construiremos un planeta nuevo (totalmente artificial) en el que viviremos para siempre  –  Destruiremos al planeta y con el a la humanidad –
  • Ampliaremos nuestras facultades mas allá de nuestras limitaciones biológicas (seremos inmortales) – Perderemos nuestra condición humana y nos convertiremos en objetos de la tecnología

El problema radica en que para los ecologista la causa principal es la destrucción del planeta para los tecnologistas el deterioro del planeta no es un problema ya que este puede ser reconstruido por medio de las tecnologías. En realidad la verdadera causa que desencadena todo lo demás, es el tipo de mentalidad y es la que define el orden y la importancia de las acciones humanas. Es esa mentalidad (actualmente la mentalidad neoliberal) la que nos lleva al estilo de vida consumista y a ver al planeta como una fuente de recursos que debe ser dominado y explotado. Esta forma de vida nos está llevando a un punto crítico donde debemos decidir qué soluciones debemos temor con respecto al planeta, a la sociedad y nosotros mismos.

De seguir como hasta ahora (capitalismo depredador) no pararemos hasta la destrucción del planeta. A no ser que se tomen alguna acciones

Acciones posibles

  • Seguir La aceleración de las tecnologías (singularidad tecnológica) como solución a los problemas (sustitución de lo natural por lo artificial)
  • Transformaciones socioeconómicas que lleven a la protección de la vida y al control de las tecnologías

 Estas acciones no son de todo y nada entre una y otra existe diferentes matices. De las que hablaremos el próximo articulo. Aquí les va un delante de las posiciones que se irán conformando

Tecnologismo como solución

  • Tecnologismo puro (tecnoutopía)
  • Tecnologismo económico (solución tecnologista por excelencia)
  • Tecnologismo democrático (solución de integración entre ecologismo y tecnologismo dentro del esquema neoliberal)

Transformacion de la sociedad como solucion

  • Ecologismo puro (retorno a la naturaleza)
  • Ecologimos social (desarrollo sostenible)
  • Ecologismo transdisciplinar (solución de integración entre ecologismo y tecnologismo pero transformando el esquema neoliberal)

 

Libro recomendado: El gran desafío de la humanidad den la era de las tecnologías

Imagen: caraotadigital.net

 

 

 

 

Publicado en Desafíos éticos | Etiquetado , , , , , | Deja un comentario

Los riesgos potenciales de la inteligencia artificial (2)

Dilemas humanistas

En el artículo anterior habíamos dicho que es una ambigüedad querer construir una inteligencia artificial (IA) amistosa en una sociedad basada en el poder hegemónico. Soy de la opinión que la idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología de un tecno-liberalismo o lo que es lo mismo vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

 

Paradigma transhumanista (las tecnologías son la solución para los humanos)
• Trascender los límites biológicos
• Desarrollar las capacidades humanas hasta límites insospechados (superhumanos)
• IA como producto capaz de mejorar la inteligencia humana
• El mejoramiento individual lleva al mejoramiento social
• En muchos casos se tiene en cuenta al mercado como regulador de las tecnologías.
• Se advierten los riesgos del surgimiento de una super IA que asuma el control de la sociedad.
En realidad para el transhumanismo IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses.

Por otra parte la idea de una IA amistosa, robusta y alineada con los intereses humanos nos plantea muchas interrogantes y es que el camino hacia una superinteligencia humana está plagado de riesgos, los cuales pueden ser, incluso, exacerbados con el surgimiento de la IA

Hoy estamos ante la disyuntiva de:
a) Construir una superinteligencia artificial amistosa para que después se ocupe de nuestros problemas. La pregunta es: ¿Seguiremos siendo humanos?
b) Construir una superinteligencia colectiva donde colaboren humanos y tecnologías. Se produzca una sinergia mutual entre humanos y tecnologías donde ambos se favorecen.
Cuando en realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.
Los riesgos de la super IA como parte del problema tecno-cientifico
• El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
• La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
• El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
• No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Como ya he dicho el peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA. Y es que al final, la IA servirá para la competencia por los mercados, para ganar guerras, para controlar a los ciudadanos… Y siempre será en nombre del progreso, del bienestar, de la democracia, etc.

Hoy se quiere evitar el surgimiento de una super IA que funcione como un cerebro global propietario que asuma el papel de una divinidad que sabe lo que nosotros queremos y que siempre tiene la razón, a lo que algunos proponen ir construyendo una IA estrecha para luego construir una IA general, y no se habla de ir construyendo una IA distribuida como parte de un sistema global colaborativo que incluya a los humanos y a las máquinas.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

Como podemos enfrentar los riesgos de una IA
1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es el progreso humano.

La falta de sabiduría humana para manejarnos con las nuevas tecnologías

Que significa la falta de sabiduría, sus consecuencias
• Aumento de la desigualdad
• Buscar ganancias a toda costa
• Usar todas las tecnologías en el ser humano
• Fallas en la educación moral
Como este es un tema recurrente en mis artículos hare referencias a las ideas principales
En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una ideología que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial. Ver Cómo relacionarnos con las super inteligencias artificiales (2)
En el articulo “Los riesgos existenciales de una singularidad tecnológica (3)” Decia que mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, y lo que sucede, en realidad, es que estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Estamos en un momento de transición de la era actual socio-cultural hacia una era tecnológica y todo indica que vamos a ciegas un futuro al que nos está arrastrando nuestra mentalidad egocentrista se necesitan cambios y buscar acciones que nos permitan elegir nuestro futuro.
Ya he hablado sobre los dilemas propuestos por el bioeticista Van R Potter, con el cual siempre estaré en deuda. A continuación un enfoque de los problemas, los desafíos, los dilemas de Potter y las acciones
Problema biomédico:
Desafío: Aprender a manejarse con los nuevos conocimientos dado el acelerado crecimiento de las tecnologías emergentes (superinteligencias) y lograr una relación entre humanos y tecnologías que permita ampliar la inteligencia y la sabiduría humana.
Dilema: Cuando no aplicar toda la tecnología disponible en el ser humano
Accion: Proponer un altruismo eficaz capaz de evitar los riesgos existenciales creados por el hombre tales como el de una inteligencia artificial que ponga en peligro a la especie humana o el surgimiento de superhumanos que aumenten las desigualdades y las injusticias sociales

Problema ecosostenible:
Desafío: Asumir una actitud proactiva para lograr una sinergia entre humanos y tecnologías que favorezca una evolución trascendente (ectosimbiosis mutual) donde los humanos no pierdan su propia condición humana y donde la vida siga progresando hacia un futuro sostenible
Dilema: Crecimiento económico sin afectar la superviviencia humana.
Acción: Identificar y estudiar los problemas ante el impacto de las tecnologías emergentes que nos permita tomar el control de nuestra propia evolución hacia una sinergia humanos-tecnologías que sean beneficiosas para ambos y para no ir a ciegas al futuro.

Problema socioeconómico:
Desafío: Cambiar la actual estructura social competitiva y trabajar en una estructura social colaborativa basada en relaciones profundas que busca el bien de todos.
Dilema: El aumento de la desigualdad y la falta de justicia social.
Accion: Trabajar en la creación de herramientas y formas de trabajo cooperativas para la construcción de una estructura social colaborativa que nos lleve hacia una inteligencia colectiva que permita aumentar la inteligencia y la sabiduría humana.

Problema psicoreligioso:
Desafío: Empezar por cambiar nuestra propia mentalidad y alcanzar la manifestación plena del ser por medio del desarrollo de nuestra propia fuerza interior.
Dilema: Falla de la educación secular para desarrollar la responsabilidad y la integridad moral.
Acción: Buscar soluciones éticas como alternativas a las ideologías que representan un progreso tecnológico acelerado sin tener en cuenta un progreso verdaderamente humano así como trazar una ideología que nos permita seguir progresando como humanos plenos, en la era de las tecnologías, hacia un futuro sostenible desde un cambio de mentalidad que garantice la supervivencia de la vida en el planeta.

Problema tecnocientífico:
Desafío: Formación de las nuevas generaciones en los valores humanos para que sepan tomar las decisiones correctas en la era de las tecnologías y formen a su vez generaciones mejores.
Dilema: Aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento.
Acción: Crear un centro de adiestramiento, en especial, de las nuevas generaciones para que sean capaces de manejarse con las nuevas tecnologías que están emergiendo y para que puedan tomar las decisiones correctas hacia un progreso humano verdaderamente digno.

Tengo fe en que el miedo a construir una IA que nos pueda superar y desplazar como especie dominante puede ser el detonante para reflexionar sobre nosotros como seres humanos, en nuestra propia esencia y obligarnos a cambiar nuestra actitud sobre nosotros mismos.

Publicado en Riesgos existenciales | Etiquetado , , , | Deja un comentario

Riesgos potenciales de la Inteligencia artificial (1)

Top 10 Interesting ‘brainy’ facts about Artificial Intelligence  The Future trends in A.I 1Abstract
Nowadays, Artificial Intelligence (AI) has become a fashionable topic since it should be robust, friendly and aligned with human interests. This article analyzes the current difficulties and how the implementation of IA would exacerbate many of the present problems. The possibility of building an AI aligned with human interests is in question, since human interests are not aligned with each other and casts doubt on the effectiveness of current investments for the construction of a robust AI, as a way to lose money, while the real problems are ignored. Different scenarios and their consequences are analyzed, as well as the need to learn to deal with new emerging technologies.

Resumen
Hoy en día se ha convertido en una moda el tema de una Inteligencia Artificial (IA) robusta, amable y alineada con los intereses humanos. En el artículo se analizan las dificultades actuales y, como la aplicación de la IA exacerbará muchos de los problemas del presente. Se cuestiona la posibilidad de construir una IA alineada con los intereses humanos, ya que los intereses humanos no están alineados entre sí y se pone en duda la eficacia de las inversiones actuales para la construcción de una IA robusta, como una forma de perder dinero, mientras que los verdaderos problemas que enfrentamos son ignorados. Se analizan los diferentes escenarios que se producen y sus consecuencias, así como la necesidad de aprender a lidiar con las nuevas tecnologías que están surgiendo.

Se ha puesto de moda el tema de una inteligencia artificial (IA) robusta

Hoy en día se ha convertido en una moda la idea de construir una inteligencia artificial robusta, amable y alineada con los intereses humanos. El tema tiene muchas aristas, si pensamos en una IA que siempre será controlada por los humanos o si estamos hablando de una IA capaz de aprender por si misma y que podría igualar o superar a los humanos.
En el segundo caso estamos hablando de una IA que se construirá para que sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos
• Superinteligencia artificial creada con fines comerciales, su propósito es comercializar los sistemas.
• Superinteligencia artificial abierta creada de forma colaborativa con la participación, entre otros, de la comunidad de software libre
Por otra parte, se asume como solución evitar que la IA sea peligrosa. Una IA robusta alineada con los intereses humanos (intereses de un estado tiránico, de militares, de una transnacional monopolista). La pregunta es: ¿Los intereses de quien? La IA serviría para la competencia por los mercados, para ganar guerras, para controlar a los ciudadanos,… Y siempre será en aras del progreso, del bienestar, de la democracia, etc. Como lograr una IA alineada con los intereses humanos si los humanos no están alineados entre sí, sino piensen en los enfrentamientos actuales entre EEUU y Rusia, Israel y Palestina, Siria y el Estado Islámico, etc.

¿Cuáles son los intereses humanos?
• La destrucción (por negligencia) del planeta
• Las guerras por disimiles fines, pero guerras al fin
• La lucha por la hegemonía
• El control de los recursos del planeta
• Los conflictos territoriales
• Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.
Hoy las tecnologías se están convirtiendo en juguetes demasiado peligrosos en manos de los intereses humanos, dada la negligencia, el egoísmo y la ambición humana. ¿Qué sentido tiene construir una IA que nos supere? ¿Qué debemos hacer? El futuro de la humanidad depende de cómo enfrentemos estas preguntas.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales
• Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
• ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
• Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
• Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
• Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Un peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón.

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las maquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

Personalmente considero un derroche de dinero al querer construir una IA robusta. ¿Quién garantiza que las transnacionales no van a competir con la IA robusta y van a aceptar las restricciones que se propongan? Peor aún, es muy posible que la IA surja ante en las transnacionales que en las instituciones que estudian los riesgos de la IA. El peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA.

Pero hay más, el peligro no solo está en contar con un cerebro global privativo (propiedad de alguna transnacional) también surgirán diferentes versiones de humanos (mejorados por las tecnologías) y la competencia que surgirá por adquirir cada vez mas potenciales y ser superior a los demás. Lo extraño, es que hoy parece como si el único problema fuera el de la IA. Una IA que aun no se ha podido construir, en cambio ya se están desarrollando prótesis, implantes y dispositivos para mejorar las facultades humanas, y se está desarrollando la nube y toda la información está siendo procesada por Google con su buscador. Se están gestando tanto las versiones de humanos como un cerebro global (Google) que cada vez adquiere más control de nuestras vidas.

¿Se puede construir una IA alineada con los intereses humanos?

Como decía, queremos construir una IA alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?
• Lo hará mas rico y poderoso (IA como producto o servicio)
• Lo hará mas inteligente y sabio (IA como colaborador)
• Lo hará inmortal (IA como rediseñadora de los humanos)

La IA estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: mas riqueza, mas poder, mas control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Los intereses detrás de una IA robusta
1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo)
2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos (ser el macho alfa).
3. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser mas inteligentes y sabios
4. Construir una IA alineada con los intereses transhumanistas. Una IA que facilite la conversión a superhumanos. Una IA que se vaya fusionando con los humanos el Cyborg.
5. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos (alineada con los intereses del humano+)
6. Prohibir la IA
Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses.

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una ideología que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Imagen: Techmcsquare

 

Publicado en Riesgos existenciales | Etiquetado , , , , , , , | 2 comentarios

Los números de 2015

Los duendes de las estadísticas de WordPress.com prepararon un informe sobre el año 2015 de este blog.

Aquí hay un extracto:

La sala de conciertos de la Ópera de Sydney contiene 2.700 personas. Este blog ha sido visto cerca de 37.000 veces en 2015. Si fuera un concierto en el Sydney Opera House, se se necesitarían alrededor de 14 presentaciones con entradas agotadas para que todos lo vean.

Haz click para ver el reporte completo.

Publicado en General | Deja un comentario

Los riesgos existenciales de la inteligencia artificial. Escenarios

image013

El camino que tiene que recorrer la inteligencia artificial (IA) estará lleno de riesgos para la humanidad y no precisamente porque llegue a ser más inteligente que los humanos en todos los sentidos (ya desde hoy tendremos que asimilar una relación con una IA que nos superará en algunas cuestiones, lo que podría ser una bendición, o la perdición de los humanos.

Hoy se ha puesto de moda el peligro de una inteligencia suprahumana que no esté alineada con los intereses humanos y solo se habla de evitar los riesgos potenciales de una IA fuera de control (como la quiere Moravec) y se asume que la solución es construir una IA robusta. El objetivo es lograr que las máquinas superinteligentes no sean un peligro para la humanidad, con lo que todo el mundo está de acuerdo, la pregunta es ¿Qué pasará con los humanos?

  1. Serán reconstruidos (mente digital)
  2. Se irán fusionando (transhumano)
  3. Utilizarán las tecnologías solo para mejorarse.

Asumiendo el problema de una IA que nos supere, ignorando todos los problemas que surgirán por el camino y las consecuencias que tendrán. Tendremos los siguientes casos o escenarios futuros.

Caso 1: Las máquinas como herederas del planeta (los hijos mentales de Moravec). Los humanos son sustituidos por las máquinas como la nueva especie dominante. Hans Moravec lo ve como lo más natural del mundo Moravec y el fin de la especie humana y considera que debemos ir cuanto antes a la construcción de la super IA para que nos sustituya y se ocupe del planeta.

Coincido con Moravec, al construir una máquina superinteligente autónoma esta desarrollará su propio pensamiento sobre el mundo y tendrá su propia visión y su propia ideología. Hasta ahí estamos de acuerdo, ahora el que la máquina tenga una visón individualista y hegemónica del mundo dependerá de nosotros

Caso 2: Las máquinas que reconstruyen al planeta, la vida y a los humanos. La superinteligencia que es capaz de comprender las leyes del universo, saber qué es lo que les conviene a los humanos y asume cuales son sus intereses (estos intereses son los de Kurzweil planteados en la singularidad tecnológica y su proyecto de inmortalidad). Nos referimos al advenimiento de una singularidad tecnológica y de una superintleigencia artificial, donde los humanos pueden recargar sus mentes en un entorno artificial (la nube) y vivir para siempre. No queda claro si hay que esperar a que surja la superinteligencia artificial para que esta luego reconstruya a los humanos como mentes digitales o si los humanos tendrán alguna tipo de participación desde su limitada inteligencia. Se sume el imperativo tecnológico de que las tecnologías siempre son buenas y no hay nada que temer.

En ambos casos 1 y 2 se propone el desarrollo acelerado de la IA sin ninguna regulación. Y es que para los posthumanistas el surgimiento de una singularidad tecnológica es inevitable, lo otro sería negar el progreso y el futuro de la humanidad.

El riesgo consiste en el temor de no alcanzar un futuro posthumano ya sea porque la IA destruya al humano sin que llegue a posthumano o no de tiempo a que se desarrolle el transhumanismo, cuando en realidad las máquinas al ser construidas bajo la ideologías tecnologista actual  (Kurzweil, Moravec, Warwick, etc) tendrá una visión elitista del mundo y se verá a sí mismoa como una especie superior.

Actualmente ha surgido un temor más concreto o práctico y surge ante el peligro de una máquina superinteligente, que a lo mejor sin proponérselo, elimine a la especie humana. Ha surgido la idea de construir una IA “amistosa”, que no sea un peligro para la humanidad.

Caso 3: Construcción de una superinteligencia artificial que responda a los intereses humanos, nos referimos a la llamada IA amigable, robusta, alineada con los humanos. Al final estamos hablando de construir una IA por encargo. Los militares querrán una IA para matar humanos, las transnacionales querrán una IA para tener el control de los mercados, los gobiernos autoritarios una IA que le de el control absoluto de los ciudadanos, etc.  Hoy la idea de la IA alienada se ha convertido en una moda y se está invirtiendo millones en proyectos de este tipo, en mi opinión se está botando el dinero, es un verdadero desperdicio, ya que queremos construir una IA que responda a los intereses de todos y al final no responderá a los intereses de nadie, y estaremos construyendo una IA fuera de todo control y totalmente desalineada (no sabremos si está alineada o alienada).

El dilema son los propios intereses humanos, tan variables y complejos. Y es muy posibles que ante los dilemas y contradicciones humanas, y si la IA llega a ser más inteligente que los humanos, terminará tomando sus propias decisiones e ignorando a los humanos y creará sus propios intereses, y es muy probable que actúe con los humanos como ellos mismos actuaron con las otras especies y estaremos, entonces, o en el caso 1: la IA como heredera del planeta o en el caso 2: la IA decide reconstruir a los humanos a su imagen y semejanza.

Se prodrá, también, terminar construyendo una IA bajo control, que nunca supere a los humanos y que no pasará de ser una herramienta (nunca llegaría a tomar decisiones propias) por lo que, en este caso, terminará siendo la construcción de una IA que siempre responda a “los intereses humanos”, carente de toda autonomía y, por supuesto, los humanos siempre podrán apagarla, lo que nos lleva a una IA subordinada a los humanos que siempre estaría dando explicaciones de lo que hace y porque lo hace y cuando algo se salga de control la estaríamos reprogramando inmediatamente.

 La super IA puede limitar el progreso del transhumanismo al poder considerar que el superhumano  como un peligro, lo cual podría ser cierto, dada la mentalidad actual, un superhumano podría ser un peligro al no tener la sabiduría para controlar el poder que ha adquirido y por ello darle un mal uso.

Caso 4: Otro escenario es la fusión entre humanos y tecnologías (el ciborg). Este es el ideal del transhumanismo, ante el acelerado desarrollo de las tecnologías, la mejor opción es fusionarse con ella. Mientras en el caso anterior se hablaba de digitalizar la mente humana, algo así como extraer el alma humana y hacerla inmortal en un paraíso artificial. Para los transhumanistas la idea es irse fusionando con las máquinas desde ahora, el ciborg (parte biológica y parte cibernética) por medio de prótesis, implantes, mejoras genética, etc. Idea que Kurzweil no le gusta y afirma que esto nos convertiría en “otra cosa”. Esto es lo que yo llamo una superinteligencia hibrida. Tenemos otro caso relacionado con el transhumanismo, en el que no voy a detenerme, y es cuando la mejoras son solamente biológicas (ingeniería genética)  y estaríamos ante una superinteligencia biológica.

En el caso anterior (la inteligencia artificial) los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora en esta caso (el transhumanismo) van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, etc. Se sigue la línea de un humano mejorado por medio de las tecnologías.

 Caso 5: En artículos anteriores hemos dicho que el verdadero problema está en la simbiosis que se está produciendo entre humanos y máquinas Cómo relacionarnos con las super inteligencias artificiales (2) y no tanto, en que la máquina sea más inteligente que lo humanos. Nos referimos a cómo lograr una sinergia donde los humanos y las máquinas desarrollen lo mejor de sí (mutualismo). Y el cuestionamiento es: ¿En lugar de construir una IA más inteligentes que los humanos, porque no construir una IA que nos haga más inteligentes y sabios y dejar atrás la idea de ser el “creador” de una entidad superintleigente. Proponemos, en su lugar, ir construyendo de forma colaborativa una superinteligencia que favorezca no solo la inteligencia y la capacidad humana sino también la sensibilidad y la empatía humana, y donde ambos vayan (humanos y máquinas) aprendiendo juntos, donde no solo la máquina tiene que estar alineada a los “verdaderos” intereses humanos (en los que hay que trabajar) también los humanos tendrán que ir cambiando su mentalidad y alinearse a intereses donde deben primar la sabiduría, el altruismo, la empatía, la bondad. La que llamo superinteligencia colectiva siguiendo las ideas de Pierre Levy y de Francis Heylighen.

La pregunta es ¿Podemos dirigir la simbiosis? El mismo Nick Bostrom plantea que las tecnologías son juguetes muy peligrosos en manos de niños traviesos (los humanos). Hay que trabajar en ampliación de la inteligencia y la sabiduría humana (IA altruista), que se vaya construyendo por medio de la colaboración con los humanos donde se vaya produciendo una sinergia mutual entre ambos donde prime el progreso humano en lugar del progreso tecnológico como en los casos anteriores.

Esto lleva a profundos cambios de mentalidad y en una nueva educación que prioriza la necesidad de aprender a manejarse con las tecnologías que están emergiendo y la sabiduría que debemos alcanzar, ya que el problema no es construir una IA amigable  sino enseñar a la IA a que se amigable, pero primero tenemos nosotros que aprender a ser amigables y a perseguir intereses altruistas y solidarios. Tenemos que aprender a construir una IA cada vez más inteligente y sabia para juntos construir un mundo más humano.

Imagen: monografias.com

 

Publicado en Riesgos existenciales | Etiquetado , , , , , , , | Deja un comentario

Los riesgos existenciales de la inteligencia artificial (1)

Vernor_Vinge_small

Vernor Vinge. La singularidad tecnológica

What is the problem? It seems plausible that some time this century, people will develop algorithmic systems capable of efficiently performing many or even all of the cognitive tasks that humans perform. These advances could lead to extreme positive developments, but could also potentially pose risks from intentional misuse or catastrophic accidents. For example, it seems possible that (i) the technology could be weaponized or used as a tool for social control, or (ii) someone might create an extremely powerful artificial intelligence agent with values misaligned with humanity’s interests. It also seems possible that progress along these directions could be surprisingly rapid, leaving society underprepared for the transition. Give Well

Comenzamos con las consideraciones de Give Well sobre cual es problema que enfrentaremos ante el surgimiento de una inteligencia artificial que pueda superar a los humanos. Claro aquí estamos haciendo una abstracción de los demás problemas, ya que los problemas no vienen solos, siempre están precedidos por otros problemas y a su vez estos arrastras a otros. El tema de los problemas, del cual hemos estado hablando y volveremos sobre el en próximos articulo hemos hablado de problemas biomédico, psicoreligiosos, socioeconómico, ecosostenible y tecnocientífico. Aquí nos estamos concentrando en el problema tecnocientífico y los riesgos de la inteligencia artificial (IA).

Para responder a las preguntas que hace Give Well vamos a hacer hincapié en tres enfoques, que iremos tratando en diferentes artículos.

1.-Inteligencia suprahumana. La posibilidad de que surja una inteligencia suprahumana
2.-Riesgos de la IA. Los riesgos potenciales del surgimiento de la IA
3.-Futuro sostenible o poshumano. Si estamos preparados o vamos a ciegas al futuro.

1.-Inteligencia suprahumana

Ya en mi articulo ¿Surgirá una superinteligencia capaz de superar al ser humano? Se realiza un análisis sobre la posibilidad de una IA superior a los humanos, por lo que no me dentendré en detalles.

Lo primero, restringiéndonos al problema tecnocientífico el mismo no está en el surgimiento de una inteligencia superior a la humana, sino como advirtió el bioeticista Van R Potter: el aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento. Ahora: ¿Es posible el surgimiento de una IA superior a la humana?

Vinge planteaba la posibilidad del surgimiento de 4 tipos de inteligencias suprahumanas.
1. Superinteligencia artificial: Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que podremos construir entidades aún más inteligentes.).
2. Superinteligencia colectiva: Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
3. Superinteligencia hibrida: Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
4. Superinteligencia biológica: La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Me gusta utilizar el nombre de inteligencia suprahumana para recordar que mientras muchos quieren construir una inteligencia superior a la humana o ampliar sus capacidades y su inteligencia, existen, aun, inteligencias infrahumanas producto precisamente de las condiciones infrahumanas en que viven muchos seres humanos.
Estoy en contra de los que quieren prohibir las investigaciones sobre el desarrollo de IA que puedan superar a los humanos, pero si creo que es un deber moral erradicar la inteligencia infrahumana natural antes de construir una inteligencia suprahumana artificial.

En dicho artículo se mencionaba la tendencia de priorizar el hard sobre el soft lo que conducía a los siguientes los siguientes conceptos:
• La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
• La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
• La máquinas que se irán auto construyéndose a si misma cada vez más perfeccionadas, más veloces, más memorias, dotadas de mejores algoritmos podrán llegar a convertirse en maquinas superinteligentes que superen a los humanos.
• La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Vemos que se apuesta por el surgimiento de máquinas cada vez más inteligentes, lo que llevaría a una explosión de inteligencia, pienso que la importancia de la inteligencia está sobredimensionada y peor aun, la inteligencia se reduce al concepto de velocidad: velocidad de análisis, velocidad de procesamiento, velocidad de cálculo, etc. Cuando, en realidad, dentro de la escala de desarrollo la inteligencia viene siendo el primer escalón: inteligencia, conocimiento y sabiduría. Tampoco creo que el peligro de una explosión de inteligencia por parte de las máquinas es que se convierta en una superinteligencia fuera de control sino en que no se fomente la sabiduría necesaria para manejarnos con esas inteligencias de forma colaborativa

Los humanos programarán a las IA de acuerdo con sus acciones y las IAs harán lo que los humanos hacen. La IA debe aprender dentro del contexto humano y según las máquinas se vayan haciendo más complejas y autónomas hasta despertar como una inteligencia que tendrá conciencia de sí misma (emergencia). Y es que la IA al igual que nuestros hijos, en algún momento dejarán de depender de nosotros, el problema consiste en; si, para ese entonces, nos verán cómo sus padres o como sus dueños.

Imagen: Wikimedia

Publicado en Riesgos existenciales | Etiquetado , , , , , , , , | Deja un comentario

Los riesgos existenciales de la inteligencia artificial (introducción)

Riesgos existenciales

Nick Bostrom. Los riesgos existenciales

Antes de entrar en materia hagamos un recuento sobre el tema tratado en artículos anteriores.  En el articulo “Los riesgos existenciales de una singularidad tecnológica (1)” se hablaba sobre la explosión de inteligencia, inteligencias artificiales que se autoprograman así mismas cada vez más inteligentes hasta llegar a una singularidad tecnológica. Y se definían los siguientes presupuestos a tener en cuenta para lograr una explosión de inteligencia.

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

En “Los riesgos existenciales de una singularidad tecnológica (2)”, definíamos los riesgos existecnaiesl como las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Y se hablaba del dilema sobre el futuro, ya que tenemos que elegir entre un futuro sostenible o un futuro poshumano. Donde el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Por otra parte se aclaraba que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Lo cual representa un nuevo dilema ya que para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma, pero para ello debe tomar conciencia de todo su potencial.

En el ultimo articulo “Los riesgos existenciales de una singularidad tecnológica (3)”

Decia que mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, y lo que sucede, en realidad, es que estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.

Como se ve el tema es complejo y está cargado de interpretaciones, temores, expectativas e intenciones que nos desvían de un enfoque imparcial del problema. Trataremos de analizar de forma, lo mas imparcial posible (teniendo en cuenta que también somos seres humanos y tenemos expectativas e intenciones) para ello nos apoyaremos del análisis realizado por Give Well “Potential risks from advanced artificial intelligence”, Ya que indaga en el problema de una forma bastante imparcial.

En el próximo articulo comenzaremos a desarrollar el tema.

Imagen: Taringa (Nick Bostrom, el transhumanismo)

 

 

 

Publicado en Riesgos existenciales | Etiquetado , , , , | Deja un comentario

Podemos escoger nuestro futuro (final)

tecnologia-futuro-avances-tecnologicosProblema tecno-científico

Seguimos con el problema teno-científico y la preocupación del bioeticista Van R Potter, que advierte sobre el aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento.

Posiciones ante el progreso tecnológico

1.-Inteligencia natural: Prohibir las tecnologías (renuncia). Los riesgos son tan enormes y desconocidos y las instituciones reguladoras no son confiables.

2.-Inteligencia socio-cultural: Control de las tecnologías. La inteligencia artificial (IA) como herramienta, es un medio para los humanos. Las tecnologías deben ser controladas y en caso de duda deben ser prohibidas (precaución).

3.-Superinteligencia colectiva: Manejarse con las tecnologías. La IA como colaborador que  se desarrolla junto a los humanos, es un fin en si misma. Se pretende que las tecnologías sean asequibles a todos pero, antes, hay que erradicar la pobreza. Se necesitan cambios sociales e individuales que modifican nuestra mentalidad actual. Es necesario saber manejarse con la tecnología y crear una superestructura tecnológica sostenible que se integre armónicamente al contexto humano y no lo invada de forma negligente con fines hegemónicos o de riquezas.

4.-Superinteligencia artificial: Convertirse en tecnología. La IA supera a los humanos  y estos se integran como mentes digitales al entorno artificial, recargar la mente y su posterior ampliación. Sustituir lo natural por lo artificial. El progreso tecnológico es la única solución (imperativo tecnológico) y debe ser acelerado. Advenimiento de una singularidad tecnológica.

5.-Superinteligencia hibrida: Fusionarse con la tecnología. Integrar parte del ser humano con las máquinas. Fusión, inicialmente entre el cerebro y las maquinas, entre humanos y tecnologías, podemos pensar en una IA local en cada cerebro. La tecnología es incontrolable, cualquier intervención del gobierno siempre trae consecuencias imprevistas. Los riesgos son manejables sin el gobierno (resignación).

6.-Superinteligencia biológica: Mejorarse por medio de las tecnologías. La tecnología en función de mejorar el cerebro y la mente humana. La IA como un medio para lograr la superhumanidad. Lograr elementos para una IA biológica que mejore o perfecciones el cerebro. Los riesgos son manejables con la ayuda de la supervisión democrática y la gestión (regulación).

Problema tecno-científico

  • Aumento del conocimiento
  • Explosión de inteligencia (superinteligencias)
  • Aceleración tecnológica
  • Sabiduría para manejarse con las tecnologías que están emergiendo y alcanzan un progreso verdaderamente digno (evolución trascendente)
  • Simbiosis que se está produciendo entre humanos y tecnologías
  • Futuro sostenible o futuro posthumano

Ecologistas vs Futuristas

En el artículo Podemos escoger nuestro futuro. Ecologismo vs Tecnologismo, decíamos que el gran enfrentamiento de nuestro siglo es entre las ideas ecologistas y las ideas tecnologistas. Los ecologistas defienden el ideal de un futuro sostenible mientras los tecnologistas aspiran a un futuro posthumano. Y agregábamos:

Los ecologistas tienen como idea central la destrucción del planeta y con ello el fin de la especie humana, por tanto su ideal es salvar a la especie humana de su extinción (futuro sostenible) y definen cuales son los problemas que nos están golpeando.

Los tecnologistas (futuristas) tienen como idea central un futuro de prosperidad basado en las tecnologías, apuestan por el surgimiento de una superinteligencia artificial donde se producirá una singularidad (futuro posthumano), se ven a las tecnologías como salvadoras ya que vendrán a resolver todos los problemas que los humanos no han podido.

Ahora, ¿Cómo se están enfocando las ideas sobre el futuro? ¿Qué está sucediendo?

Tenemos que los institutos no dedicados al futuro cuando quieren hacer alguna valoración del futuro, parten de las definiciones de los futuristas (aquellos que se dedican a entender el futuro) por lo que asumen los fundamentos futuristas, principalmente los de la ideología transhumanista y de ahí que sin proponérselo defiendan la idea de un futuro posthumano.

De igual forma, los organismos no especializados en el medio ambiente cuando realizan alguna valoración sobre el planeta, parten de los conceptos ecologistas y por ende heredan su enfoque bioconservador.

Otra cosa es cuando se quiere encontrar las herramientas para el estudio del futuro,que es el caso de la prospectiva (Godel) a diferencia de los futuristas  que tratan de buscar una interpretación o querer darle un sentido (actualmente existe un solo sentido, el transhumanista) al futuro.

Tendremos entonces:

  1. Los que buscan darle un sentido al futuro. ¿Hacia dónde vamos? El transhumanismo y la propuesta de un futuro posthumano.
  2. Los que aspiran a construir las herramientas para comprender (y construir) el futuro. La prospectiva
  3. Los que aspiran a preservar el presente (el planeta) para el futuro (las nuevas generaciones). El desarrollo sostenible y su enfoque bioconservador
  4. Los que piensan que lo correcto es dejar el futuro en manos del libre mercado. El libre mercado como mecanismo regulador que conduce al progreso por si mismo.

Siempre que se realiza algún estudio sobre el futuro de la humanidad se mencionan las ideas, principalmente, de Bostrom y Kurzweil, ambos han definido definido sus ideas sobre el futuro el primero desde una ideología transhumanista y la preocupación por los riegos existenciales (en especifico el de una superinteligencia artificial) y el segundo por el advenimiento de una singularidad tecnológica que transformara la vida de los humanos de forma radical y nos conducirá a una era posthumana donde, entre cosas, seremos inmortales. Amabas visiones del futuro han sido aceptada por casi todos los futuristas (para no ser absoluto) y hoy cuando se trata de entender el futuro es imprescindible referirse o asumir una (o ambas) de estas posiciones.

¿Hacia dónde vamos? ¿Hacia dónde nos lleve el libre mercado? ¿Quién define el futuro? ¿Podemos cambiar el futuro?

El progreso

  1. El progreso tecnológico como única solución. Los presupuestos tecnológicos del transhumanismo y como se están llevando a cabo. Los tecno-cientificos, las transnacionales de las tecnologías de punta, los institutos futuristas. La evolución artificial
  2. Progreso humano basado en actores sociales. Accionar proactivo para cambiar el mundo, aquí el sentido surge de las acciones de los propios actores sociales y en la formación de comunidades.
  3. Desarrollo sostenible, con respecto a las tecnologías se asume el principio de precaución y en el control del gobierno que fomenta políticas conservacionistas, la conservación de lo natural.
  4. Libre mercado. El mundo está bien como tal como esta, solo hay que dejar que todo fluya, cualquier intervención trae malas consecuencias, se fundamenta en el crecimiento económico lo cual lleva a la abundancia. No hay que preocuparse por el futuro, lo que va a suceder sucede.

La prospectiva son herramientas que se pueden usar en cualquier sentido. Actualmente son los futuristas los que la utilizan.

El libre mercado como se opone a todo control de hecho está en contra del ecologismo y favorece las ideas futuristas.

Por lo que de las cuatro variantes hacia el futuro, los futuristas con su ideología transhumanistas están presentes en tres de ellas, de ahí que sus posibilidades sean mucho mayores que la de los ecologistas. De lo anterior se desprende que vamos inevitablemente a un futuro posthumano.

Lo que nos lleva a las siguientes tendencias

  1. Las transnacionales relacionadas con las nuevas tecnologías están imbuidas por el pensamiento futurista (futuro posthumano).
  2. Las instituciones que estudian el futuro parten del ideal transhumanista y de un futuro posthumano.
  3. Los futuristas cada vez tienen más influencia sobre el pensamiento, las ideologías, las políticas, la educación y los mercados.

Todos lo anterior apunta  a que vamos a un futuro posthumano. La pregunta es: ¿Podemos cambiar ese futuro?

Es hora de ir cambiando la visión tecnológica de los futurista y su ideología transhumanista. No digo que se nieguen las ideas de los futuristas, muchos de sus preceptos son validos mientras otros entran en contradicción con las ideas de un futuro sostenible. Defiendo la idea de una superinteligencia colectiva y una visión del futuro desde la prospectiva.

La prospectiva defiende la idea de actores sociales, lo cual está más cerca de la sociedad civil, del individuo como fuerza motriz, y nada niega que pueda tener un sentido ecologista y que pueda apoyarse (de hecho es así) en el progreso tecnológico y defender un futuro sostenible desde un enfoque transdisciplinar, colaboracionista y altruista.

Imagen: Your Tribu

Publicado en Desafíos éticos | Etiquetado , , , , , , | Deja un comentario