¿Hacia dónde vamos? Refinamiento (1)

ONU_IA_homeHoy se habla  de los riesgos  potenciales de construir una IA, el problema radica en si nos concentramos en los beneficios que ofrece la inteligencia artificial (IA) o si nos preocupamos por los riesgos. Este dilema nos lleva a la necesidad de trazar un mapa del futuro partiendo para ello de las ideas de James Hughes.

Posiciones ante la IA. Hacia una nueva clasificación

1.-Beneficiosa en sí misma. Siempre será beneficiosa y se sueña con el surgimiento de una singularidad tecnológica. La vamos a denotar como ++IA

2.-Beneficiosa pero depende de ciertos factores. Se denota como +IA

  • Estará regido por la ley del mercado
  • Que surja de la colaboración entre humanos y tecnologías donde ambos deben perfeccionarse y que haga más inteligente y sabios a los humanos.

3.-Riesgosa pero se puede resolver tomando ciertas medidas. -IA

  • Se puede construir una IA dentro de una programación que responda a los intereses humanos.
  • Se debe construir una IA que este bajo control y no debe pasar de ser una herramienta

4.-Riesgosa en si misma. Se deben prohibir las investigaciones: –IA

Hasta ahora nos hemos referido a las tecnologías inteligentes, en especial la IA. ¿Pero qué sucede con las tecnologías de mejoramiento?

Habíamos visto que las tecnologías de mejoramiento tienen que ver el dilema de Potter, si se debe usar o no toda la tecnología en el ser humano, en especial para su mejoramiento (transhumanismo)  y como el ser humano se haría dependiente de las tecnologías. Aquí también surgen cuatro posiciones.

Posiciones ante el transhumanismo (TH)

1.-Las tecnologías de mejoramiento son buenas en sí: ++TH

2.-Las tecnologías de mejoramiento son beneficiosas pero se deben evitar los riesgos: +TH

  • Dejar que la economía de mercado guie su aplicación en los humanos
  • Regular el proceso de mejoramiento de forma democrática e inteligentes

3.-El TH es riesgos por lo que se deben buscar soluciones ante su inminente surgimiento: -TH

  • Las tecnologías de mejora deben estar bajo control de leyes y regulaciones que la controlen y en muchos casos la prohíba.
  • Ante el riego de las tecnologías de mejora el ser humano debe desarrollar todo su potencial en toda su dimensión (tecno-bio-sico-social)

4.-Las tecnologías de mejora son un riesgo en sí y deben ser prohibidas: –TH

Volviendo a las ideas de James Hughes, en su biopolitica el define cuatro grupos: bioluditas, bioconservadores, transhumanistas y tecnoprogresistas.

Ahora segun todo lo antes dicho tendremos:

  • Bioluditas – Riesgosa en si misma
  • Bioconservadores – Riegosa por las consecuencias que puede tener: aumento de la injusticia social, la contaminación , la perdida de espiritualidad, etc.
  • Transhumanistas – Beneficiosa siempre que cumpla con la ley del mercado (transhumanismo liberal)
  • Tecnoprogresistas – Beneficiosa pero se deben evitar los riesgos (transhumanismo democrático)

A lo que yo agregué dos grupos más

  • Bioprogresista (Bioeticistas+) – Riesgosa pero se debe tener en cuenta las consecuencias presentes y futuras. En lugar de prohibir las tecnologías de mejoramiento como solución se busca la cooperación y la convivencia entre todos.
  • Posthumanistas – Beneficiosa en si misma

Por lo que, al final tendremos las siguientes posiciones.

Posiciones ante las tecnologías en general

  1. Bioluidistas: Las tecnologías en general son peligrosas y se deben prohibir
  2. Biconservacionistas: Las tecnologías son un riesgo por lo que deben ser controladas
  3. Bioeticistas+ (bioprogresista): Las tecnologías son beneficiosas
  4. Posthumanistas: Las tecnologías son beneficiosas en sí mismas
  5. Transhumanistas: Las tecnologías son beneficiosas pero se deben ajustar a la ley del mercado
  6. Humanista+(tecnoprogresista): Las tecnologías en general son beneficiosas per existen riesgos que hay que tener en cuenta.

Anteriormente había utilizado el nombre de bioprogresismo, un poco imitando a Hughes, después de un largo camino de estar pensando y escribiendo sobre el tema me decidí por bioeticismo+. Mientras al tecnoprogresismo de Hughes lo agrupe como humanismo+, nombre que también ya habían utilizado Hughes así como otros defensores de un transhumanismo más democrático.

Bioeticismo+ (bioprogresismo): Sigue la idea de Potter de la Bioetica puente, la global y en especial la bioética profunda pero ahora estudiando el impacto de las tecnologías emergentes y siguiendo la idea de trazar un puente hacia el futuro.  Enfoque transdisciplinar que aborda al ser humano en toda su dimensión

El enfoque transdiciplinar lleva a buscarle solución a cada problema. Ejemplo, para el problema tecnocientifico la solución está en las superinteligencias colectivas: cerebro global, inteligencia colectiva, lenguaje IML, etc.

Ahora haremos el mismo análisis para la inteligencia artificial, dada la clasificación anterior

Posiciones ante la inteligencia artificial

  1. Bioluidistas: IA riesgosa en sí misma. Prohibir la IA (–IA)
  2. Biconservacionistas: IA riesgosa debe ser controlada. Es una herramienta (-IA)
  3. Bioeticistas+: IA beneficiosa (+IA)
  4. Posthumanistas: IA beneficiosa en si (++IA)
  5. Transhumanistas: IA beneficiosa siguiendo la ley del mercado (+IA)
  6. Humanista+: IA riesgosa pero se puede programar alineada a los intereses humanos (-IA)

Relación entre  el transhumanismo (TH) y la inteligencia artificial (IA)

La relación (sinergia) que se está produciendo entre humanos y tecnologías ante el comienzo de la era de las tecnologías

Posiciones ante la relacion TH / IA

  1. Bioluidistas: –TH = –IA, peligrosas en sí. Se deben prohibir
  2. Biconservacionistas: -TH = -IA, riesgosas pero…  Se deben controlar
  3. Bioeticistas+: -TH < +IA, riesgosa, pero… La IA puede resolver los problemas del TH
  4. Posthumanistas: ++TH = ++IA, beneficiosas en sí. Aceleración tecnológica
  5. Transhumanistas: +TH = +IA, beneficiosas pero… Orientadas por el libre mercado
  6. Humanista+: +TH > – IA, riesgosa pero… El TH puede resolver los problemas de la IA

(3) Los beneficios de la IA pueden resolver los riesgos del TH

(6) Los beneficios del TH puede darle solución a los riesgos de la IA

Posiciones que asumen las instituciones que están estudiando el futuro y las que asumen las transnacionales (ver artículo anterior). ¿Están claros los estudios del futuro sobre a qué futuro vamos? ¿En qué posición encajan las instituciones? ¿Qué futuro nos proponemos?

Los centros dedicados al futuro: FLI, FHI, etc., también se hacen eco de una IA riesgosa y dada su posición tecnologista se asume de forma implícita el TH como beneficioso. Si estos centros no aceptaran el TH como beneficioso entonces asumiría una posición bioconservadora y perdería su carácter tecnologista. Y es que todos los centros que estudian el futuro parten de un enfoque del problema tecnocienfico, creen que las tecnologías son la solución en si misma o que son beneficiosas y los riesgos son solo un factor secundario. Y creen que la solución están en un futuro posthumano. Mientras que para los ecologistas la solución está en un futuro sostenible.

Los escenarios más probables para el futuro

Los escenarios más probables ordenados de acuerdo a la posibilidad de surgir

  1. Transhumanismo (tecno-liberalismo)
  2. Humanismo+ (tecno social democracia)
  3. Biconservadurismo (eco socialismo)
  4. Bioeticismo+ (trans-utopia)
  5. Postumanismo (tecno-utopia)
  6. Bioludiosmo (eco-utopia)

Los 3 primeros escenarios tienen soporte político (sociedades neoliberal, social democracia y socialismo), los tres últimos no, son tecno-utopías

Escenarios trans-utopico. Enfoque transdisciplinar con la participación de la sociedad civil. Consiste en una utopía social, ecológica, espiritual y tecnológica.

Los bioconservadores ven la solución en tomar medidas sociales, políticas y técnicas que eviten la destrucción del planeta. El carácter tecnologista ve a la tecnología (progreso tecnológico) como solución a los problemas.

En el próximo articulo seguiremos con el refinamiento: Debido a que el tiempo y las condiciones no me acompañan, los artículos los voy escribiendo por refinamiento en un estilo rápido, a veces desesperado, con muchas ideas sueltas y luego las voy poco a poco ampliando y detallando en sucesivos artículos.

Imagen: Sophimania

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Desafíos éticos, Tendencias actuales. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s