Los riesgos del futuro

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos.

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, ej.,que un virus se escape de un laboratorio.

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus y de experimentos no seguros.

Dentro de los riesgos de Bostron está que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que están pagando por que se les congele sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para él, la única solución viable para la humanidad. También le preocupa que existan problemas tecnológicos, que no permitan llevarla a la práctica y aquí surge una de las hipótesis más importantes: la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevará a corto plazo a la muerte del planeta y convirtiéndolo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración de la tecnología a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

• Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.

• Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.

• Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una posthumanidad.

Anuncios

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , , . Guarda el enlace permanente.

3 respuestas a Los riesgos del futuro

  1. 9power dijo:

    You ought to take part in a contest for one of the best websites
    on the net. I will recommend this website!

    Me gusta

  2. Pingback: Desafíos de la humanidad | Noticias del macrocontexto

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s