Los riesgos existenciales de una singularidad tecnológica (2)

Riesgos existenciales2

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

Imagen: Caribania Planetaria

 

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s