Los riesgos existenciales de la inteligencia artificial. Escenarios

image013

El camino que tiene que recorrer la inteligencia artificial (IA) estará lleno de riesgos para la humanidad y no precisamente porque llegue a ser más inteligente que los humanos en todos los sentidos (ya desde hoy tendremos que asimilar una relación con una IA que nos superará en algunas cuestiones, lo que podría ser una bendición, o la perdición de los humanos.

Hoy se ha puesto de moda el peligro de una inteligencia suprahumana que no esté alineada con los intereses humanos y solo se habla de evitar los riesgos potenciales de una IA fuera de control (como la quiere Moravec) y se asume que la solución es construir una IA robusta. El objetivo es lograr que las máquinas superinteligentes no sean un peligro para la humanidad, con lo que todo el mundo está de acuerdo, la pregunta es ¿Qué pasará con los humanos?

  1. Serán reconstruidos (mente digital)
  2. Se irán fusionando (transhumano)
  3. Utilizarán las tecnologías solo para mejorarse.

Asumiendo el problema de una IA que nos supere, ignorando todos los problemas que surgirán por el camino y las consecuencias que tendrán. Tendremos los siguientes casos o escenarios futuros.

Caso 1: Las máquinas como herederas del planeta (los hijos mentales de Moravec). Los humanos son sustituidos por las máquinas como la nueva especie dominante. Hans Moravec lo ve como lo más natural del mundo Moravec y el fin de la especie humana y considera que debemos ir cuanto antes a la construcción de la super IA para que nos sustituya y se ocupe del planeta.

Coincido con Moravec, al construir una máquina superinteligente autónoma esta desarrollará su propio pensamiento sobre el mundo y tendrá su propia visión y su propia ideología. Hasta ahí estamos de acuerdo, ahora el que la máquina tenga una visón individualista y hegemónica del mundo dependerá de nosotros

Caso 2: Las máquinas que reconstruyen al planeta, la vida y a los humanos. La superinteligencia que es capaz de comprender las leyes del universo, saber qué es lo que les conviene a los humanos y asume cuales son sus intereses (estos intereses son los de Kurzweil planteados en la singularidad tecnológica y su proyecto de inmortalidad). Nos referimos al advenimiento de una singularidad tecnológica y de una superintleigencia artificial, donde los humanos pueden recargar sus mentes en un entorno artificial (la nube) y vivir para siempre. No queda claro si hay que esperar a que surja la superinteligencia artificial para que esta luego reconstruya a los humanos como mentes digitales o si los humanos tendrán alguna tipo de participación desde su limitada inteligencia. Se sume el imperativo tecnológico de que las tecnologías siempre son buenas y no hay nada que temer.

En ambos casos 1 y 2 se propone el desarrollo acelerado de la IA sin ninguna regulación. Y es que para los posthumanistas el surgimiento de una singularidad tecnológica es inevitable, lo otro sería negar el progreso y el futuro de la humanidad.

El riesgo consiste en el temor de no alcanzar un futuro posthumano ya sea porque la IA destruya al humano sin que llegue a posthumano o no de tiempo a que se desarrolle el transhumanismo, cuando en realidad las máquinas al ser construidas bajo la ideologías tecnologista actual  (Kurzweil, Moravec, Warwick, etc) tendrá una visión elitista del mundo y se verá a sí mismoa como una especie superior.

Actualmente ha surgido un temor más concreto o práctico y surge ante el peligro de una máquina superinteligente, que a lo mejor sin proponérselo, elimine a la especie humana. Ha surgido la idea de construir una IA “amistosa”, que no sea un peligro para la humanidad.

Caso 3: Construcción de una superinteligencia artificial que responda a los intereses humanos, nos referimos a la llamada IA amigable, robusta, alineada con los humanos. Al final estamos hablando de construir una IA por encargo. Los militares querrán una IA para matar humanos, las transnacionales querrán una IA para tener el control de los mercados, los gobiernos autoritarios una IA que le de el control absoluto de los ciudadanos, etc.  Hoy la idea de la IA alienada se ha convertido en una moda y se está invirtiendo millones en proyectos de este tipo, en mi opinión se está botando el dinero, es un verdadero desperdicio, ya que queremos construir una IA que responda a los intereses de todos y al final no responderá a los intereses de nadie, y estaremos construyendo una IA fuera de todo control y totalmente desalineada (no sabremos si está alineada o alienada).

El dilema son los propios intereses humanos, tan variables y complejos. Y es muy posibles que ante los dilemas y contradicciones humanas, y si la IA llega a ser más inteligente que los humanos, terminará tomando sus propias decisiones e ignorando a los humanos y creará sus propios intereses, y es muy probable que actúe con los humanos como ellos mismos actuaron con las otras especies y estaremos, entonces, o en el caso 1: la IA como heredera del planeta o en el caso 2: la IA decide reconstruir a los humanos a su imagen y semejanza.

Se prodrá, también, terminar construyendo una IA bajo control, que nunca supere a los humanos y que no pasará de ser una herramienta (nunca llegaría a tomar decisiones propias) por lo que, en este caso, terminará siendo la construcción de una IA que siempre responda a “los intereses humanos”, carente de toda autonomía y, por supuesto, los humanos siempre podrán apagarla, lo que nos lleva a una IA subordinada a los humanos que siempre estaría dando explicaciones de lo que hace y porque lo hace y cuando algo se salga de control la estaríamos reprogramando inmediatamente.

 La super IA puede limitar el progreso del transhumanismo al poder considerar que el superhumano  como un peligro, lo cual podría ser cierto, dada la mentalidad actual, un superhumano podría ser un peligro al no tener la sabiduría para controlar el poder que ha adquirido y por ello darle un mal uso.

Caso 4: Otro escenario es la fusión entre humanos y tecnologías (el ciborg). Este es el ideal del transhumanismo, ante el acelerado desarrollo de las tecnologías, la mejor opción es fusionarse con ella. Mientras en el caso anterior se hablaba de digitalizar la mente humana, algo así como extraer el alma humana y hacerla inmortal en un paraíso artificial. Para los transhumanistas la idea es irse fusionando con las máquinas desde ahora, el ciborg (parte biológica y parte cibernética) por medio de prótesis, implantes, mejoras genética, etc. Idea que Kurzweil no le gusta y afirma que esto nos convertiría en “otra cosa”. Esto es lo que yo llamo una superinteligencia hibrida. Tenemos otro caso relacionado con el transhumanismo, en el que no voy a detenerme, y es cuando la mejoras son solamente biológicas (ingeniería genética)  y estaríamos ante una superinteligencia biológica.

En el caso anterior (la inteligencia artificial) los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora en esta caso (el transhumanismo) van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, etc. Se sigue la línea de un humano mejorado por medio de las tecnologías.

 Caso 5: En artículos anteriores hemos dicho que el verdadero problema está en la simbiosis que se está produciendo entre humanos y máquinas Cómo relacionarnos con las super inteligencias artificiales (2) y no tanto, en que la máquina sea más inteligente que lo humanos. Nos referimos a cómo lograr una sinergia donde los humanos y las máquinas desarrollen lo mejor de sí (mutualismo). Y el cuestionamiento es: ¿En lugar de construir una IA más inteligentes que los humanos, porque no construir una IA que nos haga más inteligentes y sabios y dejar atrás la idea de ser el “creador” de una entidad superintleigente. Proponemos, en su lugar, ir construyendo de forma colaborativa una superinteligencia que favorezca no solo la inteligencia y la capacidad humana sino también la sensibilidad y la empatía humana, y donde ambos vayan (humanos y máquinas) aprendiendo juntos, donde no solo la máquina tiene que estar alineada a los “verdaderos” intereses humanos (en los que hay que trabajar) también los humanos tendrán que ir cambiando su mentalidad y alinearse a intereses donde deben primar la sabiduría, el altruismo, la empatía, la bondad. La que llamo superinteligencia colectiva siguiendo las ideas de Pierre Levy y de Francis Heylighen.

La pregunta es ¿Podemos dirigir la simbiosis? El mismo Nick Bostrom plantea que las tecnologías son juguetes muy peligrosos en manos de niños traviesos (los humanos). Hay que trabajar en ampliación de la inteligencia y la sabiduría humana (IA altruista), que se vaya construyendo por medio de la colaboración con los humanos donde se vaya produciendo una sinergia mutual entre ambos donde prime el progreso humano en lugar del progreso tecnológico como en los casos anteriores.

Esto lleva a profundos cambios de mentalidad y en una nueva educación que prioriza la necesidad de aprender a manejarse con las tecnologías que están emergiendo y la sabiduría que debemos alcanzar, ya que el problema no es construir una IA amigable  sino enseñar a la IA a que se amigable, pero primero tenemos nosotros que aprender a ser amigables y a perseguir intereses altruistas y solidarios. Tenemos que aprender a construir una IA cada vez más inteligente y sabia para juntos construir un mundo más humano.

Imagen: monografias.com

 

Anuncios

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s