Riesgos potenciales de la Inteligencia artificial (1)

Top 10 Interesting ‘brainy’ facts about Artificial Intelligence  The Future trends in A.I 1Abstract
Nowadays, Artificial Intelligence (AI) has become a fashionable topic since it should be robust, friendly and aligned with human interests. This article analyzes the current difficulties and how the implementation of IA would exacerbate many of the present problems. The possibility of building an AI aligned with human interests is in question, since human interests are not aligned with each other and casts doubt on the effectiveness of current investments for the construction of a robust AI, as a way to lose money, while the real problems are ignored. Different scenarios and their consequences are analyzed, as well as the need to learn to deal with new emerging technologies.

Resumen
Hoy en día se ha convertido en una moda el tema de una Inteligencia Artificial (IA) robusta, amable y alineada con los intereses humanos. En el artículo se analizan las dificultades actuales y, como la aplicación de la IA exacerbará muchos de los problemas del presente. Se cuestiona la posibilidad de construir una IA alineada con los intereses humanos, ya que los intereses humanos no están alineados entre sí y se pone en duda la eficacia de las inversiones actuales para la construcción de una IA robusta, como una forma de perder dinero, mientras que los verdaderos problemas que enfrentamos son ignorados. Se analizan los diferentes escenarios que se producen y sus consecuencias, así como la necesidad de aprender a lidiar con las nuevas tecnologías que están surgiendo.

Se ha puesto de moda el tema de una inteligencia artificial (IA) robusta

Hoy en día se ha convertido en una moda la idea de construir una inteligencia artificial robusta, amable y alineada con los intereses humanos. El tema tiene muchas aristas, si pensamos en una IA que siempre será controlada por los humanos o si estamos hablando de una IA capaz de aprender por si misma y que podría igualar o superar a los humanos.
En el segundo caso estamos hablando de una IA que se construirá para que sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos
• Superinteligencia artificial creada con fines comerciales, su propósito es comercializar los sistemas.
• Superinteligencia artificial abierta creada de forma colaborativa con la participación, entre otros, de la comunidad de software libre
Por otra parte, se asume como solución evitar que la IA sea peligrosa. Una IA robusta alineada con los intereses humanos (intereses de un estado tiránico, de militares, de una transnacional monopolista). La pregunta es: ¿Los intereses de quien? La IA serviría para la competencia por los mercados, para ganar guerras, para controlar a los ciudadanos,… Y siempre será en aras del progreso, del bienestar, de la democracia, etc. Como lograr una IA alineada con los intereses humanos si los humanos no están alineados entre sí, sino piensen en los enfrentamientos actuales entre EEUU y Rusia, Israel y Palestina, Siria y el Estado Islámico, etc.

¿Cuáles son los intereses humanos?
• La destrucción (por negligencia) del planeta
• Las guerras por disimiles fines, pero guerras al fin
• La lucha por la hegemonía
• El control de los recursos del planeta
• Los conflictos territoriales
• Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.
Hoy las tecnologías se están convirtiendo en juguetes demasiado peligrosos en manos de los intereses humanos, dada la negligencia, el egoísmo y la ambición humana. ¿Qué sentido tiene construir una IA que nos supere? ¿Qué debemos hacer? El futuro de la humanidad depende de cómo enfrentemos estas preguntas.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales
• Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
• ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
• Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
• Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
• Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Un peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón.

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las maquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

Personalmente considero un derroche de dinero al querer construir una IA robusta. ¿Quién garantiza que las transnacionales no van a competir con la IA robusta y van a aceptar las restricciones que se propongan? Peor aún, es muy posible que la IA surja ante en las transnacionales que en las instituciones que estudian los riesgos de la IA. El peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA.

Pero hay más, el peligro no solo está en contar con un cerebro global privativo (propiedad de alguna transnacional) también surgirán diferentes versiones de humanos (mejorados por las tecnologías) y la competencia que surgirá por adquirir cada vez mas potenciales y ser superior a los demás. Lo extraño, es que hoy parece como si el único problema fuera el de la IA. Una IA que aun no se ha podido construir, en cambio ya se están desarrollando prótesis, implantes y dispositivos para mejorar las facultades humanas, y se está desarrollando la nube y toda la información está siendo procesada por Google con su buscador. Se están gestando tanto las versiones de humanos como un cerebro global (Google) que cada vez adquiere más control de nuestras vidas.

¿Se puede construir una IA alineada con los intereses humanos?

Como decía, queremos construir una IA alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?
• Lo hará mas rico y poderoso (IA como producto o servicio)
• Lo hará mas inteligente y sabio (IA como colaborador)
• Lo hará inmortal (IA como rediseñadora de los humanos)

La IA estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: mas riqueza, mas poder, mas control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Los intereses detrás de una IA robusta
1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo)
2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos (ser el macho alfa).
3. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser mas inteligentes y sabios
4. Construir una IA alineada con los intereses transhumanistas. Una IA que facilite la conversión a superhumanos. Una IA que se vaya fusionando con los humanos el Cyborg.
5. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos (alineada con los intereses del humano+)
6. Prohibir la IA
Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses.

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una ideología que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Imagen: Techmcsquare

 

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , , , . Guarda el enlace permanente.

2 respuestas a Riesgos potenciales de la Inteligencia artificial (1)

  1. Jean Manzo dijo:

    Buenas noches mi estimado. Me parece excelente su reflexión sobre lo que nos atañe, un buen tema de lo que para mi podría llamarse Filosofía Tecnológica. Estoy de acuerdo en determinados razonamientos, sin embargo pienso que una inteligencia bien programada mas bien podría ser lo que la humanidad necesita para superar muchos de nuestros problemas. Por supuesto que nos encontramos ante una amenaza por parte de corporaciones de todos los sectores en el manejo de esta tecnología, pero creo que sería injusto manchar los beneficios de la misma. Sería como decir que el cuchillo es un arma o herramienta maligna por el mero hecho de poder usarlo para asesinar.
    Me parecen excelentes sus artículos le repito una vez mas. Le haré mayor seguimiento a sus reflexiones. Mis mas sinceros saludos y respetos. Hasta otra ocasión.

    Me gusta

    • Jean, estas en lo cierto, yo pienso que estamos pasando de la filosofia de la ciencia que fue predominante en el siglo XX, a la filosofia de la tecnologia cuyo precursos es Nick Bostrom, que por cierto es filosofo. Con respecto a la programacion de una IA, no lo niego, solo que no lo veo como la accion determinante, son partidario de un IA colaborativa que debe ser capaz de aprender, al igual que los humanos y que el objetivo final no debe ser una IA mas inteligente que los humanos sino una IA capaz de hacer mas inteligentes y sabios a los humanos. Gracias y saludos para ti.

      Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s