¿Se convertirá la inteligencia artificial en una amenaza? (1)

Inteligencia artificial fuerte y débil

stephen-hawking

Stephen Hawking se pregunta. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

En los inicios de la IA, cuando todo era más claro, solo existían dos grandes enfoques teóricos (más bien filosóficos), los que defendían la idea de una inteligencia artificial fuerte y los que se inclinaban por una IA débil. Esto puede parecer trivial pero dada la interpretación que se le dé a lo que estamos representando podemos sacar diferentes conclusiones de un mismo resultado. La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora, en cambio la IA débil considera que la mente funciona diferente a las sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano.

Con el surgimiento de los sistemas expertos, la IA tomo un matiz comercial y se soñó con la posibilidad de desarrollar aplicaciones basadas en los conocimientos de una experto para un área de terminada. Aquí se retomaba la idea de una IA débil, eran sistemas de corte informático, aunque en buena lid, a los creadores no les preocupaba mucho las cuestiones filosóficas, su interés era más bien comercial.

Hasta ese momento existían tres grandes líneas, bien diferenciadas.
• Sistemas cognitivos (IA fuerte)
• Sistemas informáticos (IA débil)
• Sistemas expertos (Comerciales)

Teniendo en cuenta que la IA se ha caracterizado por hacer predicciones y crear expectativas, los sistemas expertos no fueron una excepción y el esperado bum comercial no paso de unas pocas ventas y muchas empresas fracasaron en el intento, al igual que las predicciones hechas por la IA en sus primeros años debido a la euforia de los avances en la demostración de problemas matemáticos y los juegos, lo que llevo a la idea de que era posible encontrar una heurística capaz de resolver todos los problemas (el solucionador general de problemas), esto llevó a una crisis en la inteligencia artificial y a buscar nuevos paradigmas de representación.

No obstante las recaídas que ha tenido la IA esta ha resurgido con más fuerza en nuestros tiempos y hoy se ha convertido en la mayor esperanza para la humanidad, tanto para los defensores del transhumanismo como para los defensores de una singularidad tecnológica, que parecen lo mismo pero no son iguales, aunque ambos coinciden en el surgimiento de una superinteligencia superior a la humana. Precisamente esta es la creencia actual, y no es tanto que se puede construir una inteligencia superior a la humana, que ya está surgiendo ante nuestros ojos, como producto de una tecnología, que cada vez se acelera más y se hace más potente y autónoma.

Entonces, ¿surgirá una superinteligencia que supere a la humana? Para muchos esta ya está sucediendo, y más preocupante aun, si ellos mismo están haciendo todo lo posible porque suceda, y peor aún; cuentan con todos los medios para lograrlo. Por lo que estamos hablando, ya no de investigadores aislados sino de grandes empresas que están convencidas de que es posible y han desplegado una cantidad enormes de recursos con ese fin, y si vemos los nombres de las compañías: Google, Apple, Facebook, IBM, Microsoft, Amazon, etc. Sin dudas, hay que pensar un poco antes de decir que no surgirá una inteligencia artificial, que al menos igualará en muchos aspectos, a los humanos. La pregunta es: ¿Que pasará cuando esto suceda?

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.

Los riesgos del futuro. Este será el próximo tema.

Foto: The Independent

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Riesgos existenciales y etiquetada , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s