Relación simbiótica entre humanos y tecnologías (2)

SimbionteLa queja habitual de los tecnologista a la evolución humana consiste en que esta es demasiado lenta y que no compite con la acelerada evolución de las máquinas. Por lo que el problema es como acelerar la evolución de los humanos para la nueva era que se avecina.
Muchos tienden a simplificar la idea de la evolución y asumen que la única solución es una evolución artificial donde las tecnologías no solo asumen el control del planeta, como muchos piensan, sino, también,  la reconstrucción de la vida en el planeta. En realidad el problema es mucho más complejo y no se puede perder de vista que la decisión final, aun la tienen los humanos y si queremos comprender la evolución que nos espera debemos enfocarla dentro del esquema de una simbiosis entre humanos y tecnologías y del tipo de interacción que se produce entre ambos.

Sigue leyendo

El desafío de la inteligencia artificial (3)

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto conlleva.

SuperIAAhora la pregunta es, si surgirá una inteligencia artificial (IA) superior a la inteligencia humana. ¿Ya está la IA madura como por fin lograr la ansiada inteligencia artificial que iguale o supere a los humanos? Y surge otra pregunta tendrá consciencia esa superinteligencia?

Cuando hablamos de una superinteligencia artificial está implícito que tendrá una consciencia, no concebimos la inteligencia separada de la consciencia. Aunque yo no creo que tenga porque ser así. Y este es otro punto de vista, ¿se necesitara construirle una consciencia a las máquinas? ¿O esta emergerá por si misma?

Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

El paradigma simbolista

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, por lo que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás esta decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos . Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.

Ahora en lugar de buscar la representación del conocimiento humano (Ver Conocer de Francisco Valera) se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, Moravec y el fin de la especie humana, y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a si mismas cada vez mejores

En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

En próximos artículos hablaremos de los peligros de la inteligencia artificial.

Foto: Actualidad RT

¿Se convertirá la inteligencia artificial en una amenaza? (1)

Inteligencia artificial fuerte y débil

stephen-hawking

Stephen Hawking se pregunta. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

Sigue leyendo