Menú

IBM quiere construir un cerebro humano artificial dentro de 10 años

Ya llegó a construir uno con el mismo número de neuronas que un gato. (Volver)

punt dijo el día 14 de Octubre de 2011 a las 15:55:15:

[expat] Gran comentario. Por lo general es de lo más útil que alguien que sabe de lo que habla ponga las cosas en su sitio. Y sus metáforas son insuperables.


[Feynman] Tenga cuidado con lo que dice, porque "una inmensa red neuronal en Blanco" sólo podría instalarse en una gasolinera (vale, la mayúscula es mía...)

Un saludo.

Ten1ente dijo el día 14 de Octubre de 2011 a las 12:26:28:

¿ Para que quiere un cerebro artificial una azada ? ¿ Para ir a votar ?.

loboe dijo el día 14 de Octubre de 2011 a las 09:27:00:

Fausto19:

La creación de un artilugio que imite el comportamiento de las neuronas no tiene nada que ver con ser como Dios [1] o con crear una célula, en el mismo sentido que esto último no tiene nada que ver con construir un "caballo mecánico" que nos conduzca más rápida y cómodamente que un caballo biológico. Simplificando mucho, te podría poner otro ejemplo relacionado con la célula: las de páncreas producen Insulina, pero esta puede obtenerse sintéticamente sin ser como Dios.

Respecto a los dos motivos que arguyes para asegurar que tal cosa es imposible:

1.- La enorme complejidad de lo que se pretende imitar.

La noticia se limita a decir que contará con un rendimiento equivalente al mismo número de neuronas que el cerebro humano, más de 100.000 millones. Las consecuencias de tal emulación se verán en su momento, pero no es seguro que interese imitar exactamente todas las supuestas "capacidades" del cerebro humano -definitivamente, no las del cerebro del Sr. Zapatero-. Por ejemplo, comparada con la de un ordenador, la memoria humana es una caca. Básicamente podríamos decir que "se inventa" los recuerdos; que en ocasiones nos acordamos del recuerdo de un recuerdo y que con frecuencia, se desvanecen. Mientras que el ordenador proporciona una reproducción fiel de lo que se almacenó.

Otras en cambio serán de la máxima utilidad. Por ejemplo el reconocimiento óptico de patrones y de abstracciones. Es típico el ejemplo de reconocimiento de caracteres o de imágenes ¿Hasta que punto un grafo puede ser asociado a la letra "A" o una imagen podría corresponder a un gato?

2.- No sabemos qué hay dentro de nuestro cerebro ni como piensa.

Sabemos bastante de lo que hay en el cerebro humano y cada vez más sobre los complejos mecanismos relacionados con eso que tu llamas "pensar", aunque en este último aspecto, realmente estamos arañando apenas la superficie. Pero -supongo que- la cuestión no es exactamente esa, sino comprobar determinadas hipótesis en un modelo que en ciertos aspectos, podríamos considerar de escala 1/1.

[1] Personalmente, lo de comparar algo con Dios me parece una entelequia, porque realmente no sabemos a qué nos estamos refiriendo. Por ejemplo, cuando le atribuimos la existencia "desde siempre" sin ser capaces de entender exactamente qué es el tiempo y si existió un instante cero antes del cual, el tiempo sencillamente no existía.

Salu2

Feynman dijo el día 14 de Octubre de 2011 a las 08:50:37:

> Escali dijo: Los ordenadores sólo sirven para que los humanos que trabajamos con ellos vivamos razonablemente bien, con poco paro en el sector.

Sí, pero habiendo vivido los fastuosos 60s, 70s y primera mitad de los 80s, convendrás en que esto ya no es lo que era.

En la medida en que el computador se ha convertido en una commodity, su industria se ha convertido en una más, con sueldos tan miserables como en las demás y con una ausencia casi total de glamour como en las demás.

A principios del siglo XX ser conductor profesional o mecánico era casi como ser un semidiós de la tecnología. Ahora, sigue habiendo gente como Fernando Alonso o Martin Whitmarsh, pero la inmensa mayoría de los que viven de ello conducen taxis y camiones o llevan mono azul. Lo mismo pasa con las tecnologías de la información.

LiBReTTo dijo el día 14 de Octubre de 2011 a las 03:39:40:

¿10 años? Para Zapatero llega demasiado tarde y los españoles tendremos que salir de ésta como podamos. Esperemos que no nos lleve 10 años la empresa pero no descartemos tener que echar mano del cerebro de IBM de todas formas.

LeonAnto dijo el día 13 de Octubre de 2011 a las 22:31:37:

loboe: No he podido leer tu respuesta hasta ahora, muchas gracias y Salu2.

Escali dijo el día 13 de Octubre de 2011 a las 22:22:46:


¡Qué peligro!. ¿Y si les sale Zapatero?. ¡Ah no, que Zapatero es un ser vivo pero no un ser humano!.

¡Qué susto, por Dios!.

Me "metí" en la Informática en 1.964 brillantemente joven y lleno de maravillosas novelas de ciencia-ficción, ilusionado con aquellas magníficas descripciones de futuros en los que los robots y los humanos podían ser poco menos que compañeros de juegos, de ocios o de aventuras. Poco me duró la ilusión, aquellas máquinas eran más simples que Zapatero.

Llevo ya 47 años (47 años, Dios mio) en el mundo de los ordenadores. Ahora parece que hablan, parece que obedecen, parece que intuyen... Filfa, es todo filfa, efectos especiales de película de serie B.

Los ordenadores sólo sirven para que los humanos que trabajamos con ellos vivamos razonablemente bien, con poco paro en el sector, y nos fabriquen películas o televisores, pero tontos son irremisiblemente tontos, más tontos que Zapatero.

Feynman dijo el día 13 de Octubre de 2011 a las 18:27:59:

Efectivamente, la enorme complejidad de lo que se pretende imitar hace impensable, en mi opinión, que se pueda diseñar un sistema comparable, y cuando digo diseñar me refiero a definir de manera estricta a priori todas y cada una de sus características tanto en hardware como en software.

De poderse llegar a algo equiparable será por la vía de crear una infraestructura capaz de hacerse compleja a sí misma a lo largo del tiempo en función de sus interacciones con el exterior.

Es decir, se renuncia de entrada a ese diseño detallado -por inabarcable- pero se crea una arquitectura automodificable capaz de llegar por sí misma a esas complejidades, y parece que las últimas ideas van por esa línea: una inmensa red neuronal en blanco.

Cabe mencionar que Arthur C. Clarke en ""2001. Una odisea espacial" (la novela, no la película) aventura una explicación similar del funcionamiento de HAL 9000, y eso en 1968, dando muestras una vez más de sus singulares fundamentos técnico-científicos.

Al margen de la broma sobre estar una posición por delante de IBM, formalmente HAL vendría del inglés ""Heuristically programmed ALgorithmic computer".

Cito literalmente de la novela:

"...Podían construirse cerebros artificiales mediante un proceso asombrosamente análogo al desarrollo de un cerebro humano. En cualquier caso dado, jamás se sabrían los detalles precisos, y hasta si lo fueran, serían millones de veces demasiado complejos para la comprensión humana..."

punt dijo el día 13 de Octubre de 2011 a las 16:12:36:

Tiene su peligro eso de hacer un ordenador imitando a un gato, ya que se pasará todo el día jugueteando con el ratón...


[loboe] IBM persigue imitar la cantidad, pero no alcanza ni por asomo la calidad de las neuronas humanas (aunque parece que algo quieren haber avanzado en cuanto al tratamiento de información imprecisa). Además, la cosa tiene su parte, digamos, "peligrosa" por cuanto el dinero procede del Departamento de Defensa de los USA, es decir, es un proyecto militar.

Sea como sea, si se logra imitar el cerebro humano, es difícil no imaginar que la máquina resultante compartirá con éste tanto cuestiones positivas como negativas: si se persigue, por ejemplo, la creatividad humana, no se podrá conseguir mediante una máquina que no se distraiga, ya que la creatividad consiste precisamente en recorrer caminos originales, para lo que se requiere tener iniciativas espontáneas e intereses no preestablecidos.

La verdad, dudo muchísimo que haya nada que se acerque ni por asomo a un cerebro humano de aquí a diez años (y a cincuenta, si me apuran), y lo digo entre otras cosas por lo que apunta Fausto19: si no sabemos la inmensa mayor parte de cómo funciona el cerebro... ¿Cómo esperamos imitarlo?

Un saludo.

expat dijo el día 13 de Octubre de 2011 a las 15:32:46:

Como alguien que ha estudiado un Doctorado en Inteligencia Artificial, me gustaría hacer unos matices.

Para comenzar, nada de "cerebro artificial" (muy buen marketing), más bien "máquina que usa unos chips INSPIRADOS en el funcionamiento del cerebro humano".

Aún no conocemos en detalle el funcionamiento del cerebro humano. Basado en las cosas que SÍ sabemos, podemos SIMULARLAS de forma simplificada (de la misma manera que el juego FIFA es una simulación simplificada de un partido de fútbol).

Así, por ejemplo, se crean las mal llamadas "neuronas artificiales" que son circuitos que SIMULAN ALGUNOS ASPECTOS de las neuronas naturales. Cuando pones 100,000 millones de esas simulaciones, creas la máquina de IBM, que se parece tanto a un cerebro como un plano a una casa (o aún menos).

Para acabar, "contará con un rendimiento equivalente al mismo número de neuronas" es totalmente irrelevante. No se trata que el cerebro humano hace las cosas más rápido o más eficiente que las máquinas (de hecho, es mucho más lento y con peor rendimiento): es que hace cosas diferentes. Por mucho que saltes más alto que el campeón humano de natación, no le ganarás a nadar, pues nadar es diferente de saltar.

« 1 2 »