Menú

Intel cree posible fabricar procesadores de 1.000 núcleos

El gigante de los semiconductores está desarrollando un prototipo llamado Single Chip Cloud Computer (SCC), un microprocesador de 48 núcleos. La arquitectura es escalable de modo que podría extenderse a más núcleos. (Volver)

carlitro dijo el día 23 de Noviembre de 2010 a las 11:49:04:

Qué bien, así podrían colgarlos A LO GRANDE!!!!

UrbanMin dijo el día 23 de Noviembre de 2010 a las 00:44:56:

Interesante. Lo de 125/25 W debe de ser por procesador, no por núcleo, a semejanza de los micros de PC actuales. Los de mayor consumo que yo conozco han sido modelos de 140W, hay tarjetas gráficas monoGPU de más de 200W, y biGPU de 300, que es el límite estándar actual (leí que lo van a subir un poco en la próxima versión del PCI-E). Los 125W de la CPU (que si no se sobrerrelojea con sobrevoltaje suelen ser bastantes menos) son "dominables" con cajas, disipadores, ventiladores y fuentes de alimentación "civilizadas", para lo demás recomendaría no usar cualquier cosa, aunque tampoco refrigeración por agua. El agua y la electricidad no mezclan bien.

Estos chips me recuerdan a Larrabee, proyecto de Intel rebautizado por alguien de nVidia como Laughabee (es decir "Risa-bee" :D ), para construir una GPU a base de núcleos x86 recortados, y que fue abandonado. La actual tecnología de GPUs es esclava de estándares tipo DirectX e Intel aspiraba, o eso decían, a hacer obsoleta dicha dependencia. Nunca me pareció algo auténtico, para ese propósito al menos.

nVidia, que no tiene licencia x86 al contrario que AMD (su mayor competencia actual en gráficos tras la absorción de ATi por esta empresa), afirma que las CPU son prescindibles, y sí es cierto que las GPU son más eficaces en algunos tipos de cálculo, y conjeturable que los futuros chips de proceso genérico guarden mayor similitud con éstas que con las primeras (dentro de nada, chips mixtos, como los "Fusion" de AMD), pero sin x86 cada cosa que fabriquen será necesariamente un "periférico".

Por el lado de la programación, la computación parece estar dividida entre tareas muy difíciles de distribuir entre varios núcleos y otras cuya división o más bien "atomización" es muy fácil y natural, con pocos términos medios.

Algunos poseedores de "discos duros de estado sólido" o SSD (mucho más caros que los tradicionales) afirman que su ordenador es mucho más ágil y rápido con ellos que lo que conseguirían con micros de mayor potencia.

pezueleñ dijo el día 22 de Noviembre de 2010 a las 23:45:36:

Por lo que veo, en estos comentarios, el problema como se suele decir, "qué es primero el huevo o la gallina". Bueno bromas a parte, todo hardware tiene que ir acompañado de su correspondiente software. Y no hay mas.

loboe dijo el día 22 de Noviembre de 2010 a las 22:43:47:

Bueno, ya puestos, me gustaría añadir a tan doctas opiniones que aparte de que el SO sea capaz de gestionar los diferentes procesadores, es imprescindible que las aplicaciones también lo sean y aplicaciones gráficas aparte, la mayoría de las que utilizan los usuarios de a pie, no son paralelizables.

Por supuesto, no estoy refiriéndome a los consabidos juegos de matar marcianos, en los que las necesidades de proceso son extraordinariamente elevadas, sino a la ofimática cotidiana, de forma que incluso los equipos de sobremesa actuales de dos procesadores, están infrautilizados la inmensa mayoría de las veces.

avanter dijo el día 22 de Noviembre de 2010 a las 21:58:57:

Hola Punt
Gracias por tu fantástica nota.
Da gusto saber que hay lectores con tu nivel de conocimientos.
Solo me pica el saber si eres mi compañero de hpc o el de la competencia, o si eres un cliente. :-D
Donde yo trabajo, el que sabe tiene autobus tos los dias.
Es un juego de palabras tontísimo.

punt dijo el día 22 de Noviembre de 2010 a las 19:44:39:

¿1000 núcleos? Ya serán 1024...

Bromas aparte (o no tan bromas), lo cierto es que ya hay procesadores con más que ese número de núcleos: las GPUs avanzadas disponen de hasta 1600 o 1700 shaders, que no son sino núcleos de procesador especializados en el cálculo gráfico (aunque se pueden emplear para usos generales por medio de librerías de programación como la CUDA de nVidia).

Por otra parte, el lanzamiento de procesadores con semejante número de núcleos debería conllevar el lanzamiento de sistemas operativos capaces de gestionar ese número de núcleos de forma eficaz (en ese sentido, Linux me parece mucho más escalable que Windows).

Para terminar, creo que realmente no existe ese límite de 1.000 núcleos, dado que "el tamaño de la malla" no tiene por qué ser determinante de nada: las distancias tienen relevancia cuando se trata de procesos síncronos, es decir, en el que todos los elementos deban funcionar al unísono y, por tanto, requieran una comunicación especialmente instantánea.

Simplemente (o no tan simplemente, es una forma de hablar) diseñando una arquitectura que combine elementos síncronos y elementos asíncronos, el sistema se podría escalar hasta absolutamente cualquier tamaño imaginable.

La relación síncrona sería como la que hay entre los núcleos de un mismo procesador (eso es lo que están haciendo), mientras que las relaciones asíncronas podrían demorarse en el tiempo y se asemejarían más bien a la relación que hay entre los distintos nodos de una granja de proceso, que está compuesta por equipos diferentes interconectados en red, pero que ejecutan procesos distribuidos entre todos ellos.

Al fin y al cabo... ¿qué impide que se fabriquen equipos multiprocesadores en los que cada procesador sea multinúcleo? ¿O que se implemente dentro de un equipo el equivalente a una red de ordenadores, pero en el que los nodos compartan parte de los dispositivos?

Un saludo.

« 1 »