Menú

La edad de oro de la electrónica

Daniel Rodríguez Herrera

Es una profecía autocumplida: las empresas cuentan con que va a suceder y los objetivos se ajustan a esa predicción. Gracias a ella, vivimos una edad de oro de la tecnología, y recogemos sus frutos sin darnos demasiada cuenta de lo asombrosos que son (Volver)
MarvoloB dijo el día 5 de Noviembre de 2010 a las 15:42:53:

Punt, yo te puedo poner un ejemplo más claro, porque se trata del mismo aparato: mi primer lector de CD portátil tenía una autonomía de 2 horas... y eso si no se activaba el sistema anti-golpes (que había que activar o no se oían 2 segundos seguidos), en cuyo caso duraba hora y media con mucha suerte.

El último lector de CD portátil que tuve tenía una autonomía de... ¡24 horas! ¡Y usando las mismas pilas que mi viejo "discman"!

Por supuesto que es mérito de los fabricantes (en este caso Sony) prolongar la autonomía de sus aparatos, pero lo cierto es que ver un par de episodios de una serie te vacía sensiblemente la batería de un iPod, iPad, iTouch, iPhone... por no hablar ya de lo que te come escuchar por la calle la radio por Internet (o por TDT) y en un aparato que encima es tu teléfono ("perdona que no te llamara, pero me quedé sin batería escuchando a Federico").

Imaginemos un avión comercial capaz de hacer Madrid-Nueva York en una hora, pero que necesite repostar cada 1.000 kilómetros. ¿Estaríamos hablando de "la edad de oro de la aviación"? Pues eso.

En fin, que lo que quiero decir es: que ésta será la edad de oro de la tecnología cuando gaste la mismas pilas oír la radio FM que la radio TDT o Internet, y que, hasta entonces, todo el rollo de la potencia, los circuitos y tal no va a ninguna parte: se quedará enchufado sin remedio a la pared.

punt dijo el día 4 de Noviembre de 2010 a las 10:18:08:

Hablaba de GPUs con varios cientos de procesadores, cuando las de gama alta llegan a los 1600. Me quedé corto.

[MarvoloB] Hace unos 5 años adquirí una PDA, un aparato bastante majo con procesador de 625Mhz, pero con una autonomía... "limitada": la batería normal duraba apenas 3/4 de hora de uso de navegador (con la antena GPS conectada vía bluetooth, lo que gasta más en el enlace inalámbrico, pero gasta menos en que la antena tiene su propia batería para su funcionamiento)

Recientemente he adquirido un smartphone. Tiene procesador a 1Ghz, aceleración gráfica, mucha más memoria, pantalla más grande y un montón de pijadas más. La batería es más o menos de la misma capacidad (tal vez un poco más), pero es capaz de ejecutar un navegador bastante más potente (con efectos 3D) durante más de 2 horas.

Ciertamente, las baterías son una importantísima limitación, pero el aumento de la autonomía de los equipos depende más de la reducción del consumo que del aumento de la batería. Y la tecnología es cada vez más eficiente en este sentido (pantallas LED u OLED, procesadores de bajo consumo, etc).

Un saludo.

MarvoloB dijo el día 3 de Noviembre de 2010 a las 20:08:14:

Hay un viejo dicho: "por culpa de un clavo se perdió una herradura. Por culpa de una herradura se perdió un caballo. Por culpa de un caballo se perdió un jinete. Por culpa de un jinete se perdió un batallón. Por culpa de un batallón se perdió una batalla. Por culpa de una batalla se perdió una guerra. Por culpa de una guerra se perdió un reino." es decir, que por culpa de un clavo se perdió un reino.

¿Y cuál es el clavo en este caso? Pues las baterías, por supuesto. Con nuestra fabulosa tecnología actual, a Luke Skywalker le duraba una carga de sable láser unos cinco segundos, y eso siendo optimistas. ¿De qué nos vale un arma noble para tiempos más civilizados si no posemos encontrarle pilas?

Volviendo a la Tierra, cuando, por ejemplo, el iPad (y quien dice el iPad dice el Toyota eléctrico) alcance un mínimo de 24 horas de autonomía a pleno rendimiento, hablaremos de potencias, de circuitos, de nanómetros y de su pastelera madre.

punt dijo el día 3 de Noviembre de 2010 a las 17:58:55:

Lógicamente, hay un límite físico para todo y, al alcanzarse, se buscará la forma de evolucionar por otros derroteros. Sobre si la evolución del microchip será el memristor o alguna otra cosa óptica, cuántica u orgánica (que también hay desarrollos de este tipo), no lo sé. Lo que sí sé es lo que ha pasado la última vez que la industria de la microelectrónica se encontró con una barrera física aparentemente infranqueable.

Hace unos años, la carrera que se desarrollaba en la industria de los microprocesadores se basaba en aumentar más y más la velocidad de reloj de los procesadores. Así, se alcanzaron más o menos los 4 Ghz en procesadores domésticos, pero encontraron un escollo insalvable: el calor.

A más velocidad, los chips se calientan más. Así, hay un momento en el que no se puede aumentar la velocidad del procesador salvo que se empleen sistemas de disipación de calor extraordinarios (entiéndase antieconómicos), aparte de que el gasto energético se dispara.

¿Qué hizo la industria? Se olvidó de la carrera por la velocidad bruta y empezó una carrera por la potencia, basándose en el diseño de microprocesadores multinúcleo. Así, ahora tenemos procesadores con velocidades en torno a los 3 o 3,5ghz, igual que hace unos cuantos años, pero con una potencia muy superior que proviene de que contienen 2, 4 o 6 núcleos (lo que equivale a otros tantos microprocesadores, aunque al ir encapsulados juntos, es una arquitectura más eficiente que un sistema con ese mismo número de procesadores independientes, de un núcleo cada uno).

De hecho, la multiplicación de los núcleos de proceso es mucho más evidente en el caso de las GPU, donde se integran en el mismo chip varios cientos de procesadores gráficos que trabajan en conjunto.

Eso sí... no se abandonó el silicio. Curioso, ¿no?

¿No creen que sea más probable una evolución en el diseño de los procesadores encaminada a aumentar el numero de transistores integrados por unidad de volumen antes que un cambio excesivamente radical en las tecnologías de fabricación? (y no es que no hayamos visto cambios así: ahí tenemos los soportes de datos ópticos o flash, donde antes sólo había soportes magnéticos)

No sé, a veces la solución consiste más en reorganizar las cosas que en rediseñarlo todo desde cero y creo que, por lo menos en un principio, las cosas evolucionarán por ahí.

Un saludo.

paserifo dijo el día 3 de Noviembre de 2010 a las 16:24:53:

O sea, que es posible que cambiemos de tecnología antes de que los ecologistas nos amenacen con que vamos a acabar con toda la arena (silicio) del mundo. Pobrecicos.

Supongo que si lo de la óptica cuaja los ecologistas del momento dirán que vamos a acabar con todos los fotones del Universo. Si yo fuera Zapatero, mandaría que se creara cuanto antes una agencia pública para la defensa de las partículas elementales del voraz capitalismo salvaje del partido del té.

Volviendo a la realidad. Entre la guerra del SATA3 y los SSD ¿quién se llevará el gato al agua? ¿Veremos en 2012 un disco duro de dos teras por 50 euros? ¿Veremos algún día un SSD decente de menos de trescientos euros ;-D?

« 1 »