Menú

Nadie conoce a Claude Shannon, pero diseñó el futuro que ahora vivimos

Esta semana se ha cumplido los 100 años del nacimiento de Claude Shannon. A él le debemos la comunicación tal y como es ahora.

36
Claude Shannon | LD

"53+++305))6*;4826)4+.)4+);806*:48+8¶60))85;1+(;:+*8+83(88) 5*+;46(;88*96*’;8)*+(;485);5*+2:*+(;4956*2(5*—4)8¶8*;406 9285);)6+8)4++;1(+9;48081;8:+1;48+85;4)485+528806*81(+9; 48;(88;4(+?34;48)4+;161;:188;+?;"

Edgar Allan Poe, El escarabajo de oro

Siendo aún niño, según él mismo cuenta, cayó en sus manos El escarabajo de oro. La trama fundamental se centra en un texto ininteligible que el protagonista debe descifrar. Le dejó impactado. El punto de inflexión en la vida del genio que fundó las bases de la transmisión de la información. Todo lo que hacemos en LD se lo debemos a este elegante americano admirador de Edison.

Claude Elwood Shannon nació en 1916 (esta semana se ha cumplido su centenario). Una vez acabados sus estudios de ingeniería eléctrica y matemáticas en la Universidad de Michigan ingresó primero en el MIT y posteriormente en los laboratorios Bell. Por aquel entonces la telefonía fija era de utilización masiva y resultaba necesario optimizar los sistemas de transmisión. Es el trabajo de un ingeniero: hacer posible las ideas con los recursos disponibles. Casi nada.

Los bits

Era el verano de 1937 y andaba enfrascado en la mejora de las centralitas telefónicas. Fue entonces cuando comenzó a pensar en el concepto de "bit". Acrónimo de "Binary digit" (dígito binario), representa la unidad más pequeña de información. En términos coloquiales sería un "sí" o un "no", "cero" o "uno", "encendido" o "apagado". Si pudiéramos reducir todas las comunicaciones a "palabras" codificadas únicamente con estos dos símbolos, el manejo de la información por medio de máquinas sería más eficiente. Como en el cuento de Poe, Shannon ideó un lenguaje basado en el "bit" y alimentado por la lógica Bouleana. Fueron las bases de los sistemas digitales actuales. Un mundo variado e infinito codificado en suma de dos estados que haría posible que las máquinas manejaran, almacenaran y transmitieran la información.

La información convertida en matemáticas

Pero su mayor contribución al desarrollo tecnológico y cultural fue la Teoría Matemática de la Información. En ella se fundamentarán las telecomunicaciones, la digitalización y la información posterior a ese mágico año de 1948.

Shannon se centró en el estudio de la cantidad de información que es transmitida, sin considerar ni el significado, ni el propósito. No interesa tanto la pregunta: "¿Qué tipo de información?" sino más bien, "¿cuánta información?".

Estudió conceptos como el ruido de la señal, la unidad de información, o la probabilidad y la elección.

Para entenderlo remontémonos a mediados de siglo XIX. Un tal Samuel Morse instaló la primera línea de telégrafos y utilizó un código inventado por él mismo. Simplificó el número de elementos de comunicación a dos: el "punto" y la "raya", es decir, un sonido corto y uno largo. Con esta base codificó cada letra del alfabeto en una combinación de estos dos símbolos. Pero aún fue más allá. Se dio cuenta que había letras que se empleaban mucho más que otras. Según esto, utilizó las codificaciones más cortas para estas letras. Por ejemplo, en inglés la "e" es la que más aparece por lo que le otorgó la combinación más sencilla: un "punto". Pero hay factores que no tuvo en cuenta Samuel que fueron estudiados por Shannon.

Ruido y redundancia

Cuando llegas a casa de alguien y tocas el timbre o golpeas con los nudillos a la puerta, ¿cuántas veces lo haces? Probablemente más de una. Por ejemplo, Sheldon Cooper lo haría exactamente nueve. El motivo es el posible ruido dentro de la vivienda y la solución es la redundancia. Repetir el mensaje. Por eso Shannon estableció que el mensaje codificado tiene que tener cierto grado de redundancia para que pueda llegar sano y salvo al interlocutor. En el caso del Morse, Samuel no tuvo en cuenta este factor. Cualquier mínima interferencia en la comunicación hacía imposible reconocer el mensaje.

Un ejemplo más: ¿Serían capaces de entender esta frase?

PRO MUY DFCL Q PRZCA, L NTNDO

Nuestro idioma es un ejemplo de redundancia. Podemos entenderlo incluso en condiciones en las que un porcentaje alto de la información se pierde o se distorsiona. ¡Incluso somos capaces de comunicarnos en un bar a plena hora del aperitivo!

Resulta curioso que Alan Turing, casi por la misma época, se quedará también prendado por el "enigma" que suponía la criptología. Las dos mentes que hicieron posible el futuro que ahora vivimos, atrapados por el atractivo de resolver geroglíficos. Una metáfora del motor último de todo científico: descifrar el código oculto en la naturaleza. Eso es, en el fondo, la ciencia.

En Tecnociencia

    Recomendado

    Lo más popular

    1. El demoledor testimonio de Carlos Baute sobre Venezuela que dejó helado al plató de El Hormiguero
    2. El Gobierno restringe el alquiler por decreto, aunque retrasa la fijación de precios
    3. Mariló Montero responde a "las disculpas" de Pablo Iglesias
    4. EEUU se harta de Zapatero
    5. El Consejo Escolar del Estado denuncia que la ley Celaá margina el español e incumple la Constitución
    0
    comentarios

    Servicios