Claude Shannon (1916-2001)
PERFIL BIOGRÁFICO Y ACADÉMICO
Nacido en Petoskey, Michigan (Estados Unidos), hijo del juez de Gaylord y una profesora de secundaria. Desde su juventud se destacó por su inquietud investigadora y su habilidad en la creación de prototipos técnicos, tal vez dando continuidad al talento creativo de su abuelo. Se graduó con premio extraordinario en la Universidad de Michigan en Ingeniería Eléctrica y en Matemáticas.
A los 20 años se trasladó al Instituto Tecnológico de Massachusetts (MIT) como ayudante de investigación en ingeniería eléctrica, donde superó, a los 24 años, su tesis doctoral en matemáticas sobre la aplicación del álgebra ‘booleana’ en el análisis de datos (An Algebra for Theoretical Genetics). En el MIT se ocupó en el desarrollo de los primeros ordenadores, cerca de Vannevar Bush, cuyo ‘Memex’ ha sido considerado un claro antecedente de Internet.
A los 25 años publica Mathematical theory of the differential analyzer. También trabajó en los Laboratorios Bell y en el Institute for Advanced Study de Princenton en sistemas de automatización de armas.
Pero su trabajo central no aparecerá hasta 1948, cuando presenta su Teoría Matemática de la Comunicación, un trabajo que ha sido calificado como la ‘carta magna’ de la era de la información (`A Mathematical Theory of Communication', Bell System Technical Journal, Vol. 27, julio y octubre 1948, págs. 379-423 y 623-656, que un año más tarde revisa, en un trabajo enriquecido por Warren Weaver, bajo el enunciado de The Mathematical Theory of Communication, publicado por la Universidad de Illinois). Asimismo se da a conocer el teorema Shannon-Hartley, según el cual sólo es posible eliminar el 'ruido' en la transmisión de información cuando el flujo de información no exceda la capacidad del canal.
La biografía de Shannon está llena de los frutos de su ingenio, con numerosas aplicaciones en el campo de las máquinas automáticas, desde un ratón electrónico hasta un WC automático, pasando por diversos juego electrónicos de ajedrez, calculadoras, instrumentos musicales, juguetes mecánicos, relojes, etc.
Miembro de la Academia Americana de Artes y Ciencias, de la Academia Nacional de Ciencias, de la Academia Nacional de Ingeniería, de la Sociedad Filosófica Americana y la Royal Society de Londres. Entre los numerosos premios recibidos por Shannon, destacan la National Medal of Science en 1966, el Kyoto en 1985, etcétera.
PENSAMIENTO Y EXPRESIÓN CIENTÍFICA
Estudia el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción.
Al cabo de más de medio siglo de sus hallazgos se sigue considerando el trabajo de Shannon En PDF la pieza clave en el desarrollo que lleva a que la comunicación adquiera un carácter de centralidad en la sociedad actual. Asimismo, sienta los fundamentos matemáticos de la revolución tecnológica de la segunda mitad del siglo XX.
Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.
La información así tratada adquiere una dimensión física, cuantificable y mesurable, independientemente del contenido, de los emisores y de los receptores. Equis páginas de un libro tienen la misma información que una cantidad igual de otro, independientemente de sus autores y la calidad de sus contenidos... La base matemática de la teoría radica en su cuantificación, en la descripción del concepto técnico de canal, en la codificación y descodificación de las señales; esto es, un concepto de la información distinto al conocido hasta entonces en los ámbitos de las ciencias sociales. Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.