Perfil de Claude Shannon, Inventor de la Teoría de la Información

Ningún científico tiene una relación impacto-fama mayor que Claude Elwood Shannon, el creador de la teoría de la información. Shannon, que murió en 2001 a la edad de 84 años, obtiene su merecido en una nueva biografía fabulosa, Una mente en juego: Cómo Claude Shannon Inventó la Era de la Información, por Jimmy Soni y Rob Goodman. Acaban de publicar una gran columna científica estadounidense sobre la esposa de Shannon, Betty, a quien llaman un «genio matemático desconocido».»Hice un perfil de Claude en Scientific American en 1990 después de visitar los Shannons en 1989. A continuación se muestra una versión editada de ese perfil, seguida de extractos editados de nuestra entrevista. Ver más información para enlaces a la obra maestra poética de Shannon, «Una rúbrica sobre los cubos de Rubik», y otros artículos relacionados con la teoría de la información. – John Horgan

Claude Shannon no podía quedarse quieto. Estábamos sentados en la sala de estar de su casa al norte de Boston, un edificio llamado Entropy House, y estaba tratando de que recordara cómo se le ocurrió la teoría de la información. Shannon, de 73 años de edad, con una sonrisa tímida y el pelo cubierto de nieve, estaba cansada de vivir en su pasado. Quería enseñarme sus artilugios.

Sobre las suaves protestas de su esposa, Betty, saltó de su silla y desapareció en otra habitación. Cuando lo alcancé, me mostró con orgullo sus siete máquinas de ajedrez, un pogo a gasolina, una navaja de cien hojas, un monociclo de dos asientos y muchas otras maravillas.

Algunas de sus creaciones personales such como un ratón mecánico que navega por un laberinto, un W. C. El maniquí Fields y una computadora que calcula en números romanos were estaban polvorientos y en mal estado. Pero Shannon parecía tan encantada con sus juguetes como un niño de 10 años en la mañana de Navidad.

¿Es este el hombre que, en los Laboratorios Bell en 1948, escribió «Una Teoría Matemática de la Comunicación», la Carta Magna de la era digital? Cuyo trabajo Robert Lucky, director ejecutivo de investigación de AT& T Bell Laboratories, ha llamado el más grande » en los anales del pensamiento tecnológico?»

Sí. El inventor de la teoría de la información también inventó un disco volador propulsado por cohetes y una teoría de malabares, y todavía es recordado en los Laboratorios Bell por hacer malabares mientras montaba un monociclo por los pasillos. «Siempre he perseguido mis intereses sin tener mucho en cuenta el valor financiero o el valor para el mundo», dijo Shannon alegremente. «He pasado mucho tiempo en cosas totalmente inútiles.»

El deleite de Shannon en abstracciones matemáticas y artilugios surgió durante su infancia en Michigan, donde nació en 1916. Jugó con kits de radio y sets de montaje y disfrutó resolviendo rompecabezas matemáticos. «Siempre me interesó, incluso de niño, la criptografía y cosas de ese tipo», dijo Shannon. Una de sus historias favoritas fue «El insecto Dorado», un misterio de Edgar Allan Poe sobre un misterioso mapa encriptado.

Como estudiante en la Universidad de Michigan, Shannon se especializó en matemáticas e ingeniería eléctrica. En su tesis de maestría del MIT, mostró cómo un álgebra inventado por el matemático británico George Boole, que trata conceptos como «si X o Y sucede, pero no Z, entonces Q resulta», podría representar el funcionamiento de interruptores y relés en circuitos electrónicos.

Las implicaciones del trabajo fueron profundas: los diseños de circuitos se podían probar matemáticamente antes de ser construidos en lugar de a través de tediosos ensayos y errores. Los ingenieros ahora diseñan rutinariamente hardware y software, redes telefónicas y otros sistemas complejos con la ayuda del álgebra booleana. («Siempre me ha encantado esa palabra, booleana», dijo Shannon.)

Después de obtener su doctorado en el MIT, Shannon fue a los Laboratorios Bell en 1941. Durante la Segunda Guerra Mundial, ayudó a desarrollar sistemas de encriptación, que inspiraron su teoría de la comunicación. Al igual que los códigos protegen la información de miradas indiscretas, se dio cuenta, para que puedan protegerla de la estática y otras formas de interferencia. Los códigos también podrían utilizarse para empaquetar la información de manera más eficiente.

«Lo primero que pensé», dijo Shannon, » fue cómo mejorar la transmisión de información a través de un canal ruidoso. Este era un problema específico, en el que uno piensa en un sistema de telégrafo o un sistema telefónico. Pero cuando empiezas a pensar en eso, empiezas a generalizar en tu cabeza sobre todas estas aplicaciones más amplias.»

La pieza central de su artículo de 1948 fue su definición de información. Eludiendo las preguntas sobre el significado (que su teoría «no puede y no tenía la intención de abordar»), demostró que la información es una mercancía medible. En términos generales, la información de un mensaje es proporcional a su improbabilidad its o a su capacidad de sorprender a un observador.

Shannon también relacionó la información con la entropía, que en termodinámica denota la aleatoriedad de un sistema, o «confusión», como algunos físicos lo pusieron. Shannon definió la unidad básica de información, que un colega de Bell Labs denominó unidad binaria o»bit», como un mensaje que representa uno de dos estados. Uno podía codificar mucha información en pocos bits, al igual que en el viejo juego «Veinte preguntas», uno podía concentrarse rápidamente en la respuesta correcta a través de preguntas hábiles.

Shannon demostró que cualquier canal de comunicaciones tiene una capacidad máxima para transmitir información de forma fiable. En realidad, demostró que, aunque uno puede acercarse a este máximo a través de una codificación inteligente, nunca puede alcanzarlo. El máximo ha llegado a conocerse como el límite de Shannon.

El documento de Shannon de 1948 estableció cómo calcular el límite de Shannon, pero no cómo abordarlo. Shannon y otros asumieron ese desafío más tarde. El primer paso fue eliminar la redundancia del mensaje. Al igual que un Romeo lacónico puede transmitir su mensaje con un simple «i lv u», un buen código primero comprime la información en su forma más eficiente. Un llamado código de corrección de errores agrega la redundancia suficiente para garantizar que el mensaje despojado no esté oscurecido por el ruido.

Las ideas de Shannon eran demasiado proféticas para tener un impacto inmediato. No fue hasta principios de la década de 1970 que los circuitos integrados de alta velocidad y otros avances permitieron a los ingenieros explotar plenamente la teoría de la información. Hoy en día, los conocimientos de Shannon ayudan a dar forma a prácticamente todas las tecnologías que almacenan, procesan o transmiten información en forma digital.

Al igual que la mecánica cuántica y la relatividad, la teoría de la información ha cautivado a audiencias más allá de la que estaba destinada. Los investigadores en física, lingüística, psicología, economía, biología, incluso música y artes buscaron aplicar la teoría de la información en sus disciplinas. En 1958, una revista técnica publicó un editorial, «Teoría de la información, Fotosíntesis y Religión», deplorando esta tendencia.

Aplicar la teoría de la información a los sistemas biológicos no es tan descabellado, según Shannon. «El sistema nervioso es un sistema de comunicación complejo, y procesa la información de formas complicadas», dijo. Cuando se le preguntó si pensaba que las máquinas podían «pensar», respondió: «Puedes apostar. Yo soy una máquina y tú eres una máquina, y ambos pensamos, ¿no?»

En 1950 escribió un artículo para Scientific American sobre máquinas de ajedrez, y sigue fascinado por el campo de la inteligencia artificial. Las computadoras todavía «no están a la altura del nivel humano» en términos de procesamiento de información en bruto. La simple reproducción de la visión humana en una máquina sigue siendo una tarea formidable. Pero » es ciertamente plausible para mí que en unas pocas décadas las máquinas estarán más allá de los humanos.»

En los últimos años, la gran obsesión de Shannon ha sido hacer malabares. Ha construido varias máquinas de malabares e ideado una teoría de malabares: Si B es igual al número de bolas, H el número de manos, D el tiempo que cada bola pasa en una mano, F el tiempo de vuelo de cada bola, y E el tiempo que cada mano está vacía, entonces B/H = (D + F)/(D + E). (Desafortunadamente, la teoría no podía ayudar a Shannon a hacer malabares con más de cuatro bolas a la vez.)

Después de dejar Bell Labs en 1956 para ir al MIT, Shannon publicó poco sobre teoría de la información. Algunos antiguos colegas de Bell sugirieron que se cansó del campo que creó. Shannon negó esa afirmación. Se había interesado en otros temas, como la inteligencia artificial, dijo. Continuó trabajando en teoría de la información, pero consideró que la mayoría de sus resultados no eran dignos de publicación. «La mayoría de los grandes matemáticos han hecho su mejor trabajo cuando eran jóvenes», observó.

Hace décadas, Shannon dejó de asistir a reuniones de teoría de la información. Sus colegas dijeron que sufría de grave pánico escénico. Pero en 1985 hizo una aparición inesperada en una conferencia en Brighton, Inglaterra, y los organizadores de la reunión lo persuadieron para hablar en un banquete de cena. Habló unos minutos. Luego, temiendo que aburriera a su público, sacó tres bolas de sus bolsillos y comenzó a hacer malabares. El público aplaudió y se puso en fila para autógrafos. Un ingeniero recordó: «Era como si Newton hubiera aparecido en una conferencia de física.»

EXTRACTOS DE LA ENTREVISTA A SHANNON, 2 DE NOVIEMBRE DE 1989.

Horgan: Cuando comenzó a trabajar en teoría de la información, ¿tenía un objetivo específico en mente?

Shannon: Lo primero que pensé fue: Cómo reenviar mejor las transmisiones en un canal ruidoso, algo así. Ese tipo de problema específico, en el que piensas en ellos en un sistema de telégrafo o un sistema telefónico. Pero cuando empiezo a pensar en eso, empiezas a generalizar en tu cabeza todas las aplicaciones más amplias. Así que casi todo el tiempo, estaba pensando en ellos también. A menudo expresaría las cosas en términos de un canal muy simplificado. Sí o no o algo así. Así que tuve todos estos sentimientos de generalidad muy temprano.

Horgan: Leí que John Von Neumann sugirió que usaras la palabra «entropía» como medida de información porque nadie entiende la entropía y así puedes ganar argumentos sobre tu teoría.

Shannon: Suena como el tipo de comentario que podría haber hecho como una broma speaking Hablando groseramente, la cantidad de información es cuánto caos hay en el sistema. Pero las matemáticas salen bien, por así decirlo. La cantidad de información medida por entropía determina cuánta capacidad dejar en el canal.

Horgan: ¿Se sorprendió cuando la gente intentó usar la teoría de la información para analizar el sistema nervioso?

Shannon: Eso no es tan extraño si se argumenta que el sistema nervioso es un sistema de comunicación complejo, que procesa la información de formas complicadas, principalmente sobre lo que escribí fue comunicarme de un punto a otro, pero también pasé mucho tiempo transformando la información de una forma a otra, combinando la información de formas complicadas, lo que hace el cerebro y las computadoras ahora. Así que todas estas cosas son una especie de generalización de la teoría de la información, donde se habla de trabajar para cambiar su forma de una forma u otra y combinarla con otras, en contraste con llevarla de un lugar a otro. Así que, sí, todas esas cosas las veo como una especie de ampliación de la teoría de la información. Tal vez no debería llamarse teoría de la información. Tal vez debería llamarse «transformación de la información» o algo así.

Horgan: Scientific American tuvo un número especial sobre comunicaciones en 1972. John Pierce dijo en el artículo introductorio que su trabajo podría ampliarse para incluir significado .

Shannon: El significado es algo bastante difícil de entender In En matemáticas, física, ciencia y demás, las cosas tienen un significado, sobre cómo se relacionan con el mundo exterior. Pero por lo general se ocupan de cantidades muy medibles, mientras que la mayor parte de nuestra conversación entre humanos no es tan medible. Es una cosa muy amplia que trae todo tipo de emociones en tu cabeza cuando escuchas las palabras. Por lo tanto, no creo que sea tan fácil abarcar eso en una forma matemática.

Horgan: La gente me ha dicho que a finales de la década de 1950, te cansaste de la teoría de la información.

Shannon: No es que estuviera cansada de eso. Es que estaba trabajando en algo diferente… Estaba jugando con máquinas para hacer cálculos. Eso ha sido más de mi interés que la teoría de la información en sí. La idea de la máquina inteligente.

Horgan: ¿Le preocupa que las máquinas se hagan cargo de algunas de nuestras funciones?

Shannon: Las máquinas pueden ser capaces de resolver muchos de los problemas que nos hemos preguntado y reducir nuestro problema de trabajo de baja categoría If Si estás hablando de las máquinas que se hacen cargo, no estoy realmente preocupado por eso. Creo que mientras los construyamos, no se harán cargo.

Horgan: ¿Alguna vez sintió presión sobre usted, en los Laboratorios Bell, para trabajar en algo más práctico?

Shannon: No. Siempre he perseguido mis intereses sin tener mucho en cuenta el valor financiero o el valor para el mundo. He estado más interesado en saber si un problema es emocionante que en lo que hará. spent He pasado mucho tiempo en cosas totalmente inútiles.

Lectura adicional:

¿La Teoría Integrada de la Información Puede Explicar la Conciencia?

Por qué la información no puede ser la base de la realidad

Obra maestra poética de Claude Shannon, padre de la teoría de la información

Teorema de Bayes: ¿Cuál es el problema?

Related Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *