profil av Claude Shannon, uppfinnare av informationsteori

ingen forskare har en inverkan till berömmelse förhållande större än Claude Elwood Shannon, skaparen av informationsteori. Shannon, som dog 2001 vid 84 års ålder, får sin grund i en fantastisk ny biografi, A Mind at Play: How Claude Shannon Invented the Information Age, av Jimmy Soni och Rob Goodman. De publicerade bara en stor vetenskaplig amerikansk kolumn om Shannons fru Betty, som de kallar ett ”okänt matematiskt geni.”Jag profilerade Claude i Scientific American 1990 efter att ha besökt Shannons 1989. Nedan följer en redigerad version av den profilen, följt av redigerade utdrag från vår intervju. Se vidare läsning för länkar till Shannons poetiska mästerverk, ”en rubrik på Rubik Cubics” och andra inlägg relaterade till informationsteori. – John Horgan Claude Shannon kunde inte sitta still. Vi satt i vardagsrummet i hans hem norr om Boston, en byggnad som heter Entropy House, och jag försökte få honom att komma ihåg hur han kom med informationsteori. Shannon, som är en pojkaktig 73, med ett blygt flin och snöigt hår, var trött på att bo på sitt förflutna. Han ville visa mig sina prylar.

över hans fru Bettys milda protester hoppade han från sin stol och försvann in i ett annat rum. När jag kom ikapp med honom visade han stolt mig sina sju schackspelmaskiner, bensindriven pogo-stick, hundrabladig jackknife, tvåsitsig Enhjuling och otaliga andra underverk.

några av hans personliga skapelser – som en mekanisk mus som navigerar i en labyrint, en jonglering W. C. Fält skyltdocka och en dator som beräknar i romerska siffror-var dammiga och i förfall. Men Shannon verkade lika nöjd med sina leksaker som en 10-årig på Julmorgonen.

är det här mannen som på Bell Labs 1948 skrev ”en matematisk kommunikationsteori”, Magna Carta i den digitala tidsåldern? Vems arbete Robert Lucky, verkställande direktör för forskning vid AT &T Bell Laboratories, har kallat den största ” i annalerna för teknisk tanke?”

Ja. Uppfinnaren av informationsteori uppfann också en raketdriven Frisbee och en teori om jonglering, och han kommer fortfarande ihåg på Bell Labs för jonglering medan han körde en Enhjuling genom salarna. ”Jag har alltid eftersträvat mina intressen utan mycket hänsyn till ekonomiskt värde eller värde för världen”, sa Shannon glatt. ”Jag har spenderat mycket tid på helt värdelösa saker.”Shannons glädje i matematiska abstraktioner och prylar uppstod under hans barndom i Michigan, där han föddes 1916. Han spelade med radiosatser och erector-uppsättningar och tyckte om att lösa matematiska pussel. ”Jag var alltid intresserad, även som pojke, i kryptografi och saker av den typen,” sa Shannon. En av hans favorithistorier var ”The Gold Bug”, ett Edgar Allan Poe-mysterium om en mystisk krypterad karta.

som grundutbildning vid University of Michigan studerade Shannon matematik och elektroteknik. I sin mit-magisteruppsats visade han hur en algebra som uppfanns av den brittiska matematikern George Boole—som behandlar sådana begrepp som ”om X eller Y händer men inte Z, då Q—resultat” – kunde representera arbetet med omkopplare och reläer i elektroniska kretsar.

implikationerna av papperet var djupa: Kretsdesigner kunde testas matematiskt innan de byggdes snarare än genom tråkiga försök och fel. Ingenjörer designar nu rutinmässigt hårdvara och mjukvara, telefonnät och andra komplexa system med hjälp av Boolesk algebra. (”Jag har alltid älskat det ordet, Boolean,” sa Shannon.)

Efter att ha doktorerat vid MIT gick Shannon till Bell Laboratories 1941. Under andra världskriget hjälpte han till att utveckla krypteringssystem, vilket inspirerade hans kommunikationsteori. Precis som koder skyddar information från nyfikna ögon, insåg han, så att de kan skydda den från statiska och andra former av störningar. Koderna kan också användas för att paketera information mer effektivt.

”mitt första tänkande om,” sa Shannon, ” var hur du bäst förbättrar informationsöverföringen via en bullrig kanal. Detta var ett specifikt problem, där du tänker på ett telegrafsystem eller ett telefonsystem. Men när du tänker på det börjar du generalisera i ditt huvud om alla dessa bredare applikationer.”

mittpunkten i hans papper från 1948 var hans definition av information. Sidestepping frågor om mening (som hans teori ”inte kan och inte var avsedd att ta itu med”) visade han att information är en mätbar vara. Grovt sett är meddelandets information proportionell mot dess osannolikhet – eller dess förmåga att överraska en observatör.Shannon relaterade också information till entropi, som i termodynamik betecknar ett systems slumpmässighet, eller ”shuffledness”, som vissa fysiker uttryckte det. Shannon definierade den grundläggande informationsenheten-som en Bell Labs-kollega kallade en binär enhet eller”bit” – som ett meddelande som representerar en av två stater. Man kan koda massor av information i några bitar, precis som i det gamla spelet ”tjugo frågor” man kunde snabbt noll på rätt svar genom skickliga förhör.

Shannon visade att en viss kommunikationskanal har en maximal kapacitet för tillförlitligt överföring av information. Faktiskt, han visade att även om man kan närma sig detta maximum genom smart kodning, man kan aldrig riktigt nå det. Det maximala har blivit känt som Shannon-gränsen.Shannons papper från 1948 fastställde hur man beräknar Shannon-gränsen – men inte hur man närmar sig den. Shannon och andra tog upp den utmaningen senare. Det första steget var att eliminera redundans från meddelandet. Precis som en lakonisk Romeo kan få sitt budskap med enbart ”i lv u”, komprimerar en bra kod först information till sin mest effektiva form. En så kallad felkorrigeringskod lägger till tillräckligt med redundans för att säkerställa att det avskalade meddelandet inte döljs av buller.

Shannons tankar var alltför förutseende för att få en omedelbar inverkan. Inte förrän i början av 1970-talet gjorde höghastighets integrerade kretsar och andra framsteg tillåter ingenjörer att fullt ut utnyttja informationsteori. Idag hjälper Shannons insikter till att forma praktiskt taget all teknik som lagrar, bearbetar eller överför information i digital form.liksom kvantmekanik och relativitet har informationsteori fängslat publiken utöver den som den var avsedd för. Forskare inom fysik, lingvistik, psykologi, ekonomi, biologi, till och med musik och konst försökte tillämpa informationsteori i sina discipliner. 1958 publicerade en Teknisk Tidskrift en redaktionell, ”informationsteori, fotosyntes och Religion”, som beklagade denna trend.

att tillämpa informationsteori på biologiska system är inte så långsökt, enligt Shannon. ”Nervsystemet är ett komplext kommunikationssystem, och det bearbetar information på komplicerade sätt,” sa han. På frågan om han trodde maskiner kunde ” tänka, ”svarade Han:” du satsar. Jag är en maskin och du är en maskin, och vi tror båda, eller hur?”

1950 skrev han en artikel för Scientific American on chess-playing machines, och han är fortfarande fascinerad av området artificiell intelligens. Datorer är fortfarande” inte upp till den mänskliga nivån ännu ” när det gäller rå informationsbehandling. Att bara replikera mänsklig vision i en maskin är fortfarande en formidabel uppgift. Men ” det är verkligen troligt för mig att om några decennier kommer maskiner att vara bortom människor.”under de senaste åren har Shannons stora besatthet jonglerat. Han har byggt flera jongleringsmaskiner och utarbetat en teori om jonglering: om B är lika med antalet bollar, h antalet händer, d tiden varje boll spenderar i en hand, F tiden för varje boll och E tiden varje hand är tom, då B/H = (D + F)/(D + E). (Tyvärr kunde teorin inte hjälpa Shannon jonglera mer än fyra bollar på en gång.)

Efter att ha lämnat Bell Labs 1956 för MIT publicerade Shannon lite om informationsteori. Några tidigare Bell-kollegor föreslog att han tröttnade på fältet han skapade. Shannon förnekade detta påstående. Han hade blivit intresserad av andra ämnen, som artificiell intelligens, sa han. Han fortsatte att arbeta med informationsteori, men han ansåg att de flesta av hans resultat var ovärderliga för publicering. ”De flesta stora matematiker har gjort sitt finaste arbete när de var unga,” observerade han.

för årtionden sedan slutade Shannon delta i informationsteorimöten. Kollegor sa att han led av allvarlig scenskräck. Men 1985 gjorde han ett oväntat utseende vid en konferens i Brighton, England, och mötesarrangörerna övertalade honom att tala vid en middagsbankett. Han pratade i några minuter. Sedan fruktade han att han var tråkig sin publik, han drog tre bollar ur fickorna och började jonglera. Publiken jublade och ställde upp för autografer. En ingenjör påminde om: ”det var som om Newton hade dykt upp på en fysikkonferens.”

utdrag från SHANNON intervju, 2 NOVEMBER 1989.

Horgan: när du började arbeta med informationsteori, hade du ett specifikt mål i åtanke?

Shannon: mitt första tänkande om det var: Hur gör du bäst framåt sändningar i en bullrig kanal, något liknande. Den typen av ett specifikt problem, där du tänker på dem i ett telegrafsystem eller telefonsystem. Men när jag börjar tänka på det börjar du generalisera i ditt huvud alla bredare applikationer. Så nästan hela tiden tänkte jag också på dem. Jag skulle ofta formulera saker i form av en mycket förenklad kanal. Ja eller nej eller något liknande. Så jag hade alla dessa känslor av generalitet mycket tidigt.

Horgan: jag läste att John Von Neumann föreslog att du skulle använda ordet ”entropi” som ett mått på information eftersom att ingen förstår entropi och så att du kan vinna argument om din teori.

Shannon: det låter som den typ av anmärkning Jag kanske har gjort som ett skämt… grovt sett är mängden information hur mycket kaos som finns i systemet. Men matematiken kommer ut rätt, så att säga. Mängden information som mäts med entropi bestämmer hur mycket kapacitet som ska lämnas i kanalen.

Horgan: blev du förvånad när folk försökte använda informationsteori för att analysera nervsystemet?

Shannon: Det är inte så konstigt om du gör så att nervsystemet är ett komplext kommunikationssystem som bearbetar information på komplicerade sätt … mestadels vad jag skrev om kommunicerade från en punkt till en annan, men jag spenderade också mycket tid på att omvandla information från en form till en annan, kombinera information på komplicerade sätt, som hjärnan gör och datorerna gör nu. Så alla dessa saker är typ av en generalisering av informationsteori, där du pratar om att arbeta för att ändra sin form på ett eller annat sätt och kombinera med andra, i motsats till att få den från en plats till en annan. Så, ja alla de saker jag ser som ett slags en breddning av informationsteori. Kanske borde det inte kallas informationsteorin. Kanske borde det kallas” omvandling av information ” eller något liknande.

Horgan: Scientific American hade en speciell fråga om kommunikation 1972. John Pierce sa i den inledande artikeln att ditt arbete kan utvidgas till att omfatta mening .Shannon: mening är en ganska svår sak att få grepp om… i matematik och fysik och vetenskap och så vidare har saker en mening om hur de är relaterade till omvärlden. Men vanligtvis handlar de om mycket mätbara kvantiteter, medan det mesta av vårt samtal mellan människor inte är så mätbart. Det är en väldigt bred sak som tar upp alla slags känslor i ditt huvud när du hör orden. Så jag tror inte att det är så lätt att omfatta det i en matematisk form.

Horgan: folk har berättat för mig att i slutet av 1950-talet blev du trött på informationsteori.

Shannon: det är inte så att jag var trött på det. Det är att jag arbetade på en annan sak… Jag lekte med maskiner för att göra beräkningar. Det har varit mer av mitt intresse än informationsteorin själv. Den intelligenta maskinen.

Horgan: oroar du dig för att maskiner kommer att ta över några av våra funktioner?

Shannon: Maskinerna kanske kan lösa många problem vi har undrat över och minska vårt meniala arbetsproblem… om du pratar om att maskinerna tar över, är jag inte riktigt orolig för det. Jag tror att så länge vi bygger dem kommer de inte att ta över.

Horgan: har du någonsin känt något tryck på dig, på Bell Labs, för att arbeta med något mer praktiskt?

Shannon: Nej. Jag har alltid eftersträvat mina intressen utan mycket hänsyn till ekonomiskt värde eller värde för världen. Jag har varit mer intresserad av om ett problem är spännande än vad det kommer att göra. … Jag har spenderat mycket tid på helt värdelösa saker.

Vidare läsning:

kan integrerad informationsteori förklara medvetandet?

varför information inte kan ligga till grund för verkligheten

poetiskt mästerverk av Claude Shannon, fader till informationsteori

Bayes sats: Vad är Big Deal?

Related Posts

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *