A Aldeia Numaboa ancestral ainda está disponível para visitação. É a versão mais antiga da Aldeia que eu não quis simplesmente descartar depois de mais de 10 milhões de pageviews. Como diz a Sirley, nossa cozinheira e filósofa de plantão: "Misericórdia, ai que dó!"

Se você tiver curiosidade, o endereço é numaboa.net.br.

Leia mais...

Criptografia Numaboa

Claude Elwood Shannon

Sab

25

Nov

2006


11:19

(37 votos, média 4.51 de 5) 


A capacidade de transmitir digitalmente a voz, as imagens e os dados usando bits e bytes e enviando-os através de linhas telefônicas, cabos, satélites e da Internet, deve-se a um gênio criador que, há pouco mais de 50 anos, lançou as bases de uma teoria matemática da comunicação.

Shannon
Claude Elwood Shannon
(1916-2001)

Em 1948, Claude Elwood Shannon conseguiu um feito raramente repetido na história da ciência: com um trabalho intitulado Uma Teoria Matemática da Comunicação, publicado no Bell System Technical Journal, abriu uma área nova e inédita na matemática. Esta área surgiu essencialmente completa, com as definições e conceitos básicos formulados, com os teoremas e resultados fundamentais já estabelecidos e, o mais espantoso, sem precedentes visíveis na literatura existente na época. Raras vezes isso acontece, pois os avanços da ciência, mesmo que geniais, podem habitualmente se referir a problemas há muito discutidos, a teorias em gestação e a descobertas precedentes. O próprio Newton, ao criar a física moderna, disse ter podido ver mais longe por ter-se alçado aos ombros de gigantes. Referia-se assim às descobertas e aos trabalhos de Copérnico, Galileu, Kepler e outros.

O trabalho que Shannon publicado em 1948 apareceu de forma totalmente inesperada e veio a ter um alcance que os seus contemporâneos, e talvez até o próprio Shannon, não conseguiram vislumbrar naquele momento. Foi um dos raros passos decisivos, inesperados e globais que até hoje se registaram na história da ciência.

Claude Elwood Shannon nasceu em Petoskey, no estado de Michigan, EUA, em 30 de Abril de 1916. O pai era descendente de pioneiros que haviam se estabelecido em Nova Jersey e a mãe, filha de imigrantes alemães. Manifestou desde jovem uma grande inclinação para a mecânica - construía modelos de aviões, miniaturas de barcos com controle remoto e até mesmo um telégrafo, com o qual se comunicava com os vizinhos. Na escola, mostrou grande inclinação para as ciências e para a matemática. Frequentou depois a universidade de Michigan, onde a liberdade de escolha de cadeiras do sistema norte-americano lhe permitiu obter uma dupla licenciatura, em Engenharia Eletrotécnica e em Matemática. Continuou os seus estudos no Massachusetts Institute of Technology (MIT), onde trabalhou com Vannevar Bush (1890-1974) na construção do analisador diferencial, um pioneiro mecânico dos computadores analógicos e que era o sistema automático de cálculo mais potente da época.

A grande idéia

Interessado em problemas da computação, estudou álgebra booleana, a álgebra de cálculo lógico baseada na dicotomia zero-um (falso-verdadeiro). No intervalo da atividade acadêmica trabalhou nos célebres Laboratórios Bell, onde estudou problemas de comunicação elétrica. Teve então a idéia pioneira de reduzir o conteúdo da informação a sequências de zeros e uns e de tratá-la segundo as regras da lógica de Boole. "Até hoje, ninguém tinha sequer se aproximado dessa idéia", disse mais tarde seu colega Robert Gallager, "foi um avanço que, sem ele, teria demorado muito a ser conseguido". A idéia foi desenvolvida na sua tese de mestrado de 1938, premiada e publicada numa revista científica. São apenas 11 páginas, mas condensadas com as inovações essenciais, e sem rodeios nem repetições.

Concluído o mestrado, Vannevar Bush sugeriu-lhe que continuasse os estudos no departamento de matemática do MIT. Percebeu então que a genética era um ramo científico com grande potencial de tratamento matemático. Sempre interessado nas aplicações, concluiu uma tese de doutoramento sobre Uma Álgebra da Genética Teórica. Apesar da sua notória dificuldade com línguas estrangeiras, exigidas para a graduação, Shannon consegue seus graus de mestre em Engenharia Eletrotécnica e de doutor em Matemática em 1940.

Terminados os estudos, Dr. Shannon foi trabalhar para o Instituto de Estudos Avançados de Princeton com o matemático Hermann Weyl (1885-1955). Passou depois para os Bell Labs, em Nova Jersey, onde trabalhavam muitos cientistas extraordinários, como John Pierce, um dos criadores da comunicação por satélite, Harry Nyquist, pioneiro do tratamento de sinais, e os inventores do transístor, Brattain, Bardeen e Scockley. Trabalhou em várias áreas: sistemas automáticos de defesa aérea, sensores ópticos, criptografia e, acima de tudo, teoria da informação.

Teoria matemática da comunicação

No seu trabalho Uma Teoria Matemática da Comunicação, publicado em 1948, Shannon desenvolve a teoria da informação e transmissão de sinais digitais, baseados em sequências de zeros e uns. É aí que define "o problema fundamental da comunicação como o de reproduzir num local, de forma aproximada ou exata, uma mensagem selecionada noutro local". Estabeleceu então o esquema de transmissão de informação hoje clássico, com uma mensagem que parte de uma fonte, é codificada e emitida por um transmissor, passa por um canal de comunicação, sofre perturbações designadas por ruídos, e chega depois ao receptor, passando por um sistema de decodificação. Ao falar de "uma mensagem selecionada", Shannon refere-se a uma sequência informativa que pode ser escolhida entre muitas outras, que aparecerão com iguais ou diferentes probabilidades. Define então a quantidade de informação com base na sua incerteza ou dificuldade de previsão.

Entropia

Suponha, por exemplo, que um emissor transmita a mensagem "bom dia", letra por letra. Ao emitir as primeiras letras, há uma expectativa da parte do receptor, que vê surgir as letras "b", "o", "m", um espaço, e depois "d" e o "i". O "a" final é quase inútil, pois sua probabilidade de ocorrência é tão grande, para dar sentido à sequência anterior, que a quantidade de informação transmitida por essa letra é muito menor que a transmitida pelas primeiras. Para medir a quantidade de informação, Shannon criou o conceito de entropia, diferente do conceito homônimo encontrado em termodinâmica. Porque esta denominação foi escolhida? Ao que parece, foi o matemático norte-americano de origem húngara, John von Neumann (1903-1957), quem sugeriu este termo. Teria dito, ironicamente, "deve chamá-la de 'entropia' por duas razões: primeiro, porque essa mesma função matemática já é utilizada em termodinâmica, com esse nome; segundo, e mais importante, porque pouca gente sabe realmente o que é entropia e, se usar esse termo numa discussão, sairá sempre ganhando."

O impacto nas transmissões

Com o conceito de entropia pode-se definir a quantidade de informação transmitida e os limites ótimos de compressão dessa informação. Em 1948, quando Shannon anunciou a sua nova teoria matemática, o cabo elétrico de "banda mais larga" então existente podia transmitir 1800 conversas telefônicas simultâneas. 25 anos mais tarde, um cabo telefônico podia transmitir 230 mil conversas simultâneas. Hoje, uma nova fibra ótica da Lucent (Bell Labs), com a espessura de um cabelo humano, pode comportar 6,4 milhões de conversas. No entanto, mesmo com esta largura de banda, os limites teóricos de capacidade de canal determinados por Shannon estão muito além dos praticados. Os engenheiros sabem que ainda há muito o que melhorar.

Conhecendo a capacidade de um canal usando os conceitos da Teoria da Informação de Shannon, pode-se melhorar a transferência de um sinal e filtrar o ruído, alcançando uma confiabilidade maior. O meio mais simples de contornar o ruído é a repetição. Shannon demonstrou que, numa transmissão em que os erros acontecem com determinada probabilidade, pode-se diminuir a probabilidade de erro até ao ponto desejado introduzindo redundância na informação. Para isso, enquanto o canal estiver funcionando abaixo da sua capacidade teórica, o caminho consiste em melhorar a codificação, dando-lhe uma forma mais compacta, e em introduzir sistemas de correção de erro. Um destes sistemas é o concebido pelo matemático norte-americano Richard W. Hamming (1915-1998) em 1950, atualmente utilizado na transmissão de pacotes digitais de informação com bits adicionais de controle em cada "palavra" base (byte).


O professor menino

Labirinto

Em 1956, mantendo seu trabalho nos laboratórios da Bell, Shannon aceitou o cargo de professor no MIT, atividade que exerceu durante muitos anos. Seus alunos lembram-se dele como sendo "um espírito matemático por excelência". No quadro negro "escrevia poucas fórmulas e falava muito". Preocupava-se com os conceitos e simplificava ao máximo a simbologia. Onde outros professores poriam símbolos e mais símbolos, índices e mais índices, Shannon colocava duas ou três letras e incentivava os alunos a perceber as relações matemáticas que essas letras traduziam.

Gênio matemático que combinava a intuição, a abstracção e as aplicações, Claude Shannon tinha como passatempos andar de monociclo e construir máquinas aparentemente inúteis. Construiu várias máquinas de jogar xadrez, um autômato que procurava a saída num labirinto e aquela a que chamou de "máquina final". Nela, via-se apenas um interruptor. Ligando-o, o aparelho emitia um som zangado e dele emergia uma mão mecânica que desligava o interruptor, terminando a brincadeira.

Era um espírito irrequieto. "Apenas gosto de ver como as coisas funcionam", dizia. John Horgan, que há poucos anos o entrevistou para o Scientific American, disse que o matemático "não conseguia ficar parado" e que, quando lhe perguntou como tinha criado a teoria da informação, Shannon respondeu: "Não quer ver as minhas máquinas antes?".

A teoria da comunicação de sistemas secretos

Shannon estendeu a sua Teoria Matemática da Comunicação ao campo da criptologia. Escreveu um ensaio, denominado "Teoria Matemática de Sistemas Secretos", que nunca foi publicado. Seu trabalho de 60 páginas merece um destaque especial porque condensa conceitos e definições essenciais e de grande impacto. Minha homenagem à grande figura de Shannon vai sob a forma da tradução do seu texto. Não pedi autorização porque não sei a quem me dirigir.

Postscriptum de Jiejun Kong

Muitos trabalhos morrem antes dos seus autores. Entretanto, alguns textos serão lidos e servirão de referência até que se tornem parte das nossas vidas. Desta forma, viverão para sempre.

Claude Elwood Shannon faleceu no sábado, 24 de Fevereiro de 2001, no Courtyard Nursing Care Center em Medford, Massachusetts. Ele estava com 84 anos. Apesar de ter deixado este mundo, acredito que o mesmo não acontecerá com o seu texto clássico Communication Theory of Secrecy Systems.

Trabalho na área de segurança de redes e o trabalho de Shannon sempre me fascinou. Recentemente, fiquei chocado ao constatar que este texto não possui uma versão na colossal Internet. A única coisa que as pessoas podiam obter era um conjunto de imagens JPEG escaneadas de fotocópias (veja Mad Cow Cryptography Page). Então, aqui está minha homenagem póstuma a este grande homem. Tomou-me muito tempo escrever e revisar todo o conteúdo do seu trabalho de 60 páginas. Enquanto digitava, convenci-me de que sua genialidade compensou todo o tempo e o esforço que dispendi.

Apesar de que algumas palavras não sejam exatamente as mesmas da cópia original, posso assegurar que o conteúdo, a numeração das páginas, a localização dos teoremas, figuras e notas de rodapé, etc, estão corretos.

Um viva ao Dr. Shannon e obrigado por ler este postscriptum.

Jiejun Kong 06 de Julho de 2002

Fontes e Referências

Na seção de downloads/criptografia/papers da Aldeia você encontra a versão em pdf do trabalho de Shannon.

игровые автоматы fruit cocktail бесплатнобакелитовая ручкаЛобановский топодинпоследние свежие новости донецкаооо полигон харьковполигон ооо

Informações adicionais