UNIVERSIDADE GUARULHOS
TEORIA MATEMÁTICA DA INFORMAÇÃO TRABALHO DE ENGENHARIA DE SISTEMAS I Turma CIC 3 MA 22/10/2010
Alex Correia (RA 2009.11604.0), Daisy Santos (RA 2009.12601.1) Sara Cunha (RA 2009.13078.7)
TEORIA MATEMÁTICA DA COMUNICAÇÃO
A Teoria da Informação ou Teoria Matemática Comunicação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. A Teoria da Informação foi criado por Claude E. Shannon (1916-2001). Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente embasado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressãoe na transmissão de mensagens com ruído no canal. A moderna teoria da informação começou com duas publicações: a do artigo científico de Shannon ( “ A Mathematical Theory of Communication” – Teoria Matemática da Comunicação), no Bell System Technical Journal, em julho e outubro de 1948; e do livro de Shannon em conjunto com o engenheiro norte-americano
Warren
Weaver (1894-1978),
intitulado
“
The
Mathematical
Theory
of
Communication” – Teoria Matemática da Comunicação, contendo reimpressões do
artigo científico anterior de forma acessível, popularizando os conceitos. A reflexão teórica sobre a comunicação nasceu em conseqüência da crescente preocupação com o impacto social da chamada revolução nas comunicações. Em meados do século XX, as pesquisas sobre a natureza e o impacto dos meios de difusão de massas haviam-se posto em marcha, a propaganda tornara-se matéria de segurança nacional e os estudos sobre a linguagem haviam reenforçado-na como estrutura de comunicação, revelando, isso tudo, a necessidade de fundamentar teoricamente não só o conceito, mas o próprio campo de estudo de comunicação. A solução do problema foi encontrada no modelo teórico proposto, mais ou menos à mesma época, por Shannon e Weaver. A denominada teoria matemática da informação permitiu-lhes desenvolver o conceito da coisa como processo de transmissão de mensagens de um emissor para um
receptor que, dado o cunho puramente formal, tornou-se possível seu seu emprego nos mais diversos ramos do conhecimento. Para os autores, a problemática da comunicação pode ser equacionada em três níveis: o técnico, o semântico e o pragmático; resolvendo-se o primeiro, soluciona-se o conjunto. O problema semântico, refere-se ao significado das informações; o problema pragmático refere-se à capacidade das informações modificarem o comportamento das pessoas: podemos reduzi-los porém ao problema da precisão com que se processa a transmissão de informações do emissor para o receptor, na medida em que se compreende por informação todo sinal capaz de provocar reações no comportamento de um dado sistema. Noutros termos, a problemática da interação se reduz ao problema da transmissão de informação, tem a ver com o estabelecimento das condições necessárias para otimização da transferência de mensagens do emissor para o receptor, diz respeito à capacidade do canal conduzir as informações sem ruído para o destinatário, capacidade essa que é passível de definição técnica. Shannon demonstrou que letras e palavras, escolhidas ao acaso, postas em seqüência e ditadas exclusivamente por considerações de probabilidade (depois das palavras "no caso", a probabilidade da próxima ser "de" é muito grande), tendem a formar palavras e frases significativas. Assim, a informação deve ser medida pela entropia. Se uma situação é altamente organizada, a informação, ou a entropia, é baixa. A teoria matemática da comunicação está preocupada, não com o significado de mensagens individuais, mas com a natureza estatística da fonte de informação. No processo de transmissão do sinal, é infelizmente característico que certas coisas não pretendidas pela fonte de informação sejam acrescidas. Essas alterações no sinal podem ser chamadas de ruído. A incerteza que decorre da liberdade de escolha da parte do emissor é uma incerteza desejável. A incerteza que decorre de erros ou da influência de ruído é uma incerteza indesejável. Para obtermos a informação útil do sinal recebido, precisamos subtrair a porção espúria.
Shannon demonstrou que cada canal tem uma capacidade e uma quantidade limite de informações transmitidas. A partir de um certo ponto, a mensagem começa a ser dominada pelos ruídos que prejudicam a rec epção. É interessante observar que enquanto a informação significa variedade, novidade, a redundância significa falta de variedade ou simplesmente repetição. A redundância da língua inglesa é de cerca de 50 por cento. Em outras palavras, cerca da metade das letras ou palavras que escolhemos, ao escrever ou falar, é de nossa livre escolha e cerca de metade é realmente controlada pela estrutura estatística da língua. Com isso, é possível economizar tempo de telégrafo, embora manter a redundância pode ser vantajoso pois ajuda a combater o ruído. Obs.: devemos levar em consideração não só a capacidade do canal, como também a capacidade da audiência para não sobrecarregá-la. Shannon e Weaver desenvolveram um modelo linear para o sistema geral da comunicação. Verificaram o processo de comunicação entre dois telefones:
O objetivo era otimizar o custo de uma mensagem transmitida entre dois pontos, em presença de perturbação aleatória (denominada Ruído), que impede o isomorfismo (que a mensagem inicial chegue de maneira idêntica a seu destino), a plena correspondência entre os dois pólos. Os pesquisadores pretendiam encontrar a melhor maneira de transmitir as msgs a um custo mais baixo. A proposição desse modelo teórico tinha por objetivo responder a três questões, que são interdependentes. 1 – Qual a acuidade de uma transmissão de sinais? 2 – Qual o grau de nitidez com que os sinais transmitidos veiculam os significados desejados? 3 – Qual a eficiência/eficácia dos significados captados/assimilados no comportamento do receptor? E no que diz respeito à finalidade desejada e prevista pelo emissor/fonte de informação? O modelo buscava a solução de ordem técnica, até porque para engenheiros de telecomunicações pode ser irrelevante o conteúdo de uma mensagem. O que a eles pode interessar diz respeito ao tempo em que uma linha permanece ocupada, podem querer saber qual a distância entre o início e o fim do processo de transferência; ou, ainda, determinar o grau de nitidez dos sinais vocais ao telefone, etc. Seu interesse concentrava-se nas características morfológicas do sinal/mensagem e na nitidez com que ocorra sua transmissão. Como, portanto, transmitir o máximo de teor informativo pela utilização competente de um canal, combatendo-se o ruído (sinais parasitários que prejudicam a captação e o entendimento de uma mensagem???) Como avaliar a capacidade de um canal em veicular informação? Como fazer para que a informação, proveniente de uma fonte, atinja um destinatário, produzindo efeitos por ela previsto e intentados. Como conciliar baixo custo e lato rendimento em matéria informacional?
Shannon e Weaver pressupõem que haja sentido (informação orientada) em uma mensagem. Bastará que se aperfeiçoe a codificação para que aumente a propriedade semântica da mensagem e, assim, possam ser adequadamente respondidas as perguntas 2 e 3, que fizemos antes. Em sua concepção original, esse modelo se destinada à estimativa da quantidade da informação transmitida, tomando-se por referência a improbabilidade estatística de aparecimento de certas mensagens sem levar em conta os seus sentidos.
Bibliografia:
RÜDIGER, Francisco. Introdução à Teoria da Comunicação. São Paulo, Edicon, 1998. EPSTEIN, Isaac. Teoria da Informação. São Paulo. Ed. Ática, 1988. www.portal.ufra.edu.br