Teoria informacji

Teoria informacji bada całokształt zagadnień związanych z wymianą i przetwarzaniem informacji. Sformułował ją w głównych zarysach C. Shannon w łatach 1942-1948. W cybernetyce nadaje się informacji znacznie szersze znaczenie niż w życiu codziennym, gdzie jest ona równoznaczna z przekazaniem wiadomości. Natomiast w cybernetyce informacja jest miarą uporządkowania elementów i struktury układu. Zbudowane przez człowieka urządzenia przedstawiają zwiększenie uporządkowania, a więc także i zwiększenie informacji w otaczającym nas świecie. Między uporządkowaniem a informacją istnieje jednoznaczna odpowiedniość. Przyroda biernie przeciwstawia się zwiększeniu uporządkowania, a więc i zwiększeniu ilości informacji. To działanie przyrody przejawia się w zniekształcaniu sygnałów radiowych, niszczeniu maszyn i budowli nawet nie używanych itp. Sygnał będący szumem, podobnie jak i chaos, nie zawiera żadnej informacji. Człowiek, dążąc do uporządkowania, walczy z chaosem. W celu zapisania informacji lub nadania jej postaci sygnału, wprowadzono w teorii informacji alfabet składający się tylko z dwóch symboli, np. 0 i 1. Alfabet ten jest łatwy do realizacji w urządzeniach technicznych, albowiem sygnał z tych urządzeń musi mieć tylko dwa odróżnialne stany.

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>