Czy to prawda, że brak wiadomości to sama dobra wiadomość? Kamienna tabliczka, której waga równa się trzem tonom, może dać archeologom taką samą ilość informacji, co wysokiej jakości fotografia w dobrej publikacji archeologicznej, nieprawdaż? A kiedy studio radiowe w Kijowie zgłasza najnowsze wieści, to zarówno mieszkańcy Kijowa, jak i mieszkaniec Illichivsk dowiedzą się o wszystkim, niezależnie od faktu, że energia fal radiowych w Kijowie jest o wiele większa niż setki kilometrów. Okazuje się, że ani siła, ani wielkość, ani ilość nie mogą odgrywać roli miary informacji. Jak możemy oszacować tę lub taką ilość danych?
Nowość
Z kursu informatycznego wiemy, że ilość informacji przetwarzanych przez komputery jest mierzona w bitach, bajtach i wielokrotnościach. Nie wyjaśnia to jednak, w jaki sposób taką wiedzę można zastosować w życiu codziennym. Na przykład, jak oceniasz informacje uzyskane w wyniku lektury tego artykułu? Czy można uczciwie powiedzieć, że im więcej listów będzie, tym więcej się okaże? A jeśli po przeczytaniu tego artykułu tydzień później otrzymasz taką samą ilość informacji, jak wcześniej? Odpowiedź jest oczywista. Wszystko to sugeruje pogląd, że z punktu widzenia nowości po prostu nie da się go zmierzyć. Nic tu nie pomoże.
Tom
Ale w tej technice ilość informacji może być mierzona jako liczba znaków lub sygnałów, które przechowują, przesyłają i przetwarzają urządzenia techniczne. To podejście opiera się na liczenie znaków w każdej konkretnej wiadomości. Na przykład słowo "pokój" w alfabecie angielskim jest napisane pięcioma literami - pokój, po rosyjsku - trzy, a w KOI8 do jego transmisji używane są 24 bity: 111011011110100111110010. Tutaj znajdują zastosowanie megabajty, kilobajty i terabajty.
Prawdopodobieństwo
Istnieje inne podejście, zgodnie z którym informacje są uważane za zniesienie niepewności. Z tego punktu widzenia im więcej danych otrzymujemy, tym mniej naszej ignorancji i większej świadomości. Ilość informacji tutaj również jest określona w bitach, i jeden lub drugi wynik probabilistyczny z jednej pary równie możliwych zdarzeń ("nie" lub "tak", "0" lub "1") jest brany jako jednostka miary. Na przykład moneta jest rzucana do rysowania. Orzeł lub ogon może spaść. Wiadomość, że ogon spadł, zmniejsza niepewność o połowę, a jej wielkość odpowiada jednemu bitowi. W przypadku, gdy liczba równych możliwych zdarzeń jest większa niż 2, równość R. Hartleya służy do oceny komunikatu, który zwykle jest zapisywany jako:
2 I = N lub I = log 2 N, gdzie
N to liczba wszystkich możliwych zdarzeń,
I - ilość informacji w bajtach.
Czasami ta formuła jest zapisana w zmodyfikowanej formie: I = log 2 (1 / p) = - log 2 p. Symbol "p" w tym przypadku oznacza prawdopodobieństwo wystąpienia każdego z równie prawdopodobnych wyników. Załóżmy na przykład, że rzucone są dwie regularne kostki do gry. Wymagane jest określenie, ile bitów nosi wiadomość, że jeden z nich ma pięć, a drugi ma dwa. Łatwo jest obliczyć, że prawdopodobieństwo każdego z tych wydarzeń wynosi jedną szóstą. Dlatego I = 2 * log 2 6 = 2 * 2,585 = 5,.17 bitów. Jak widać, pomiar informacji zależy w dużej mierze od zakresu jej zastosowania i wybranego podejścia. Trudno sobie wyobrazić, jak ważne jest to w chwili obecnej. Prawdopodobnie po pewnym czasie jest to najważniejszy zasób, jaki może posiadać nowoczesna osoba.