Binarne kodowanie informacji

28.02.2019

Teoria kodowania to jedna z sekcji informatyki, bezpośrednio związana z zagadnieniami szyfrowania i deszyfrowania informacji, które docierają do użytkownika. Współczesne sposoby ukrywania danych są zakorzenione w starożytnej przeszłości ludzkości, ponieważ wraz z pierwszymi formacjami państwowymi pojawiły się również ważne sekrety. I wraz z kodowanie informacji narodził się pierwszy list i tajne pisanie. Tak więc, pierwszy etap jego istnienia, kodowanie informacji przeszło tysiące lat ludzkiej historii.

Początek nowoczesnej sceny

Kodowanie informacji zaczęło nabierać swoich aktualnych cech dopiero w połowie XIX wieku. Przyczyna tego była zamach stanu ogólnie, a w szczególności takich wynalazków, jak telefon, telegraf, aparatura iskrowa, radio i inne. Po raz pierwszy naukowcy stworzyli nowy system szyfrów, zorientowany nie na pisanie, a nie na zawiązany list lub coś w tym rodzaju, ale w najnowszej technologii. Pierwsza taka metoda kodowania okazała się dziś znana. Kod Morse'a. Został zbudowany na trójskładnikowym systemie sygnałowym, czyli składał się tylko z trzech elementów: pauzy, punktu, kreski.

kodowanie informacji w komputerze

Nowa era

Mijały lata, ewoluowały metody szyfrowania. Pojawiły się bardziej złożone systemy. W pierwszej połowie dwudziestego wieku dwie wojny światowe przyczyniły się do szybkiej ewolucji, zmuszając przeciwników do coraz bardziej wyrafinowanych metod kodowania. I odpowiednio do coraz bardziej inteligentnego dekodowania szyfrów. Warunkiem nowej rewolucji w tym obszarze był rozwój IBM w latach czterdziestych i pięćdziesiątych, którego kulminacją było stworzenie pierwszych elektronicznych systemów komputerowych.

Kodowanie informacji w komputerze

Podstawą pracy komputerów stało się i jest do dzisiaj tak zwane "kodowanie binarne" informacje. "To Metoda szyfrowania opiera się na fakcie, że wszystkie informacje są przekształcane na kombinację dwóch wartości alfabetu binarnego. kodowanie informacji binarnych Te liczby to zero i jeden. Wybór tej metody polega na jej prostocie, ponieważ elektroniczny system komputerowy działa o wiele bardziej niezawodnie z dwoma różnymi stanami sygnału. Może być pięć i dziesięć, ale w tym przypadku jest bardzo prawdopodobne, że wystąpią błędy. Oczywiście, w jego rozszerzonej formie, układ binarny jest bardzo długim zapisem, co komplikuje pracę z nim i jest jego wadą. Ponieważ kodowanie informacji na podstawie binarnego szyfrowania może mieć różną długość, fragmenty kodu zostały połączone w oddzielne znaki: 1 bajt lub 8 bitów. Główną operacją wykonywaną na poszczególnych "słowach" tekstu jest ich porównanie. Pierwszym aspektem, na który maszyna zwraca uwagę podczas takiej operacji, jest unikalność kodu i jego długość. Aby zakodować informacje, system korzysta z różnych tabel konwersji. Konieczne jest użycie tego samego przy kodowaniu i dekodowaniu jednego tekstu. Obecnie najczęstsze tabele zmian szyfrów są następujące: Unicode, DKOI-8, CP1251, ASCII. CP1251, KOI-8, CP866, ISO i Mac są odpowiednie do kodowania specyficznie rosyjskiego alfabetu.