Teoria kodowania to jedna z sekcji informatyki, bezpośrednio związana z zagadnieniami szyfrowania i deszyfrowania informacji, które docierają do użytkownika. Współczesne sposoby ukrywania danych są zakorzenione w starożytnej przeszłości ludzkości, ponieważ wraz z pierwszymi formacjami państwowymi pojawiły się również ważne sekrety. I wraz z narodził się pierwszy list i tajne pisanie. Tak więc, pierwszy etap jego istnienia, kodowanie informacji przeszło tysiące lat ludzkiej historii.
Początek nowoczesnej sceny
Kodowanie informacji zaczęło nabierać swoich aktualnych cech dopiero w połowie XIX wieku. Przyczyna tego była zamach stanu ogólnie, a w szczególności takich wynalazków, jak telefon, telegraf, aparatura iskrowa, radio i inne. Po raz pierwszy naukowcy stworzyli nowy system szyfrów, zorientowany nie na pisanie, a nie na zawiązany list lub coś w tym rodzaju, ale w najnowszej technologii. Pierwsza taka metoda kodowania okazała się dziś znana. Kod Morse'a. Został zbudowany na trójskładnikowym systemie sygnałowym, czyli składał się tylko z trzech elementów: pauzy, punktu, kreski.
Nowa era
Mijały lata, ewoluowały metody szyfrowania. Pojawiły się bardziej złożone systemy. W pierwszej połowie dwudziestego wieku dwie wojny światowe przyczyniły się do szybkiej ewolucji, zmuszając przeciwników do coraz bardziej wyrafinowanych metod kodowania. I odpowiednio do coraz bardziej inteligentnego dekodowania szyfrów. Warunkiem nowej rewolucji w tym obszarze był rozwój IBM w latach czterdziestych i pięćdziesiątych, którego kulminacją było stworzenie pierwszych elektronicznych systemów komputerowych.
Kodowanie informacji w komputerze
Podstawą pracy komputerów stało się i jest do dzisiaj tak zwane "kodowanie binarne" informacje. "To Metoda szyfrowania opiera się na fakcie, że wszystkie informacje są przekształcane na kombinację dwóch wartości alfabetu binarnego. Te liczby to zero i jeden. Wybór tej metody polega na jej prostocie, ponieważ elektroniczny system komputerowy działa o wiele bardziej niezawodnie z dwoma różnymi stanami sygnału. Może być pięć i dziesięć, ale w tym przypadku jest bardzo prawdopodobne, że wystąpią błędy. Oczywiście, w jego rozszerzonej formie, układ binarny jest bardzo długim zapisem, co komplikuje pracę z nim i jest jego wadą. Ponieważ kodowanie informacji na podstawie binarnego szyfrowania może mieć różną długość, fragmenty kodu zostały połączone w oddzielne znaki: 1 bajt lub 8 bitów. Główną operacją wykonywaną na poszczególnych "słowach" tekstu jest ich porównanie. Pierwszym aspektem, na który maszyna zwraca uwagę podczas takiej operacji, jest unikalność kodu i jego długość. Aby zakodować informacje, system korzysta z różnych tabel konwersji. Konieczne jest użycie tego samego przy kodowaniu i dekodowaniu jednego tekstu. Obecnie najczęstsze tabele zmian szyfrów są następujące: Unicode, DKOI-8, CP1251, ASCII. CP1251, KOI-8, CP866, ISO i Mac są odpowiednie do kodowania specyficznie rosyjskiego alfabetu.