Двоичное кодирование информации
Теория кодирования представляет собой один из разделов информатики, непосредственно связанный с вопросами шифрования и дешифрования информации, которая поступает к пользователю. Современные способы сокрытия данных уходят своими корнями в древнейшее прошлое человечества, поскольку вместе с первыми государственными образованиями появились и тайны важного характера. А вместе с
первым письмом зародилась и тайнопись. Таким образом, первый этап своего существования кодирование информации переживало тысячи лет человеческой истории.Начало современного этапа
Нынешние свои черты кодирование информации стало обретать лишь в середине девятнадцатого века. Причиной этому послужил промышленный переворот в целом, а в частности такие изобретения, как телефон, телеграф, искровой аппарат, радио и другие. Перед учеными впервые возникла необходимость создать новую систему шифров, ориентированную не на письменность, не на узелковое письмо или что-то подобное, а на новейшую технику. Первым таким методом кодирования оказалась знаменитая сегодня азбука Морзе. Она была построена на системе троичного сигнала, то есть ее составляли всего три элемента: пауза, точка, тире.
Новая эра
Шли годы, методы шифровки развивались. Появлялись все более сложные системы. В первой половине двадцатого века этой стремительной эволюции здорово способствовали две мировых войны, вынуждавшие противников к все более изощренным способам кодирования. И, соответственно, к все более искусному декодированию шифров. Предпосылками новой революции в этой области стали разработки компании IBM в сороковых-пятидесятых годах, увенчавшиеся созданием первых электронно-вычислительных систем.
Кодирование информации в компьютере
Основой работы компьютеров стало и является до сегодняшнего дня так называемое "двоичное кодирование информации". Этот способ шифра основывается на том, что вся информация конвертируется в комбинации из двух значений двоичного алфавита.
Эти цифры – ноль и единица. Избранность этого способа заключается в его простоте, поскольку электронно-вычислительная система гораздо более надежно работает с двумя разными состояниями сигнала. Их могло быть и пять, и десять, однако в таком случае, весьма вероятно, были бы ошибки. Разумеется, в своем развернутом виде двоичная система является весьма длинной записью, что усложняет работу с ней и является ее недостатком. Поскольку кодирование информации, основанное на двоичном шифре, может иметь разнообразную длину, отрезки кода были объединены в отдельные символы: 1 байт или 8 бит. Основной операцией, которая производится над отдельными "словами" текста является их сравнение. Первым аспектом, на который обращает внимание машина в ходе такой операции, является уникальность кода и его длина. Чтобы закодировать информацию, системой используются разнообразные таблицы перекодировки. Необходимо, чтобы одна и та же использовалась и при кодировке, и при декодировке одного текста. Сегодня наиболее распространенными таблицами изменения шифра являются следующие: Unicode, ДКОИ-8, CP1251, ASCII. Для кодировки же конкретно русскоязычного алфавита подходят СР1251, КОИ-8, СР866, ISO и Мас.Похожие статьи
- Что такое кодирование и декодирование информации? Алфавит кодирования
- Кодирование текстовой информации в компьютере
- Аудио-форматы: виды, предназначение, отличия
- Кодировка ASCII. Таблица кодировки ASCII
- Штрих-коды стран-производителей товаров: полный список, расшифровка, проверка
- Информация - это данные в различных видах
- Пространственная дискретизация. Обработка графической информации