Теория информации, Солопченко Г.Н., 2015

Теория информации, Солопченко Г.Н., 2015.

   Философское понятие “информация” является очень обширным. В общем случае это понятие характеризует внутреннюю организованность любой материальной системы. С этой точки зрения информация существует вне зависимости от того, воспринимается она или нет.

Теория информации, Солопченко Г.Н., 2015


Структура систем получения и передачи информации.
В теории информации рассматриваются информационные системы, состав и обобщенная структура которых представлена на рис. 1. На этом рисунке пунктиром выделены составные части информационных систем: источник информации (сообщений), передающее устройство, приемное устройство и канал связи.

Источник информации (сообщений) - совокупность первичного источника непрерывной или дискретной информации и преобразователя, служащего для представления информации в форме данных, удобных для дальнейшего преобразования. Сообщениями первичного источника являются различимые состояния или свойства объекта, которые содержат информацию, подлежащую последующим преобразованиям и передаче по линии связи.

Применительно к измерительным информационным системам (ИИС) первичным источником информации является рукотворный или природный объект исследований, с которым взаимодействует чувствительный элемент системы. Различимые состояния или свойства объекта оцифровываются, благодаря чему на выходе источника появляются сообщения источника.

ОГЛАВЛЕНИЕ.
1. Предмет теории информации.
2. Информационные системы.
2.1. Разновидности информационных систем.
2.2. Структура систем получения и передачи информации.
2.3. Информационные модели составных частей информационных систем.
2.3.1. Информационная модель источника сообщений, марковские, стационарные и эргодические источники.
2.3.2. Информационная модель кодера и декодера источника.
2.3.3. Информационная модель кодера и декодера канала.
2.3.4. Информационная модель канала связи.
2.4. Примеры кодирования источника сообщений.
2.5. Условия Шеннона достоверного кодирования и передачи информации. Вопросы теории информации и кодирования, рассматриваемые в настоящем пособии.
3. Энтропия вероятностной схемы, энтропия и количество информации.
3.1. Энтропия источников, дискретный источник без памяти.
3.2. Формальные свойства энтропии, аксиомы Хинчина и Фаддеева.
3.3. Условная энтропия и ее свойства, третья аксиома Хинчина.
3.4. Собственная информация элемента ансамбля.
3.5. Взаимная информация и ее свойства.
3.6. Информационная дивергенция, граница Симмонса.
4. Кодирование источников.
4.1. Равномерное кодирование.
4.1.1. Высоковероятные множества сообщений источника.
4.1.2. Прямая и обратная теоремы Шеннона кодирования источника.
4.2. Неравномерное кодирование.
4.2.1. Условия однозначного кодирования и декодирования, префиксные коды.
4.2.2. Кодовые деревья. Неравенство Крафта.
4.2.3. Побуквенное неравномерное кодирование.
4.2.4. Код Шеннона.
4.2.5. Код Хаффмена.
5. Кодирование в канале. Линейные коды.
5.1. Математическая модель канала связи, пропускная способность канала.
5.2. Корректирующие свойства кодов, параметры кодов.
5.3. Границы параметров корректирующих кодов.
5.4. Некоторые примеры кодов, исправляющих ошибки. Коды Хемминга.
5.5. Линейные коды.
5.5.1. Векторное представление линейных кодов.
5.5.2. Некоторые линейные коды в векторном представлении.
5.5.3. Схемы кодирования в канале.
5.5.4. Синдромное декодирование линейных кодов допускающих исправление однократных ошибок.
6. Кодирование в канале. Циклические коды.
6.1. Многочлены над конечными полями.
6.2. Описание циклических кодов.
6.3. Векторное представление циклических кодов.
6.4. Выбор порождающего многочлена.
6.5. Кодирование в циклическом коде.
6.6. Декодирование циклических кодов. Устройство деления многочленов
6.7. Систематическое кодирование в циклическом коде.
6.8. Синдромное декодирование систематического циклического кода.
6.9. Пример систематического кодирования и декодирования в (7, 4)-коде.
6.10. Кодирование и декодирование неравномерных кодовых слов источника
7. Циклические коды, задаваемые корнями многочленов. Коды Боуза-Чоудхури-Хоквингема.
7.1. Дополнительные свойства многочленов и их корней.
7.2. Построение кодов БЧХ, конструктивное расстояние кодов БЧХ.
7.3. Примеры минимальных многочленов.
7.4. Примеры синтеза кодов БЧХ.
8. Сверточные коды.
8.1. Общие свойства сверточных кодов.
8.2. Двоичные сверточные коды.
8.3. Решетчатое представление сверточных кодов. Алгоритм декодирования Витерби.
8.4. Сверточные коды со скоростью m/n.
Библиографический список.
Приложение 1. Необходимый математический аппарат.
Приложение 2. Экстремальные значения энтропии непрерывных информационных сигналов, случайных шумов и помех.



Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Теория информации, Солопченко Г.Н., 2015 - fileskachat.com, быстрое и бесплатное скачивание.

Скачать pdf
Ниже можно купить эту книгу по лучшей цене со скидкой с доставкой по всей России.Купить эту книгу



Скачать - pdf - Яндекс.Диск.
Дата публикации:





Теги: :: :: :: ::


 


 

Книги, учебники, обучение по разделам




Не нашёл? Найди:





2025-02-20 06:29:35