Философское понятие “информация” является очень обширным. В общем случае это понятие характеризует внутреннюю организованность любой материальной системы. С этой точки зрения информация существует вне зависимости от того, воспринимается она или нет.

Структура систем получения и передачи информации.
В теории информации рассматриваются информационные системы, состав и обобщенная структура которых представлена на рис. 1. На этом рисунке пунктиром выделены составные части информационных систем: источник информации (сообщений), передающее устройство, приемное устройство и канал связи.
Источник информации (сообщений) - совокупность первичного источника непрерывной или дискретной информации и преобразователя, служащего для представления информации в форме данных, удобных для дальнейшего преобразования. Сообщениями первичного источника являются различимые состояния или свойства объекта, которые содержат информацию, подлежащую последующим преобразованиям и передаче по линии связи.
Применительно к измерительным информационным системам (ИИС) первичным источником информации является рукотворный или природный объект исследований, с которым взаимодействует чувствительный элемент системы. Различимые состояния или свойства объекта оцифровываются, благодаря чему на выходе источника появляются сообщения источника.
ОГЛАВЛЕНИЕ.
1. Предмет теории информации.
2. Информационные системы.
2.1. Разновидности информационных систем.
2.2. Структура систем получения и передачи информации.
2.3. Информационные модели составных частей информационных систем.
2.3.1. Информационная модель источника сообщений, марковские, стационарные и эргодические источники.
2.3.2. Информационная модель кодера и декодера источника.
2.3.3. Информационная модель кодера и декодера канала.
2.3.4. Информационная модель канала связи.
2.4. Примеры кодирования источника сообщений.
2.5. Условия Шеннона достоверного кодирования и передачи информации. Вопросы теории информации и кодирования, рассматриваемые в настоящем пособии.
3. Энтропия вероятностной схемы, энтропия и количество информации.
3.1. Энтропия источников, дискретный источник без памяти.
3.2. Формальные свойства энтропии, аксиомы Хинчина и Фаддеева.
3.3. Условная энтропия и ее свойства, третья аксиома Хинчина.
3.4. Собственная информация элемента ансамбля.
3.5. Взаимная информация и ее свойства.
3.6. Информационная дивергенция, граница Симмонса.
4. Кодирование источников.
4.1. Равномерное кодирование.
4.1.1. Высоковероятные множества сообщений источника.
4.1.2. Прямая и обратная теоремы Шеннона кодирования источника.
4.2. Неравномерное кодирование.
4.2.1. Условия однозначного кодирования и декодирования, префиксные коды.
4.2.2. Кодовые деревья. Неравенство Крафта.
4.2.3. Побуквенное неравномерное кодирование.
4.2.4. Код Шеннона.
4.2.5. Код Хаффмена.
5. Кодирование в канале. Линейные коды.
5.1. Математическая модель канала связи, пропускная способность канала.
5.2. Корректирующие свойства кодов, параметры кодов.
5.3. Границы параметров корректирующих кодов.
5.4. Некоторые примеры кодов, исправляющих ошибки. Коды Хемминга.
5.5. Линейные коды.
5.5.1. Векторное представление линейных кодов.
5.5.2. Некоторые линейные коды в векторном представлении.
5.5.3. Схемы кодирования в канале.
5.5.4. Синдромное декодирование линейных кодов допускающих исправление однократных ошибок.
6. Кодирование в канале. Циклические коды.
6.1. Многочлены над конечными полями.
6.2. Описание циклических кодов.
6.3. Векторное представление циклических кодов.
6.4. Выбор порождающего многочлена.
6.5. Кодирование в циклическом коде.
6.6. Декодирование циклических кодов. Устройство деления многочленов
6.7. Систематическое кодирование в циклическом коде.
6.8. Синдромное декодирование систематического циклического кода.
6.9. Пример систематического кодирования и декодирования в (7, 4)-коде.
6.10. Кодирование и декодирование неравномерных кодовых слов источника
7. Циклические коды, задаваемые корнями многочленов. Коды Боуза-Чоудхури-Хоквингема.
7.1. Дополнительные свойства многочленов и их корней.
7.2. Построение кодов БЧХ, конструктивное расстояние кодов БЧХ.
7.3. Примеры минимальных многочленов.
7.4. Примеры синтеза кодов БЧХ.
8. Сверточные коды.
8.1. Общие свойства сверточных кодов.
8.2. Двоичные сверточные коды.
8.3. Решетчатое представление сверточных кодов. Алгоритм декодирования Витерби.
8.4. Сверточные коды со скоростью m/n.
Библиографический список.
Приложение 1. Необходимый математический аппарат.
Приложение 2. Экстремальные значения энтропии непрерывных информационных сигналов, случайных шумов и помех.
Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Теория информации, Солопченко Г.Н., 2015 - fileskachat.com, быстрое и бесплатное скачивание.
Скачать pdf
Ниже можно купить эту книгу по лучшей цене со скидкой с доставкой по всей России.Купить эту книгу
Скачать - pdf - Яндекс.Диск.
Дата публикации:
Теги: учебник по информатике :: информатика :: компьютеры :: Солопченко :: информация
Смотрите также учебники, книги и учебные материалы:
Следующие учебники и книги:
- Введение в Интернет вещей, Глушак Е.В., Куприянов А.В., 2023
- Практики развития цифровой грамотности учителя, Анисимова Э.С., Асхадуллина Н.Н., 2022
Предыдущие статьи:
- Web Services, Principles and Technology, Papazoglou M.P., 2008
- Пакеты расширения MATLAB, Control System Toolbox и Robust Control Toolbox, Перельмутер В.М., 2008
- Mathcad в работе магистранта, Федоренко И.Я., 2022
- Системы счисления и измерение информации, Воробейчикова О.В., 2017