Расчет информационных характеристик дискретного канала
Размещено на /
Содержание
Часть 1. Теория информации
1. Система передачи дискретных сообщений
1.1 Схема дискретного канала, функции блоков, источника и приемника
1.2 Виды информации
2. Канальная матрица (КМИ; КМП; КМО) и их взаимосвязь
2.1 Свойства канальных матриц
3. Информационные характеристики источника сообщений
3.1 Количество информации источника
3.2 Информационные потери
4. Информационные характеристики приемника
4.1 Количество информации приемника
4.2 Информационные потери
5. Скоростные характеристики
5.1 Скорость модуляции симв/сек;
5.2 Производительность источника бод;
5.3 Скорость передачи или бод;
5.4 Емкость канала или бод;
5.5 Коэффициент эффективности дискретного канала ;
5.6 Теоремы Шеннона о критической скорости и кодированию
Часть 2. Теория кодирования
6. Оптимальное кодирование. Идея сжатия
6.1 Равномерный двоичный код (РДК), корневое бинарное дерево РДК, длина кода РДК, сообщение в РДК
6.2 Оптимальный неравномерный код ОНК Шеннона-Фано, алгоритм расчета ОНК, средняя длина, энтропия, коэффициент сжатия, коэффициент эффективности, сообщение в ОНК, критерий Фано, корневое бинарное дерево ОНК Шеннона-Фано
6.3 Оптимальный неравномерный ОНК Хаффмана, алгоритм расчета ОНК, средняя длина, энтропия, коэффициент сжатия, коэффициент эффективности, сообщение в ОНК, КБД
6.4 Эффективность ОНК
7. Помехоустойчивое кодирование. Назначение
7.1 Обнаруживающие коды
7.1.1 Обнаруживающий код четности (ОКЧ)
7.1.2 Обнаруживающий код удвоения (ОКУ)
7.1.3 Обнаруживающий код инверсией (ОКИ)
7.1.4 Обнаруживающий код Стандартный телеграфный код (ОК СТК №3) №3
7.2 Корректирующий систематический код Хэмминга: генерация, диагностика, коррекция, декодирование
7.3 Корректирующий циклический код: генерация, диагностика, коррекция, декодирование
7.4 Корректирующий мажоритарный код: генерация, диагностика, коррекция, декодирование (другие названия – код по голосованию, К-удвоения)
7.5 Эффективность помехоустойчивых кодов
8. Криптографическое кодирование. Назначение
8.1 Основы криптографического кодирования
8.2 Принципы криптографии по Шеннону
8.3 Требования к криптографическим алгоритмам
8.4 Криптографическое правило Кирхгофа
8.5 Абсолютно стойкий ключ по Шеннону
8.6 Жизненный цикл конфиденциальности данных
8.7 Критерии взлома ключа
8.8 Классификация криптографических методов
Часть 1. Теория информации
1. Система передачи дискретных сообщений
Информационные каналы бывают аналоговые (информация в непрерывном виде) и цифровые (дискретные). Широкое развитие получила цифровая техника и дискретные каналы.
1.1 Схема, функции блоков источника и приемника
Информационную систему передачи данных по каналу связи можно представить крупноблочно (Рис1).
Рис1.Крупноблочное представление информационного канала
Источник сообщения (ИС) – вырабатывает сообщения, кодеры источника преобразуют сообщения в кодовые слова, используя методы оптимального, помехоустойчивого и криптографического кодирования. Модулятор преобразует бинарные коды в электрические сигналы.
Линия связи (ЛС) – это физическая среда, в которой распространяются сигналы: кабельные, радио и спутниковые линии.
Приемник сообщения (ПС) – выполняет обратное превращение: демодулятор преобразует электрические сигналы в бинарные коды, декодеры выполняют диагностику и корректирование ошибок, снимают сжатие, помехоустойчивость и криптографическую защиту информации.
Рис.2.Схема системы передачи дискретных сообщений
Функции блоков источника:
АЦП – алфавитно-цифровой преобразователь (аналоговая информация преобразуется в дискретную);
Шифратор – устанавливает криптографическую защиту;
Кодер ОНК (ОНК - оптимальный неравномерный код) - сжимает данные;
Кодер ПЗК (ПЗК – помехозащищенный код) – устанавливает защиту от помех;
Модулятор – преобразует цифровую информацию в электрические сигналы;
Линии связи – телефонные, кабельные, радио, спутниковые.
Функции блоков приемника:
Демодулятор – преобразует электрические сигналы в двоичный код;
Декодер ПЗК – определяет наличие ошибки, вычисляет адрес ошибки, корректирует её, снимает помехоустойчивую защиту;
Декодер ОНК – неравномерный код преобразуется в равномерный двоичный код;
Дешифратор – снимает криптозащиту;
ЦАП – цифро-аналоговый преобразователь (дискретную информацию преобразовывает в непрерывную).
1.2 Виды информации
В процессе прохождения по каналу информация многократно меняет свою форму, сохраняя при этом свое содержание:
Непрерывная информация;
Дискретная информация;
Криптокод;
Оптимальный неравномерный код (двоичный);
Помехоустойчивый код;
Электрические сигналы.
Расчёт количества информации символов алфавита
Для начала нам необходимо вычислить vi – частоту появления каждого символа алфавита. Сумма vi будет равна длине сообщения ls.
Теперь рассчитываем P(ai)– вероятность появления символа нашего алфавита в сообщении.
P(ai) = vi/ls
Сумма таких вероятностей должна быть равна единице.
После этого мы можем найти требуемое количество информации по формуле: I(ai) = - log(P(ai)) [бит]
Свойства количества информации:
1. Количество информации не отрицательно:
I(ai) ≥ 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
Рис.3. График к свойству 2
3. Если вероятность символа равна 1, то количество информации этого символа равно 0:
Р(ai) = 1 ⇒ I(ai) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого:
I(a1, a2, a3) = I(a1) + I(a2) + I(a3)
Энтропия дискретного ансамбля сообщения
Энтропия – среднее количество информации на символ сообщения.
Расчёт энтропии алфавита
Для вычисления энтропии алфавита нам понадобится lа - количество символов алфавита.
Максимальная энтропия алфавита будет равна:
Hmax(А)= log la [бит/символ]
Причём нужно отметить, что логарифм мы берём по основанию 2.
Расчёт энтропии сообщения
Для нахождения энтропии сообщения нам требуется вычислить такое значение:
H (A) = -∑(P(ai)*logP(ai)) [бит/символ]
Расчёт максимальной энтропии
Максимальную энтропию считаем по формуле:
Hmax(А)= log ls [бит/символ]
Свойства энтропии:
1. Энтропия не отрицательна:
Н(A) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1.
Н(A) = 0 ⇔ Р(ai) =1
3. Энтропия ограничена:
H (A) ≤ log ls [бит/символ]
где ls – количество символов в сообщении.
4. Максимальная энтропия равна:
Hmax(А ) = log ls [бит/символ]
Рис.4. График к свойству 4
Расчётная таблица результатов
В данную таблицу мы внесем все наши результаты расчётов и, как результат, построим график количества информации и график энтропии.
S= (У жизни есть чувство юмора)
А= (У,ж,и,з,н,е,с,т,ь,ч,в,о,ю,м,р,а, .)
i | ai | vi | P(ai) | I(ai) | H |
1 | У | 2 | 0,077 | 3,700 | 0,285 |
2 | ж | 1 | 0,038 | 4,700 | 0,181 |
3 | и | 2 | 0,077 | 3,700 | 0,285 |
4 | з | 1 | 0,038 | 4,700 | 0,181 |
5 | н | 1 | 0,038 | 4,700 | 0,181 |
6 | е | 1 | 0,038 | 4,700 | 0,181 |
7 | с | 2 | 0,077 | 3,700 | 0,285 |
8 | т | 2 | 0,077 | 3,700 | 0,285 |
9 | ь | 1 | 0,038 | 4,700 | 0,181 |
10 | ч | 1 | 0,038 | 4,700 | 0,181 |
11 | в | 2 | 0,077 | 3,700 | 0,285 |
12 | о | 2 | 0,077 | 3,700 | 0,285 |
13 | ю | 1 | 0,038 | 4,700 | 0,181 |
14 | м | 1 | 0,038 | 4,700 | 0,181 |
15 | р | 1 | 0,038 | 4,700 | 0,181 |
16 | а | 1 | 0,038 | 4,700 | 0,181 |
17 | _ | 4 | 0,154 | 2,700 | 0,415 |
Суммы | 26 | 1,000 | 3,931 |
H(А)= log la = log16 = 4 [бит/символ]
Hmax(A)= log22= 4,4594 [бит/символ]
2. Канальные матрицы (КМИ, КМП, КМО) и их взаимосвязь
Канальная матрица определяет действие помех на дискретном канале.
Канальные матрицы бывают трёх видов: канальная матрица источника, канальная матрица приёмника и канальная матрица объединения.
Канальная матрица источника (КМИ)
Канальная матрица источника состоит из условных вероятностей принимаемых сигналов относительно переданных сигналов , которые отражают действие помех на канал.
Эта матрица отражает статистические характеристики действия помех. Канальная матрица источника является матрицей прямых переходов переданных сигналов в принятые сигналы .
Каждая строка КМИ представляет собой распределение условных вероятностей принятых сигналов относительно переданных сигналов . Все эти условные вероятности p(bj/ai) и образуют КМИ.
Канальная матрица приемника (КМП)
Дискретный канал полностью задан, если известны безусловные вероятности приема сигналов и задана канальная матрица приемника.
Условные вероятности р(ai /bj) приёма сигналов относительно переданных сигналов составляют канальную матрицу приемника (КМП) и отражают действие помех на канале.
Канальная матрица объединения (КМО)
Дискретный канал полностью задан канальной матрицей объединения (КМО).
КМО состоит из совместных вероятностей появления сигналов и - р(ai ,bj) и отражает действие помех на канале связи.
Элементами матрицы являются совместные вероятности:
Взаимосвязь канальных матриц
Из КМО в КМИ
p(bi/aj) =
p(ai) = p(ai,bj) (i=1,2…n)
Из КМИ в КМО
Из КМО в КМП
p(ai/bj) =
p(bj) = p(ai,bj) (j=1,2…n)
Из КМП в КМО
p(ai, bj) = p(bj) ·p(ai/bj)
2.1 Свойства канальных матриц
Свойства канальной матрицы источника (КМИ):
КМИ – квадратная матрица, то есть её размер nxn ;
Сумма условных вероятностей каждой строки равна 1, то есть образует полную группу:
(i=1,2…n)
Условные вероятности главной диагонали КМИ отражают вероятность правильного приема сигналов относительно переданных сигналов ;
Остальные условные вероятности канальной матрицы (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
Для идеального канала, на котором нет помех, канальная матрица имеет вид:
Свойства канальной матрицы приемника (КМП):
КМП – это квадратная матрица, то есть её размер nxn ;
Сумма условных вероятностей каждого столбца равна 1, то есть образует полную группу:
(j=1,2…n)
Условные вероятности главной диагонали КМП отражают вероятность правильного приема сигналов относительно переданных сигналов ;
Остальные условные вероятности канальной матрицы приемника (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
Для идеального канала, на котором нет помех, КМП имеет вид:
Свойства канальной матрицы объединения (КМО):
Сумма совместных вероятностей каждой строки равна безусловной вероятности источника:
дискретный матрица приемник кодирование
(i=1,2…n)
Σ p(ai) = 1
Сумма совместных вероятностей каждого столбца равна соответствующей безусловной вероятности приемника:
(j=1,2…n)
Сумма всех элементов канальной матрицы объединения равна 1.
Σ p(bj) = 1
3. Информационные характеристики источника сообщений
Для того, чтобы понять что такое информационные характеристики, нужно вначале дать определение таким терминам, как алфавит сообщения, кортеж упорядоченных уникальных символов и дискретный ансамбль сообщения (ДАС).
Алфавитом сообщения называются символы, которые входят в сообщение. Например:
A={a1, a2,…,an}
Кортеж упорядоченных уникальных символов – это упорядоченная последовательность символов.
Х={х1, х2,…, хn} – сообщение – кортеж символов
Дискретный ансамбль сообщения (ДАС) – сообщение с вероятностями символов ДАС {Х, p(хi) или A, p(ai)}
3.1 Количество информации источника сообщений
Количество информации
Количеством информации символа сообщения определяется:
I(ai) = - log2(p(ai)) = - log(p(ai)) [бит] (i=1,2…n)
В Шенноновской теории информации количество информации источника определяется вероятностью появления символа.
I(ai) = - ln(p(ai)) [нат]
I(ai) = - lg(p(ai)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации источника сообщений
1. Количество информации неотрицательно:
I(ai) >= 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(ai) = 1 ⇒ I(ai) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.
I(a1, a2, a3) = I(a1) + I(a2) + I(a3)
Энтропия – среднее количество информации на символ сообщения (средневзвешенное).
[бит/символ]
Свойства энтропии
1. Энтропия неотрицательна: Н(А) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1: Н(ai) = 0 ⇔ р(ai) =1
3. Энтропия ограничена: H (ai) ≤ log n [бит/символ]
где n – количество символов в сообщении.
4. Максимальная энтропия равна: Hmax(А) = log n [бит/символ]
3.2 Информационные потери
Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).
Частная условная энтропия источника (ЧУЭИ) сообщений отображает количество потерь информации при передаче каждого сигнала аi :
H(В/аi) = − p(bj/ai)log p(bj/ai) (i = 1,2…n) [бит/символ]
Общая условная энтропия источника (ОУЭИ) определяет средние потери количества информации на принятый сигнал относительно переданных сигналов .
[бит/символ]
4. Информационные характеристики приемника сообщений
4.1 Количество информации приёмника
Количество информации
Количеством информации символа сообщения определяется:
I(bj) = - log2(p(bj)) = - log(p(bj)) [бит] (j=1,2…n)
В Шенноновской теории информации количество информации приемника определяется вероятностью появления символа.
I(bj) = - ln(p(bj)) [нат]
I(bj) = - lg(p(bj)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации приемника сообщений
1. Количество информации неотрицательно: I(bj) ≥ 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(bj) = 1 ⇒ I(bj) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.
I(b1, b2, b3) = I(b1) + I(b2) + I(b3)
Энтропия – среднее количество информации на символ сообщения (средневзвешенное).
[бит/символ]
Свойства энтропии
1. Энтропия неотрицательна:
Н(А) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1:
Н(ai) = 0 ⇔ р(ai) =1
3. Энтропия ограничена
H (B) =< log n [бит/символ]
где n – количество символов в сообщении.
4. Максимальная энтропия равна
Hmax(B) = log n [бит/символ]
4.2 Информационные потери
Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).
Частная условная энтропия приемника (ЧУЭП) сообщений определяет потери информации каждого принятого сигнала .
H(A/ bj) = − p(ai/bj)log p(ai / bj) (j = 1,2…n) [бит/символ]
Общая условная энтропия приемника (ОУЭП) определяет средние потери информации на символ при приеме ансамбля {B, p()}:
[бит/символ]
5. Скоростные характеристики
5.1 Скорость модуляции [симв/сек]
[симв/сек],
где - длительность передачи одного сигнала
Если длительность передачи сигналов различна, то вычисляется среднее время передачи одного сигнала.
5.2 Производительность источника бод;
Производительность источника - количество бит, вырабатываемых в единицу времени - 1 секунду.
[бод]
5.3 Скорость передачи или бод;
Скорость передачи источника:
[бит/сек], [бод]
Скорость передачи приёмника:
[бит/сек], [бод]
5.4 Емкость канала или бод;
Емкость канала (пропускная способность канала) - это максимальное
количество бит, передаваемое в единицу времени – секунду.
Пропускная способность – максимальная скорость передачи.
C=maxR
Емкость канала источника:
[бит/сек], [бод]
Емкость канала приёмника:
[бит/сек], [бод]
5.5 Коэффициент эффективности дискретного канала
Чем больше коэффициент эффективности дискретного канала стремится к единице, тем эффективнее канал и тем меньше информационные потери на нём.
5.6 Теоремы Шеннона о критической скорости и кодировании
Теорема о критической скорости:
Теорема определяет критическую скорость передачи , зависящую только от распределения вероятности, при которой существует способ передачи со скоростью R (), при котором возможно восстановление исходного сообщения (), где С – пропускная способность канала, Н(А) – энтропия источника;
Теорема о кодировании:
Если H’(A) – производительность источника - меньше емкости канала (), то существует способ кодирования и декодирования, при котором вероятность ошибки будет сколь угодно мала и наоборот.
Пример расчёта скоростных характеристик для канальной матрицы источника.
1. Исходные данные
Дана матрица условных вероятностей, которые отражают действие помех дискретного канала связи.
Сумма вероятностей каждой строки равна 1,00.
Время передачи символа τ = 0,0002 сек. Передано 250 символов.
Безусловные вероятности появления символов на выходе:
p(a1)=0.25, p(a2)=0.35, p(a3)=0.15, p(a4)=0.25
2. Расчёты
1) Количество информации I(ai )каждого символа a1, a2, a3 дискретного сообщения :
(i=1,2,3) [ бит]
[бит]
[бит]
[бит]
[бит]
2)Среднее количество информации, переданное одним символом определяет энтропия источника сообщений Н(А):