Пропускная способность канала - Радиоэлектроника - Скачать бесплатно
Казанский Государственный технический университет им. А.Н. Туполева
Кафедра Радиоуправления
Пояснительная записка к курсовой
работе по курсу
ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ
на тему
Пропускная способность канала.
Выполнил студент гр.5313
Алмазов А.И.
Руководитель: _____________
Оценка _____________
Комиссия ________ ( _______
)
________ ( _________ )
________ ( _________ )
Казань 2002
Оглавление.
1. Задание…………………………………………………………………..3стр.
2. Введение…………………………………………...……………………4стр.
3. Теоретическая часть…………...……………………………………….5стр.
4. Практическая часть………………………………..…………………..11стр.
5. Заключение………………………………………………..…………...14стр.
6. Литература…………………………………………….……………… 15стр.
Задание.
В канале действует аддетивный белый гаусовский шум. Отношение
сигнал/шум (Pc/Pш) меняется с 25 до 15 дБ, с шагом 1дБ. F=1,5 кГц; Vк=8*103
сим/с.
Рассчитать:
1) Изменение пропускной способности канала.
2) Изменение избыточности ? двоичного кода, необходимой для сведения
ошибки декодирования к сколь угодно малой величине.
Построить графики зависимостей с=f(Pc/Pш) и ?= f(Pc/Pш).
Введение.
Поставленная задача интересна тем, что мы сможем проследить изменение
пропускной способности канала с изменением отношения сигнал/шум . Можно
определить пропускную способность С канала в расчете на один символ
Ссимвол=maxI(A,B),бит/символ
или в расчете на единицу времени (например, на секунду):
С=maxI’(A,B)=( Ссимвол , биит/с.
В данном случае мы будем рассчитывать относительно времени. Для этого
мы воспользуемся формулой определяющей пропускную способность канала в
расчете на единицу времени.
С=Fklog2(1+Pc/Pш),
А для того чтобы определить избыточность передаваемой информации
воспользуемся теоремой Шеннона. При условии если теорема Шеннона будет
выполняться, то избыточность ? будет равняться 0, значит информация
передаётся без потерь. Если нет, то ? будет больше нуля (?>0). Т.е. чем
меньше величина ?, тем меньше будет вероятность ошибки декодирования.
Теоретическая часть.
Пропускная способность канала связи.
В любой системе связи через канал передаётся информация. Её скорость
определяется по формуле:
I’(А,В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).
(1)
Величина H(A|B) - это потери информации при передаче ее по каналу. Ее
также называют ненадежностью канала. H(B|A) - энтропия шума; показывает,
сколько бит шумовой информации примешивается к сигналу. Передачу сигнала по
каналу иллюстрирует рис. 1.
[pic]
Рис. 1. Передача информации по каналу с помехами
Здесь I’(A,B)=v*I(A,B) - скорость передачи информации по каналу.
Как видно из формулы (1), эта скорость зависит не только от самого
канала, но и от свойств подаваемого на его вход сигнала и поэтому не может
характеризовать канал как средство передачи информации.
Рассмотрим дискретный канал, через который передаются в единицу времени
( символов из алфавита объёмом m. При передачи каждого символа в среднем по
каналу проходит количество информации
I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),
(2)
где А и В- случайные символы на входе и выходе канала. Из четырёх
фигурирующих здесь энтропий Н(А)- собственная информация передаваемого
символа определяется источником дискретного сигнала и не зависит от
свойств канала. Остальные три энтропии в общем случае зависят как от
источника сигнала, так и от канала.
Величина I(A,B) характеризует не только свойства канала, но и свойства
источника информации. Пусть на вход канала можно подавать сигналы от
различных источников информации с различными распределениями P(A). Для
каждого источника I(A,B) примет свое значение. Максимальное количество
информации, взятое по всевозможным Р(А), характеризует только канал и
называется пропускной способностью (ПС) канала в расчете на один символ:
[pic]бит/символ,
где максимизация производится по всем многомерным распределениям
вероятностей Р(А).
Также определяют пропускную способность С канала в расчете на единицу
времени:
[pic]бит/с, (3)
где v - количество символов, переданное в секунду.
В качестве примера вычислим пропускную способность дискретного
симметричного канала без памяти (рис. 2) с вероятностью ошибочного перехода
- p.
[pic]
Рис. 2. Модель двоичного симметричного канала без памяти
Согласно свойству взаимной информации 2 можно записать: Ссим=max(H(B)-
H(B|A)). Распишем H(B|A). Исходя из условий задачи вероятность правильной
передачи символа по каналу - 1-p, а вероятность ошибочной передачи одного
символа p/(1-m), где m - число различных символов, передающихся по каналу.
Общее количество верных передач - m; общее количество ошибочных переходов -
m*(m-1). Отсюда следует, что:
[pic].
Следовательно, Н(В/А) не зависит от распределения вероятности в
ансамбле А, а определяется только переходными вероятностями канала. Это
свойство сохраняется для всех моделей канала с аддитивным шумом.
Максимальное значение Н(В)=log m. Отсюда следует:
[pic]. (4)
Пропускная способность в двоичных единицах в расчете на единицу
времени:
[pic]. (5)
Для двоичного симметричного канала (m=2) пропускная способность в
двоичных единицах в единицу времени
С=([1+p*log(p)+(1-p)*log(1-p)]
(6)
Зависимость С/( от р согласно (6) показана на рис.3
[pic]
рис.3 Зависимость пропускной способности двоичного симметричного
канала без памяти от вероятности ошибочного приёма символа.
При р=1/2 пропускная способность канала С=0, поскольку при такой
вероятности ошибки последовательность выходных символов можно получить
совсем не передавая сигнала по каналу, а выбирая их наугад, т.е. при р=1/2
последовательности на выходе и входе канала независимы. Случай С=0 называют
обрывом канала.
Пропускная способность непрерывного канала связи.
Вычисляется аналогично пропускной способности дискретного канала.
Непрерывный сигнал дискретизируется во времени с помощью отсчетов согласно
теореме Котельникова и информация, проходящая по каналу за время Т, равна
сумме количества информации, переданной за один отсчет. Поэтому общая ПС
канала равна сумме ПС на один такой отсчет:
[pic], (7)
где U - переданный сигнал; Z - сигнал на выходе канала с наложенными на
него шумами; N - шум; Z=U+N.
Пусть U и N - случайные величины с плотностью распределения вероятности
w, распределенной по нормальному (гауссовскому) закону. Для таких сигнала и
шума (см. вывод в [1, с. 114, 117-118]:
[pic].
Отсюда следует:
[pic].
ПС в расчете на секунду будет равна:
[pic], (8)
поскольку при дискретизации сигнала по теореме Котельникова за одну секунду
мы получим 2F отсчетов, где F - верхняя частота спектра сигнала.
Подчеркнем, что формула (8) имеет такой вид только при условии, что
плотности распределения вероятностей w(U) и w(N) подчиняются нормальному
закону.
Формула (8) имеет важное значение, т.к. указывает на зависимость ПС
канала от его технических характеристик - ширины полосы пропускания и
отношения мощности сигнала к мощности шума.
Чтобы выяснить как зависит пропускная способность от ширины полосы
пропускания выразим мощность шума в канале через его одностороннюю
спектральную мощность N0. Имеем Рш=N0F; поэтому
С=F*log(1+ Pc/N0*F )=F*loge*ln(1+Pc/N0*F)
(9)
При увеличении F пропускная способность С, бит/с, сначала быстро
возрастает, а затем асимптотически стремится к пределу:
C?=Lim(Pc/N0)*loge
(10)
Результат (10) получается очень просто, если учесть, что при |(|<<1
ln(1+()((. Зависимость С и F показана на рис.4.
[pic]F N0/Pc
рис.4 Зависимость нормированной пропускной способности
гауссовского канала от его полосы пропускания.
Теорема кодирования для канала с помехами.
Это основная теорема кодирования К. Шеннона. Применительно к
дискретному источнику информации она формулируется так:
Теорема. Если производительность источника сообщений H’(A) меньше
пропускной способности канала С: H’(A)<эээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээээ
|