РефератыОстальные рефератыЗаЗадание №3 заключение Список литературы Введение

Задание №3 заключение Список литературы Введение

Министерство образования и науки Республики Казахстан


Северо-Казахстанский Государственный Университет имени М.Козыбаева


Садовой Евгений Геннадьевич


КУРСОВАЯ РАБОТА


специальность 050719 – «Радиотехника электроника и телекоммуникации»


Петропавловск 2010


Министерство образования и науки Республики Казахстан


Северо-Казахстанский государственный университет им. М.Козыбаева


КУРСОВАЯ РАБОТА


На тему: «»


по специальности 050719 – «Радиотехника электроника и телекоммуникации»


Выполнил Е.Г.Садовой


Научный руководитель


ст. преп. каф. РиТ Н.К. Набиев


Петропавловск 2010


Содержание


1 Введение……………………………………..………………………………......4


2 Задание №1……………………………………………………………………....5


3 Задание №2……………………………………….. …………………….………8


4 Задание №3 …………………………………..………………………………...11


Заключение…………………………………………….……………………........24


Список литературы……………………….……………….……………...……...25



1 Введение


Пропускная способность - метрическая характеристика, показывающая соотношение количества проходящих единиц (информации, предметов, объёма) в единицу времени через канал, систему, узел. Скорость передачи информации зависит в значительной степени от скорости её создания, способов кодирования и декодирования. Наибольшая возможная в данном канале скорость передачи информации называется его пропускной способностью. Пропускная способность канала, по определению, есть скорость передачи информации при использовании «наилучших» для данного канала источника, кодера и декодера, поэтому она характеризует только канал.


Основным понятием теории информации является понятие энтропии, которое возникло в связи с необходимостью ввести численную характеристику неопределенности случайного объекта. При вычислении энтропии требуется математическая модель объекта и его фазового пространства. Математическая модель содержит атрибуты двух типов.


Атрибуты, инвариантные относительно всех допустимых преобразований модели, называются структурными. Они образуют структуру модели. К ним относятся уравнения, описывающие объект, пространство, из которого берут свои значения переменные, алгебра и топология на этом пространстве, система начальных, граничных условий и т. п.


Другие атрибуты математической модели могут изменять свои значения при разных преобразованиях. Это вариативные параметры. К ним относятся значения переменных, координатные системы, в которых записаны уравнения, изменяемые связи между частями модели, границы областей, где ищутся решения и т. п. Полная совокупность всех вариативных параметров называется фазовым состоянием
модели (его общей записью), а набор конкретных значений этих параметров — фазовой точкой или микросостоянием.


Техническое задание


Вариант №1


1. Рассчитать минимально необходимую пропускную способность канала связи, если алфавит источника состоит из N символов с вероятностями их появления p(xi
) (таблица 1). Скорость передачи сообщений: 5 символов в 1 с (согласно варианту).


Определить избыточность источника и вычислить, во сколько раз можно повысить пропускную способность при оптимальном статистическом кодировании.


Таблица 1














































































































№ варианта


1


2


3


4


5


6


7


8


9


0


p(x1
)


0.10


0.10


0.03


0.40


0.50


0.06


0.40


0.24


0.24


0.02


p(x2
)


0.25


0.05


0.26


0.25


0.04


0.15


0.18


0.18


0.28


0.50


p(x3
)


0.15


0.04


0.09


0.05


0.03


0.15


0.10


0.38


0.05


0.03


p(x4
)


0.15


0.01


0.05


0.30


0.15


0.07


0.10


0.10


0.22


0.15


p(x5
)


0.30


0.20


0.16


0.00


0.04


0.05


0.07


0.06


0.15


0.04


p(x6
)


0.05


0.03


0.10


0.00


0.12


0.29


0.06


0.02


0.06


0.12


p(x7
)


0.00


0.07


0.09


0.00


0.10


0.19


0.05


0.02


0.00


0.04


p(x8
)


0.00


0.50


0.22


0.00


0.02


0.04


0.04


0.00


0.00


0.10



2.

Передача бинарных сообщений, имеющих априорные вероятности p1
и p2
осуществляется методом амплитудной и фазовой манипуляции с помощью точно известных сигналов одинаковой длительности t0
. Прием происходит на фоне гауссовой помехи с равномерной спектральной плотностью N0
[B 2 / Гц ]


Требуется:


- вычислить для заданных условий вероятность ошибочного приема каждого из сигналов оптимальным приемником, принимающим решение по критерию идеального наблюдателя;


- нарисовать с необходимыми пояснениями структурную схему оптимального приемника, работающего по названному критерию;


- рассчитать по найденной вероятности ошибок и априорным данным относительную величину снижения пропускной способности рассматриваемого канала связи из-за действия заданных помех в % от производительности источника сигналов.


Необходимые данные выберите из табл.2.1, где


- отношение сигнал / шум, а численное значение амплитуды А (в мкВ) сигнала S1
(t) выберите совпадающим с номером вашего шифра.


Таблица 2.1










































































№ варианта


1


2


3


4


5


6


7


8


9


0


p1


0,1


0,2


0,3


0,4


0,5


0,6


0,7


0,8


0,9


0,4


t0
, мкс


0,1


0,2


0,3


0,4


0,5


0,6


0,7


0,8


0,9


1


h


0,55


1,04


0,77


0,67


0,67


0,71


0,82


0,69


1,13


1,74


A/B


2,5


2


1,5


2,25


2,75


3


3,25


1,75


2,4


2,6


j, град


0


30


60


90


120


150


180


210


240


270



3. Выбрать код и построить структурную схему кодера для СПДС с допустимой вероятностью ошибки в канале р0
доп =10 -5 . Предварительное тестирование показало наличие ошибок на 1 бит передаваемой информации с вероятностью р 0 =А х 10 -8 , где А совпадает с номером вашего шифра. В качестве модели дискретного канала взять дискретный канал без памяти (ДСК), а длину кодовой комбинации выбрать из условия построения кода Боуза-Чоудхури-Хоквингема (БЧХ).


Задание №1


Основным понятием теории информации является понятие энтропии
, которое возникло в связи с необходимостью ввести численную характеристику неопределенности случайного объекта.


В теории информации доказано, что в качестве меры неопределенности случайного объекта с дискретным множеством его возможных состояний (x1
, x2
,...,xn
) и соответствующими вероятностями вида (p1
, p2
,..., pn
) целесообразно взять функционал вида


, (1.1)


который обладает рядом свойств. В частности,


1) H(x)=
0 в том и только в том случае, если одна из вероятностей равна единице. Это соответствует случаю, когда исход опыта может быть предсказан с полной достоверностью, т.е. отсутствует всякая неопределенность;


2)при p1
=p2
=...=pn
=1/n
, т.е. в случае наибольшей неопределенности, функция H(x)
достигает наибольшего значения:


(1.2)


Энтропию (1.1) часто называют энтропией множества {xi
}.


В нашем случае n=8, отсюда следует : Hmax
=log8=3


Особое внимание при использовании в расчетах выражений (1.1) и (1.2) следует обращать на основание логарифмов, которое определяет единицы измерения энтропии. В случае оценки энтропии в двоичных единицах на символ (бит/символ):


(1.3)


Подставив необходимые данные получим:


H(x) = = -(0.1log 0.1+0.25 log0.25+0.15 log0.15+0.15 log0.15+0.3 log0.3+0.05 log0.05+0 log0+ 0log0) = -(-0.1-0.151-0.124-0.124-0.157-0.065-0-0) = 0.721


В случае отсутствия помех пропускная способность канала связи
определяется количеством информации, переносимой символом сообщения в единицу времени:


C=ν H(x)
,


где ν – количество символов, вырабатываемых источником сообщений за единицу времени;


H(x) – энтропия, снимаемая при получении одного символа сообщений, вырабатываемых данным источником. В ходе решения получается:


C== 3.605


В случае неравновероятных символов равной длительности энтропия H(x)
определяется из выражения (1.1). Для сообщений, составленных из равновероятных, взаимнонезависимых символов, энтропия Hmax
должна определяться из выражения (1.2).


Для определения количества лишней информации, которая заложена в структуре алфавита, вводится понятие избыточности
. Информационная избыточность свидетельствует об относительной недогруженности на символ алфавита и является безразмерной величиной:


, (1.4)


Подставив полученные данные,определяется что: =0.760


Кодирование, при котором обеспечивается распределение времени на передачу отдельных символов алфавита в зависимости от априорных вероятностей их появления по закону (1.5), называется оптимальным статистическим кодированием.


Пропускная способность при оптимальном статистическом кодировании определяется по формуле:


(1.6)


где li
– длина (количество бит) кодовой комбинации i
-го символа.


Пропускная способность при оптимальном статистическом кодировании равна:



k=cэф/с=



















Задание №2


Передача бинарных сообщений, имеющих априорные вероятности p1
и p2
осуществляется методом амплитудной и фазовой манипуляции с помощью точно известных сигналов одинаковой длительности t0
. Прием происходит на фоне гауссовой помехи с равномерной спектральной плотностью N0
[B 2 / Гц ]


Для заданных условий полная (средняя) вероятность ошибочного приема


P ср =p 1 P ош1 +p 2 P ош2 (2.1)


где p 1 , p 2 -априорные вероятности символов S 1 (t) и S 2 (t) соответственно;


P ош1 , P ош2 - вероятности ошибочного приема символов S 1 (t) и S 2 (t) соответственно.


Выражения для вероятностей ошибок P ош1 , и P ош2 . могут быть получены):


, (2.2)


(2.3)


где - интеграл вероятности, таблицы которого можно найти, например, в [5];


- эквивалентная мощность, характеризующая степень различимости сигналов S 1 (t) и S 2 (t).


Если считать для амплитудной манипуляции (AM) S 1 (t)=Acos w t , S 2 (t)=0 , а для фазовой манипуляции (ФМ) S 1 (t)=Acos w t , S 2 (t)= В cos( w t+ j ), то


(2.4)


Рассмотрим снижение пропускной способности канала связи из-за действия помех.


В отсутствие помех пропускная способность канала


(2.5)


Пропускная способность канала в присутствии помех


, (2.6)


где H(Z) - собственная энтропия множества Z


(2.7)


- условная энтропия, которая может быть записана в следующем виде:



+ (2.8)


При наличии помех имеют место следующие соотношения:


(2.9)


Отсюда можно найти P(Z 1 ) и P(Z 2 ) :


(2.10)


Тогда с учетом (2.1) - (2.10), а также значений P ош1 , P ош2 снижение пропускной способности из-за действия помех определится из выражения:


(2.11)


Ход решения представлен в следующем порядке:


1)



Отсюда следует: Ϭо
2
=1,92×10-11


2) Для фазовой манипуляции S 1 (t)=2cos w t , S 2 (t)= 2 cos( w t+ 300
) согласно (2.4)


Рэфм=2×10-12
+2×10-12
-4×10-12
cos 300
=0,536×10-12


3) Согласно (2.2) Рош1
=0.5(1-0.45149)=0.274255 так как Ф(0.595)=0.45149


4) Согласно (2.3) Рош2
=0.5(1-0.92814)=0.03593 так как Ф(1.768)=0.92814


5) Согласно (2.1) Рср=0.2×0.274255+0.8×0.03593=0.083595


6) Согласно (2.5) С=-107
(-0.464-0.258)=0.72×107


7) Согласно (2.8) условная энтропия равна: H(Z/S)=-{0.2[(1-0.274255)log2
(1-0.274255)+ 0.274255log2
0.274255]+0.8[(1-0.03593) log2
(1-0.03593)+ 0.03593log2
0.03593]=0.20639


8) Согласно (2.10)


P(Z1)=0.2(1-0.2742555-0.03593)+0.03593=0.174


P(Z2)=0.2(0.2742555+0.03593-1)+1-0.03593=0.826


9) Согласно (2.7) H(Z)=-[0.174×ln0.174/ln2 +0.826×ln0.826/ln2=0.672


10) Согласно (2.6) пропускная способность в присутствии помех равна: С1=1/0,1×10-6
(0,672-0,20639)=0,465×107


11) Снижение пропускной способности согласно (2.11) равно δс=(1-0,465×107
/0.72×107
) ×100%=35.4%


Задание №3


Если оказалось, что p 0 > р 0 доп , то для получения требуемой верности передачи информации следует применить помехоустойчивое кодирование. Задача заключается в определении необходимой исправляющей способности кода, выборе его типа и параметров. Для решения этой задачи необходимо знать распределение ошибок кратности t ош в кодовой комбинации длиной n . Если используемый код позволяет исправлять ошибки с кратностью до t испр включительно, то тогда вероятность появления на выходе декодера кодовых комбинаций с неисправленными ошибками будет равна сумме вероятностей ошибок с кратностью t ош > t испр , т.е.


, (3.1)


Расчет вероятности появления в кодовых комбинациях длиной n ошибок с кратностью t=t ош производится по формуле

биномиального распределения:


(3.2)


Поскольку (3.1) определяет вероятность ошибки кодовой комбинации, связанную с ее длиной, то для независимой оценки допустимости достигнутой помехозащищенности необходимо рассмотреть эквивалентную вероятность ошибки на бит, путем пересчета:


(3.3)


Очевидно, что исправляющая способность кода t испр должна быть выбрана такой, чтобы р экв оказалась меньше или равна р 0 доп .


Рекомендация МККТТ V.41 предписывает использовать в системах передачи данных с решающей обратной связью при скоростях 600, 1200, 3600, 4800 бит/с циклический код с n = 140, 260, 500, 980 . Это объясняется тем, что с увеличением n уменьшается относительная доля проверочных разрядов, что позволяет увеличить эффективную скорость передачи при сохранении прежней корректирующей способности. Однако, учитывая трудоемкость расчетов при больших n , можно ограничиться n £ 30, но обязательно нечетное число из условия n=2 m -1.


Итак, зная распределение Р n ( t ) определив по (3.1) величину t испр , можно найти количество проверочных разрядов r при использовании рекомендуемого МККТТ циклического кода


(3.3)


Отсюда количество информационных разрядов в кодовой комбинации будет равно k= n - r . Кодовое расстояние равно d 0 =2 t испр +1. Далее необходимо определить вид порождающего полинома для используемого циклического кода, т.к. порождающий полином определяет корректирующую способность кода и структуры кодера и декодера.


Определение порождающего полинома


Рассмотрим методику определения порождающего полинома для циклических кодов Боуза-Чоудхури-Хоквингема (БЧХ). Коды БЧХ составляют большой класс легко строящихся кодов с произвольными длиной блока и скоростью. Важность этих кодов обеспечивается не только гибкостью выбора их параметров, но и тем, что при длинах блока n около нескольких сотен многие из них являются оптимальными среди всех известных кодов с теми же длиной и скоростью.


Теоретические аспекты кодов БЧХ довольно сложны и требуют предварительного знакомства с рядом специальных разделов высшей алгебры. Проще всего такие коды описать с помощью корней порождающих многочленов.


Порождающий многочлен кода БЧХ можно записать в виде


g(x) = НОК [ M 1 (x), M 3 (x), ... ,M r (x) ], (3.4)


где а) M i (x) - минимальный многочлен;


б) число сомножителей L равно числу исправляемых ошибок t испр ;


в) старшая степень многочлена l = m ;


г) степень g(x) r £ l t испр = m t испр ;


д) r = 2 t испр -1 -максимальный порядок, определяет номер последнего из выбираемых табличных минимальных многочленов M i (x) .


Существуют специальные таблицы минимальных многочленов. Одна из разновидностей таблиц приведена в конце раздела. Минимальные многочлены с соответствующей степенью и порядком записаны в этой таблице в восьмеричном представлении порождающего числа. Порождающее число представляет собой упорядоченную совокупность двоичных коэффициентов перед степенями порождающего полинома.


Вначале по отношению r / t испр определяется старшая степень минимального многочлена ;


Определяем максимальный порядок r = 2 t испр -1


Находим g(x) как произведение минимальных многочленов, находящихся в строке l


g(x) = M 1 (x) ´ M 3 (x) ´ ... ,M r (x) . (3.5)


Коды БЧХ обладают нечетными значениями кодового расстояния d 0 . При необходимости d 0 можно увеличить на единицу, умножив найденный по приведенной методике полином на x +1 .


Построение схемы кодера циклического кода


Задачей кодера является формирование таких r проверочных разрядов, которые обеспечивали бы делимость без остатка последовательности информационных и проверочных разрядов на порождающее число, отображающее структуру порождающего полинома. Порождающее число представляет собой упорядоченную совокупность двоичных коэффициентов перед степенями порождающего полинома.


Можно показать, что для обеспечения делимости в качестве проверочных разрядов следует использовать разряды остатка от деления по модулю два информационных разрядов с приписанными к ним справа r нулями на порождающее число. Т.о. основной операцией кодера является операция деления. В этом случае процедура получения кодового слова состоит в применении алгоритма Евклида, согласно которому



Делимое представляет собой информационную последовательность, умноженную на x r (эквивалентно приписке справа r нулей). Делитель - порождающий полином; кодовая комбинация получается путем прибавления к делимому остатка от деления.


Кажущаяся сложность описанного выше процесса деления в действительности достаточно просто преодолима с помощью регистров сдвига с обратной связью. Тогда схема для одновременного умножения на x r и деления на g(x) будет иметь представленный на рис.3.1 вид.


Эта схема дает требуемый остаток в соответствующих регистрах сдвига.


Порождающий многочлен представляется здесь в виде


g(x)= g r x r +...+ g 1 x + g 0


При g i = 1 сохраняются соответствующие ветви обратной связи;


При g i = 0 соответствующие ветви обратной связи отсутствуют.


Таблица 3.1


































































































































































































































































































































































































































































Степень


r


r


r


r


r


r


r


2


1


7


3


1


13


3


15


4


1


23


3


37


5


07


7


31


5


1


45


3


75


5


67


7


57


9


73


11


51


6


1


103


3


127


5


147


7


111


9


015


11


155


13


133


15


165


21


007


23


163


27


013


31


141


7


1


211


3


217


5


235


7


367


9


277


11


325


13


203


15


357


19


131


21


345


23


301


27


323


29


253


31


361


43


247


47


271


55


375


63


221


8


1


435


3


567


5


763


7


551


9


675


11


747


13


453


15


727


17


023


19


545


21


613


23


543


25


433


27


477


29


615


31


455


37


537


39


771


43


703


45


471


47


651


51


037


53


607


55


661


59


515


61


717


63


735


85


007


87


643


91


765


95


637


111


573


119


031


127


561


9


1


1021


3


1131


5


1461


7


1231


9


1423


11


1055


13


1167


15


1541


17


1333


19


1605


21


1027


23


1751


25


1743


27


1617


29


1553


35


1401


37


1157


39


1715


41


1563


43


1713


45


1175


51


1725


53


1225


55


1275


73


0013


75


1773


77


1511


83


1425


85


1267


10


1


2011


3


2017


5


2415


7


3771


9


2257


11


2065


13


2157


15


2653


17


3515


19


2773


21


3753


23


2033


25


2443


27


3573


29


2461


31


3043


33


0075


35


3023


37


3543


39


2107


41


2745


43


2431


45


3061


47


3177


49


3525


51


2547


53


2617


55


3453


57


3121


59


3471


69


2701


71


3323


73


3507


75


2437


77


2413


83


3623


85


2707


87


2311


89


2327


91


3265


93


3777


99


0067


101


2055


103


3575


105


3607


107


3171


109


2047


147


2355


149


3025


155


2251


165


0051


171


3315


173


3337


179


3211


341


0007






Заключение


В данной курсовой работе я рассчитал минимальную необходимую пропускную способность канала связи. Определил избыточность источника и вычислил, во сколько раз можно повысить пропускную способность при оптимальном статистическом кодировании.


Список литературы:


1.Теория передачи сигналов: Учебник для вузов/А.Г.Зюко, Д.Д.Кловский, М.В.Назаров, Л.М.Финк.-2-е изд. перераб. и доп.- М.:Радио и связь,1986.-304с.


2.Кларк Дж. мл., Кейн Дж. Кодирование с исправлением ошибок в системах цифровой связи: Пер. с англ. - М.: Радио и связь,1987.-392 с.


3.Копничев Л.Н., Алешин В.С. Оконечные устройства документальной электросвязи. - М.: Радио и связь,1986.


4.Системы электросвязи: Учебник для вузов /В.П.Шувалов, Г.П.Катунин, Б.И.Крук и др.; Под ред. Шувалова В.П.- М.: Радио и связь,1987.- 512 c.


5.Горяинов В.Т., Журавлев А.Г., Тихонов В.И. Статистическая радиотехника. Примеры и задачи. - М.: Сов.радио, 1980.


6.Кловский Д.Д., Шилкин В.А. Теория передачи сигналов в задачах.- М.: Связь. 1978.

Сохранить в соц. сетях:
Обсуждение:
comments powered by Disqus

Название реферата: Задание №3 заключение Список литературы Введение

Слов:4262
Символов:40208
Размер:78.53 Кб.