1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
|
\subsection{Лекция 1 (02.09.21)}
Данные, полученные человеком будут называться сообщениями. Информацией
становятся те сообщения, которые используются для принятия каких-либо
решений, то есть снимается неопределённость, которая существовала до их
поступления.
Следует отметить, что теория информации занимается изучением количества
информации безотносительно какого-то содержания сообщения. Все сообщения
в теории информации формализуются и изучается процесс формирования таких
сообщений и способов их передачи.
Предметом изучения теории информации являются вероятностные
характеристики исследуемых объектов и явлений.
Теория информации делится на:
\begin{itemize}
\item
теорию передачи информации (предметом изучения являются оптимальные методы передачи сообщений);
\end{itemize}
\textbf{рис. 1}
Сигналом принято считать некоторую физическую хар-ку, изменяющуюся во
времени. Например, изменение напряжения во времени.
В общем случае сигналом может быть любое изменение начального состояния
объекта, которое способно вызвать реакцию человека или принимающего
прибора.
Различают сигналы:
\begin{itemize}
\item зрительные
\item звуковые
\item радиоэлектрические
\item радиосигналы
\end{itemize}
Следует отметить, что одни сигналы могут как преобразовываться в другие,
так и сами являться источниками формирования новых сигналов. С точки
зрения изменения сигнала с течением времени различают \emph{статические}
и \emph{динамические}.
Статические --- это сигналы, которые изменяют устойчивое изменение
состояния объекта. Динаические --- это сигналы, отображающие
непрерывные изменения некоторого объекта, либо процесса при переходе от
одного устойчивого состояния к другому. К динамическим относятся все
виды электромагнитных колебаний, а также распространения звука в воде и
твёрдых предметах.
По струкруте сообщения сигналы делятся на \emph{непрерывные} и
\emph{дискретные}. Сигналы могут быть непрерывными и дискретными как по
времени, так и по множеству значений. Возможен один из четырёх видов
сигналов: - полностью непрерывный сигнал (по времени \& множеству
значений) - непрерывный по множеству значений и дискретным по времени -
дискретный по множеству значений и непрерывным по времени - полностью
дискретный
Носителем сигнала всегда является объект или процесс. Однако если
абстрагироваться от его физической природы, то существенными с точки
зрения теории информации будут только его вероятностные характеристики и
другие важные черты с точки зрения данного изучаемого процесса.
\textbf{В теории информации математическая модель сигнала может
противоречить реальной физической структуре.} Допустим, в теории инф мы
предполагаем, что структура сигнала известна приёмнику.
\subsubsection{Обобщённое спектральное представление детерминированных
сигналов}
Чтобы изучать непрерывные сигналы для начала изучаются детерминированные
сигналы, при этом они рассматриваются как некоторый ансамбль \ldots{} .
Мы будем использовать некоторую функцию
\begin{equation}
u(t) = \sum_{k = 1}^{}n C_k \phi_k(t) \quad (1)
\end{equation}
Искусственно ограничиваем $t$ некоторым \emph{промежутком времени}
(?). Данная модель называется \textbf{линейной моделью сигнала}. Здесь
$\phi_k(t)$ --- базисные функции, а $C_k$ --- безразмерный
коэффициент. Если заданы все базисные функции, то функция $u(t)$ будет
определяться только коэффициентами $C_k$. Эти коэффициенты будут
называться дискретным спектром сигнала. За пределами интервала
$t \in [t_1; t_2]$ времени сигнал считается \emph{всегда}
\textbf{условно продолжающимся}.
В некоторых задачах такое представление является неприемлемым, поэтому
для сигналов конечной длительности существуе другое представление:
\begin{equation*}
u(t) = \int_{-\infty}^{}\infty S(\alpha) \phi(\alpha, t) ; d\alpha \quad (2)
\end{equation*}
Здесь $s(\alpha)$ называется \emph{спектральной плотностью}, а
$\phi(\alpha, t)$. Это модель \emph{непрерывного} сигнала.
Раздел теории информации, который изучает сигналы в данных
представлениях, называется \textbf{спектральной теорией сигналов}.
В связи с этим обычно используют набор ортогональных базисных функций,
которые удовлетворяют следующему условию:
\begin{equation*}
\int_{t_1}^{}{t_2} \phi_k(t) \phi_l(t) d t =
\begin{cases} 0, &k \neq l \\ 1, &k = l \end{cases}
\quad (3)
\end{equation*}
То есть если умножить все $\phi_l$ на данном интервале на коэффициент
$\frac{1}{\sqrt{\mu}}$, то мы получим ортонормированную функцию, то
есть
\begin{equation*}
\int_{t_1}^{}{t_2} \phi_k(t) \phi_l(t) dt = 1, \quad k = l
\end{equation*}
Пусть имеется модель, удовлетворяющая условию ортонормированности.
Возьмём модель (1), обе части данной модели умножим на $\phi_l(t)$ и
\ldots{} . Получим
\begin{equation*}
\int_{t_1}^{t_2} u(t) \phi_l(t) dt =
\int_{t_1}^{t_2} \sum_{k = 1}^n C_k \phi_k(t) \phi_l(t) dt =
\sum_{k = 1}^n C_k \int_{t_1}^{t_2} \phi_k(t) \phi_l(t) dt
\end{equation*}
Получаем
\begin{equation*}
C_k = \int_{t_1}^{t_2} \phi(t) \phi_k(t) dt
\end{equation*}
Исходя из этого получаем:
\begin{enumerate}
\item Каждый коэффициент $C_k$ может вычисляться независимо друг от друга
\item
Сложность их вычисления будет зависеть только от сложности вычисления
базисной функции, поэтому для изучения сигналов применяются системы
ортогональных функций, в частности применяются
\begin{enumerate}
\item Системы тригонометрических функций
\item Системы функций Хаара
\item Полиномы Лежандра
\item Полиномы Чебышева
\item Полиномы Лагерра
\item Полиномы Эрмита
\end{enumerate}
\end{enumerate}
\subsubsection{Временная форма представления сигналов}
Возьмём произвольную непрерывную функцию $u(t)$. Будем считать, что
непрерывная функция представляет собой набор функций примыкающих друг к
другу импульсов бесконечно малых длительности с амплитудой равной
значению сигнала в конретный момент времени. То есть получим новую
модель, которая записывается через некоторую дельта-функцию.
\begin{equation*}
u(t) = \int_{-\infty}^{}\infty u(\tau) \delta(\tau - t) d\tau \quad (4)
\end{equation*}
\begin{equation*}
\delta = \begin{cases} \infty, &t = \tau \\ 0, &t \neq \tau \end{cases}
\end{equation*}
Ортонормируем дельта-функцию:
\begin{equation*}
\int_{-\infty}^{}\infty \delta(\tau - t) d \tau = 1
\end{equation*}
Как видно, модель (4) является обобщённым случаем модели (2), базисной
функцией которого является дельта-функция. Таким же образом мы можем с
помощью этой модели мы можем построить дискретную модель, которая будет
называться \textbf{решётчатой} функцией:
\begin{equation*}
u_l(t) = \sum_{k = -\infty}^{}\infty u(t) \delta(\tau - t), \quad \tau = \Delta t k
\end{equation*}
$\Delta t$ --- период импульса.
Пределы суммы могут быть как конечными, так и бесконечными исходя из
физической реальности.
Эти две модели могут называться временными.
|