СПЕЦИАЛИЗИРОВАННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И НАСТРОЙКИ РЕКУРРЕНТНОЙ СЕТИ ПРЕОБРАЗОВАТЕЛЯ ЧАСТОТНО-ВРЕМЕННЫХ ПАРАМЕТРОВ СИГНАЛОВ В КОД

Одним из направлений повышения эффективности преобразователей формы представления информации (ПФИ) аналоговой величины x (заданной в виде частоты f x или временного интервала ) в цифровой эквивалент в информационно-измерительных системах является расширение функциональных (интеллектуальных) возможностей ПФИ, в том числе с использованием математического аппарата искусственных нейронных сетей (ИНС) [1].
Предложенная в [1] методика синтеза нейросетевых преобразователей содержит 4 этапа. Наиболее трудоемким из них является настройка нейросетевых ПФИ на решение задачи преобразования. Под настройкой ИНС-преобразователя понимается совокупность специальных процедур, таких как, выбор алгоритма обучения нейросети и обучающих примеров, а также собственно процедуры обучения и тестирования устройства на решение поставленной задачи преобразования [1].
При разработке аппаратно-реализуемых нейросетевых устройств преобразования существует задача разработки специализированных алгоритмов обучения нейронных сетей [1], так как универсальные нейросетевые структуры и алгоритмы их обучения рассчитаны, как правило, на программную реализацию, что не всегда приемлемо в устройствах, функционирующих независимо от вычислительного центра управления системой сбора и обработки информации.
Из работы [2] известна структура нейросетевого преобразователя частотно-временных параметров x сигналов в цифровой код на основе последовательного соединения двух компонент: однослойной ИНС и двухслойной рекуррентной сети. Последняя обладает рядом недостатков.
- Неопределенность минимального необходимого количества нейронов скрытого слоя сети для выполнения поставленной задачи преобразования.
- Структура рассчитана на обучение с помощью алгоритма обратного распространения ошибки, сходимость которого зависит от многих факторов (вид функции активации нейронов, способность алгоритма обойти «локальные минимумы» и др.), что не всегда возможно учесть заранее в аппаратно-реализуемом устройстве.
В связи с этим предлагается модификация второй компоненты структуры нейросетевого преобразователя частотно-временных параметров x сигналов в цифровой код на основе двухслойной рекуррентной сети с целью устранения выше перечисленных недостатков.
Первая компонента осуществляет преобразование аналоговой величины x, представленной в виде частоты f x или временного интервала , в число-импульсный код относительно опopной величины , представленной в виде временного интервала , частоты f 0 или периода T 0.
Математически работу нейрона первой компоненты ИНС (см. рис. 2) можно описать следующей формулой [2]:
где - значения суммы на входе порогового элемента нейрона в дискретные моменты времени (такт) , h - номер такта преобразования длительностью T 0. Аналоговая величина x задает значение переменного порога нейрона. Код на выходе первой компоненты представляется в виде последовательности импульсов α 0:
Модифицированная вторая компонента может осуществлять преобразование унитарного число-импульсного кода в двоично-позиционный код в зависимости от значений весовых коэффициентов и порогов нейронов сети. Входом для импульсов α0 является сдвиговый регистр, состоящий из элементов задержки ЭЗ1, ЭЗ2,.. и т.д. Биты элементов задержки сдвигового регистра совместно с битами элементов задержки обратных связей ЭЗБ1, ЭЗБ2,.. и т.д. являются входами двухслойной рекуррентной сети.
Условно двухслойную сеть можно разбить на группы нейронов, формирующие соответствующие им биты β1 позиционного кода , и группу нейронов формирующих сигнал сброса Clr сдвигового регистра. Каждая из этих групп образует двухслойную рекуррентную подсеть с обратной связью, которая состоит из группы нейронов первого слоя и одного нейрона второго (выходного) слоя. Нейроны имеют пороговую функцию активации:
где - взвешенная сумма значений входов нейрона x j; M - число входов нейрона; W j,i - весовые коэффициенты нейрона; θ i - порог нейрона.
Предлагаемый алгоритм содержит 3 этапа.
- Формирование обучающей выборки.
- Формирование структуры сети.
- Обучение нейронов сформированной сети.
Приведенный специализированный алгоритм обучения и настройки нейросетевых преобразователей позволяет проектировать преобразователи формы информации на основе модифицированной рекуррентной сети на задачу нелинейного преобразования «аналог-код», не прибегая к стандартным обучающим алгоритмам при настройке и (или) перенастройке функционального преобразователя на реализацию новой функции преобразования. Это исключает итеративное приближение весовых коэффициентов к искомым значениям, что существенно сокращает время настройки. Предложенные этапы обучения учитывают структурные особенности слоев рекуррентной сети, что снижает аппаратные затраты на реализацию весовых коэффициентов второго слоя, в отличие от стандартных алгоритмов обучения сетей, рассчитанных в основном на программную реализацию.
СПИСОК ЛИТЕРАТУРЫ
- Локтюхин В.Н., Челебаев С.В. Нейросетевые преобразователи импульсно-аналоговой информации: организация, синтез, реализация / Под общей редакцией А.И. Галушкина. - М.: Горячая линия - Телеком, 2008. ‑ 144 с.
- Локтюхин В.Н., Челебаев С.В. Применение рекуррентных сетей для синтеза импульсно-цифровых преобразователей // Вестник Рязанского государственного радиотехнического университета, № 19, 2006. С. 94-103.
Статья в формате PDF
119 KB...
23 03 2026 5:34:52
22 03 2026 14:42:52
Статья в формате PDF
115 KB...
20 03 2026 20:56:12
Статья в формате PDF
120 KB...
19 03 2026 4:22:36
Статья в формате PDF
119 KB...
18 03 2026 6:26:35
Статья в формате PDF
202 KB...
17 03 2026 16:35:55
Статья в формате PDF
113 KB...
16 03 2026 20:33:10
Статья в формате PDF
311 KB...
15 03 2026 7:17:31
Статья в формате PDF
219 KB...
14 03 2026 7:44:10
Статья в формате PDF
110 KB...
13 03 2026 4:42:47
12 03 2026 4:14:54
11 03 2026 15:15:43
Статья в формате PDF
106 KB...
09 03 2026 1:16:42
Статья в формате PDF
193 KB...
08 03 2026 12:34:58
Статья в формате PDF
114 KB...
07 03 2026 14:49:37
Статья в формате PDF
111 KB...
06 03 2026 4:15:26
Статья в формате PDF
134 KB...
05 03 2026 2:11:53
Статья в формате PDF
477 KB...
04 03 2026 4:21:51
03 03 2026 10:17:25
Статья в формате PDF
688 KB...
02 03 2026 10:33:58
Статья в формате PDF
121 KB...
28 02 2026 22:55:48
Статья в формате PDF
119 KB...
27 02 2026 20:27:14
Статья в формате PDF
114 KB...
26 02 2026 0:13:41
Статья в формате PDF
147 KB...
25 02 2026 4:58:29
Статья в формате PDF
292 KB...
24 02 2026 7:11:43
Статья в формате PDF
116 KB...
22 02 2026 8:41:39
Статья в формате PDF
120 KB...
21 02 2026 13:44:30
Статья в формате PDF
303 KB...
20 02 2026 20:27:35
Статья в формате PDF
122 KB...
19 02 2026 14:52:35
Статья в формате PDF
129 KB...
18 02 2026 9:51:28
Статья в формате PDF
105 KB...
17 02 2026 9:22:24
Статья в формате PDF
190 KB...
16 02 2026 19:22:39
Статья в формате PDF
282 KB...
15 02 2026 4:16:23
14 02 2026 5:39:10
Статья в формате PDF
121 KB...
13 02 2026 11:47:26
Статья в формате PDF
105 KB...
12 02 2026 15:17:34
Еще:
Поддержать себя -1 :: Поддержать себя -2 :: Поддержать себя -3 :: Поддержать себя -4 :: Поддержать себя -5 :: Поддержать себя -6 :: Поддержать себя -7 :: Поддержать себя -8 :: Поддержать себя -9 :: Поддержать себя -10 :: Поддержать себя -11 :: Поддержать себя -12 :: Поддержать себя -13 :: Поддержать себя -14 :: Поддержать себя -15 :: Поддержать себя -16 :: Поддержать себя -17 :: Поддержать себя -18 :: Поддержать себя -19 :: Поддержать себя -20 :: Поддержать себя -21 :: Поддержать себя -22 :: Поддержать себя -23 :: Поддержать себя -24 :: Поддержать себя -25 :: Поддержать себя -26 :: Поддержать себя -27 :: Поддержать себя -28 :: Поддержать себя -29 :: Поддержать себя -30 :: Поддержать себя -31 :: Поддержать себя -32 :: Поддержать себя -33 :: Поддержать себя -34 :: Поддержать себя -35 :: Поддержать себя -36 :: Поддержать себя -37 :: Поддержать себя -38 ::