Нейрокомпьютерные системы

       

Нечеткие сети TSK (Такаги-Сугено-Канга)


Схема вывода в модели TSK при использовании

правил и
переменных
имеет вид

Условие

реализуется функцией фазификации

При

правилах агрегированный выходной результат сети имеет вид

(1)

Веса

интерпретируются как значимость компонентов
. Тогда формуле (1) можно поставить в соответствие многослойную нейронную сеть рис. 3.


увеличить изображение
Рис. 3.  Нечеткая нейронная сеть TSK

1. Первый слой выполняет фазификацию каждой переменной. Это параметрический слой с параметрами

, подлежащими адаптации в процессе обучения.

2. Второй слой выполняет агрегирование отдельных переменных, определяя результирующее значение коэффициента принадлежности

для вектора
(непараметрический слой).

3. Третий слой - генератор функции TSK, рассчитывает значения

В этом слое также производится умножение

на
, сформированные в предыдущем слое. Здесь адаптации подлежат веса
, определяющие функцию следствия модели TSK.

4. Четвертый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов

, а второй - сумму весов
(непараметрический слой).

5. Пятый слой из одного нейрона - это нормализующий слой, в котором выходной сигнал сети агрегируется по формуле (1).

Таким образом, в процессе обучения происходит уточнение параметров только первого (нелинейного) и третьего (линейного) слоев.



Содержание раздела