Учебное пособие по курсу «Нейроинформатика» | страница 5



1. Формирование задачника.

2. Обучение нейронной сети.

3. Тестирование обученной нейронной сети.

4. Контрастирование обученной нейронной сети.

5. Тестирование контрастированной нейронной сети.

6. Анализ полученных результатов.

Контрастирование нейронной сети проводится до получения минимальной нейронной сети — сети из которой нельзя удалить ни одной связи.

В отчет включаются все полученные результаты (число тактов при обучении сети и результаты статистического теста для всех видов оценки). На основе анализа полученных результатов необходимо сформулировать рекомендации по использованию исследованных оценок.

Лабораторная № 7

Цель работы. Сравнить сети использующие различные виды нейронов.

Используемые программы. Лабораторная выполняется на программах Sigmoid, Pade, Sinus.

Задание. Необходимо обучить нейронные сети, реализованные в программах Sigmoid, Pade и Sinus с максимальным уровнем надежности. Для программы Sigmoid (сигмоидная сеть) максимальным, но недостижимым уровнем надежности является 2. На практике удается обучить сеть с уровнем надежности 1,9–1,98. Для Паде сети (программа Pade) нет ограничения на достижимый уровень надежности, однако в программе установлено ограничение на уровень существенности — 200. В программе Sinus (сеть с синусоидной характеристикой) максимальный уровень надежности 2 является достижимым.

Для каждой сети определяются следующие показатели:

• число тактов обучения;

• результат статистического теста.

Все полученные результаты включаются в отчет. Отчет должен содержать рекомендации по использованию всех видов сетей.

Вопросы к экзамену

1. Основные принципы инженерного направления в нейроинформатике

2. Классическая сеть Хопфилда. Ее свойства и методы расширения возможностей.

3. Проекционная сеть ассоциативной памяти

4. Тензорная сеть ассоциативной памяти

5. Автокорреляторы в обработке изображений. Сети Хопфилда с автокорреляторами.

6. Сети естественной классификации. Метод динамических ядер. Пространственная сеть Кохонена.

7. Бинарные сети. Метод обучения бинарных сетей. Правило Хебба, его достоинства и недостатки.

8. Персептрон Розенблатта. Теорема о достаточности целочисленных коэффициентов.

9. Персептрон Розенблатта. Теорема о достаточности двух слоев.

10. Метод двойственности в обучении нейронных сетей. Основные идеи и ограничения на архитектуру.

11. Метод двойственности в обучении нейронных сетей. Требования к элементам сети. Функционирование синапса, сумматора, нелинейного преобразователя.