П В Тимощук - Аналогова нейронна схема ідентифікації к максимальних сигналів - страница 2

Страницы:
1  2 

m = \ ) ( (її)

[a,   якщо  E(x 0,

a - коефіцієнт затухання.

Модель (10) може формувати єдиний розв'язок, що відповідає K переможцям для будь-яких

0 £ x £ 1. Оскільки K є1,* ,N 1, а вектор вхідних сигналів а є впорядкованим, тому існує

* * момент часу t > 0 такий, що для всіх t > t   виконуються нерівності виду:

t>1(t) > * > t>K(t) > 0 > Ьк+1(t) > * > bN(t), (12)

де bi(t) = ai x(t) . Отже, розв'язок моделі (10) стартує з початкового стану x0 і фінішує з

компонентами, розщепленими на позитивні і негативні значення відповідно до (8). Тому у будь­*

який момент часу після t модель демонструє властивість вибору K найбільших серед N вхідних сигналів, де 1 £ K < N.

4.2. Аналогова нейронна структурно-функціональна схема. Нейронна структурно-функціональна схема, отримана за моделлю неперервного часу (10), наведена на   рис. 1. Схема

містить блоки підсумовування      множення    демпфування або затухання 0.5, інтегрування —,

s

зовнішніх джерел N, K, x0 і порогових функцій або жорсткого обмеження sign1 і sign2 . Схема

може бути реалізована в сучасній схемній елементній базі, використовуючи такі традиційні елементи, як резистори, конденсатори, аналогові суматори та перемножувачі, обмежувачі ("жорсткообмежувальні квантизатори"), інтегратори неперервного часу та джерела напруги або струму. Зазначимо, що оскільки сигмоїдна функція порівняно з жорсткообмежувальною є зручнішою для реалізації в аналоговій елементній базі, сигнуми можна замінити на м' яколімітуючі сигмоїдні функції [2, 23].

Стосовно обчислювальної складності модель нейронної схеми (10) у кожний момент часу потребує виконання однієї операції перемноження, оскільки перемноження 2K може виконуватись, як додавання K + K , N + 2 додавань/віднімань, оскільки віднімання ai x виконуються в паралельному режимі та двох логічних операцій жорсткого обмеження, оскільки операції sign1 у кожний момент часу також виконуються паралельно. Модель (10) у кожний момент часу потребує виконання одного перемноження, N + 3 додавань/віднімань та двох логічних функцій жорсткого обмеження.

Для порівняння, одна з найефективніших сучасних моделей нейронних мереж неперервного часу типу Хопфілда з [12], призначена для ідентифікації К максимальних сигналів, у кожний момент часу потребує виконання двох перемножень, N + 3 додавань/віднімань, оскільки вони виконуються у паралельному режимі та N операцій сигмоїдних функцій. У зв'язку з тим, що перемноження вимагає значно більше затрат часу, ніж додавання/віднімання, то часові затрати на оброблення сигналів моделлю (10) є значно меншими, ніж у моделей нейронних мереж типу Хопфілда. Як можна побачити з рис. 1, стосовно схемотехнічної реалізації модель (10) є простішою, ніж аналогічні моделі мереж неперервного часу типу Хопфілда.

амО

Рис. 1. Нейронна структурно-функціональна схема, яка описується моделлю (10).

0.5

-0.5

 

 

 

 

 

 

 

 

 

і

-

 

 

 

 

 

 

 

 

 

- X

._. ь2

-*- Ь3

-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-*

 

*-

-*-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.05       0.1       0.15       0.2       0.25       0.3       0.35       0.4       0.45 0.5

t

-0.5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

л

 

 

 

 

 

 

 

 

V

V

V

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.2        0.4        0.6 0.8

1.2 1.4

1.6

1.8

Рис. 2. Траєкторії неперервного часу динамічного зсуву вхідних сигналів та вихідних сигналів моделі 3-го порядку (10) - приклад 1 та моделі 5-го порядку (10) - приклад 2

5. Приклади моделювання нейронної схеми знаходження К найбільших сигналів

Розглянемо два прості приклади, які демонструють оброблення сигналів моделлю запропо­нованої нейронної схеми неперервного часу, призначеної для знаходження К максимальних сигналів.

Приклад      1.      Задамо      в      моделі      (10)      такі значення параметрів:

K = 2;N = 3;a = [0.3,0.9,0.8], a = 1. Динаміка вихідних сигналів моделі b = [ЬьЬ2з] у нормалізованих одиницях та нормалізованому масштабі часу буде мати форму, зображену на рис. 2, де вихідний сигнал Ьз набуває у встановленому режимі мале позитивне значення. Згідно з рис. 2 компоненти вектора b прямують до коректних станів.

Приклад 2. Задамо в моделі (10) такі значення параметрів: K = 3; N = 5; а = [0.3,0.9,0.8,0.1,0.4], a = 1. Динаміка вихідних сигналів моделі b = [Ьі2з4з] у цьому разі має форму, показану на рис. 2, де вихідний сигнал b5 набуває у встановленому режимі мале позитивне значення. Згідно з рис. 2 компоненти вектора b демонструють властивість (8).

6. Висновки

Згідно з результатами численних експериментів запропонована нейронна схема є доволі робастною. Зміна значень параметра a в діапазоні 0 < a < ¥ не впливає на якісні властивості вихідних сигналів схеми.

Важливою перевагою нейронної схеми, яка реалізується за моделлю (10), є те, що на відміну від аналогів, зокрема, мережі з [22], вона гарантує збереження упорядкування вхідних сигналів. Тобто для будь-яких вхідних сигналів ai, i = 1,» ,N упорядкування вихідних сигналів bi є таким самим, як і упорядкування відповідних вхідних сигналів. Справедливість такої властивості для отриманої схеми є очевидною, оскільки її вихідні сигнали визначаються як bi = di + x, тобто вони дорівнюють алгебраїчній сумі відповідних вхідних сигналів та динамічного зсуву, який є однаковим для всіх вхідних сигналів, а тому не змінює упорядкування вхідних сигналів.

Схема, отримана за моделлю (10), відзначається властивістю високої роздільної здатності, тобто, якщо компоненти вектора вхідних сигналів a можна розрізнити, тоді така схема завжди знаходить K найбільших з них.

1. Filippov A.F. Differential Equations with Discontinuous Righthand Sides, Kluwer Academic Publishers, 1988. 2. Cichocki A. and Unbehauen R. Neural Networks for Optimization and Signal Processing, John Wiley and Sons, 1993. 3. Tymoshchuk P. and Kaszkurewicz E. A Winner-take-all circuit based on second order Hopfield neural networks as building blocks // in Proc. Int. Joint Conf. Neural Networks, vol. II, Portland, OR, 2003, pp. 891-896. 4. Tymoshchuk P. and Kaszkurewicz E. A winner-take all circuit using neural networks  as  building  blocks. Neurocomputing, vol. 64, 2005, pp. 375-396.

5. Lipmann R.P. An introduction to computing with neural nets. IEEE ASSP Mag., April 1987.

6. Lippmann R.P., Gold B. and Malpass M.L. A comparison of Hamming and Hopfield neural nets for pattern classification // Technical Report TR-769, MIT Lincoln Laboratory, 1987. 7. Kwon T.M. and Zervakis M. A parallel sorting network without comparators: A neural-network approach // in Proc. Int. Joint Conf. Neural networks, vol. 1, pp. 701-706, 1992. 8. Bihn L.N. and Chong H.C. A neural-network contention controller for packet switching networks // IEEE Trans. Neural Networks, vol. 6, pp. 1402­1408, November 1993. 9. Urahama K. and Nagao T. K-Winner-take-all circuit with 0(n) complexity // IEEE Trans. Neural Networks, vol. 6, pp. 776-778, 1995. 10. Yen J.C.,.Guo J.I and Chen H.-C. A new k-Winners-take all neural network and its array architecture // IEEE Trans. Neural Networks, vol. 9, pp. 901-912, September 1998. 11. Calvert B.D. and Marinov C.A. Another k-Winner-take-all analog neural network // IEEE Trans. Neural Networks, vol. 11, № 4, pp. 829-838, July 2000. 12. Majani E., Erlan-son R. and Abu-Mostafa Y. On the k-Winners-take-all network // in Advances in Neural Informaton

Processing Systems I, D.S.Touetzky, Ed. San Mateo, CA: Morgan Kaufman, p. 634-642, 1989. 13. Grossberg S. Non-Linear Neural Networks: Principles, Mechanisms, and Architectures // Neural Networks, vol. 1, pp. 17-61, 1988. 14. Wolfe W.J., Mathis D., Anderson C., Rothman J., Gotler M., Bragy G., Walker R.., Duane G. and Alaghband G. K-Winner networks //IEEE Trans. Neural Networks, vol. 2, pp. 310-315, 1991. 15. Perfetti R. On the robust design of k-winners-take-all networks // IEEE Transactions on Circits and Systems-II: Analog and Digital Signal Processing, vol. 42, № 1, pp. 55-58, 1995. 16. Seiler G. and A.Nossek J. Winner-take-all cellular neural networks // IEEE Transactions on Circits and Systems-II: Analog and Digital Signal Processing, vol. 40, № 3, pp. 184-190, 1993. 17. Yen J.C., Guo J.I. and Chen H.-C. A new k-Winners-take all neural network and its array architecture // IEEE Trans. Neural Networks, vol. 9, pp. 901-912, September 1998. 18. Calvert B.D. and Marinov C.A. Another k-Winner-take-all analog neural network // IEEE Trans. Neural Networks, vol. 11, № 4, pp. 829-838, July 2000. 19. Marinov C.A. and Calvert B.D. Performance analysis for a K-winners-take-all analog neural network: basic theory // IEEE Trans. Neural Networks, vol. 14, № 4, pp. 766-780, July 2003. 20. Hopfield J.J. Neurons with graded response have collective computational properties like those of two-state neurons // in Proceedings of the Natonal Academy of Sciences, №81, pp. 3088-3092, 1984. 21. Lazzaro J., Lyckebusch S., Mahowald M.A. and Mead C.A. Winner-take-all networks of 0(n) complexity // in Advances in Neural Informaton Processing Systems I, D.S.Touetzky, Ed. Los Altos, CA: Morgan Kaufmann, p. 703-711, 1989. 22. Yang J.-F. and Chen C.M. A dynamic K-winners-take-all neural network

// IEEE Trans. on Syst., Man. and Cyb.-Part B:Cyb., vol. 27, № 3, pp. 523-526, 1997. 23. Mead C.A.

Analog VLSI and Neural Systems // Reading, Addison-Wesley, 1989.

УДК 004.89 Є.В. Буров

Національний університет "Львівська політехніка", кафедра інформаційних систем та мереж

ПРОЕКТУВАННЯ ІНТЕЛЕКТУАЛЬНОЇ ІНФОРМАЦІЙНОЇ МЕРЕЖІ З ВИКОРИСТАННЯМ СЕРВІСНО-ОРІЄНТОВАНОГО ПІДХОДУ ТА МОДЕЛЕЙ ВИКОНАННЯ ЗАПИТІВ

© Буров Є.В., 2008

Розглянуто та запропоновано структуру і принципи роботи інтелектуального сервісу, керованого моделями. Формальна специфікація сервісу уможливлює адаптацію параметрів інформаційної системи до зміни вимог бізнес-процесів.

General framework and architecture of intellectual model-driven service is proposed. Formal specification of intellectual service is developed for intellectual information networks design.

Постановка проблеми та аналіз останніх досліджень

Однією з найгостріших проблем галузі інформаційних технологій сьогодні є проблема дедалі більшої складності корпоративних інформаційних систем. З розвитком глобальних інформаційних мереж та встановленням зв'язків між окремими бізнес-структурами завдання керування та проектування таких систем виходить далеко за межі простого керування окремою системою. У міру зростання складності проектувальникам стає все складніше встановлювати, налаштовувати та прогнозувати поведінку систем [1].

Одним із способів вирішення проблеми складності є побудова компонентних систем, які інкапсулюють дані та функції. Це відобразилось у парадигмі об'єктно-орієнтованого програму-

Страницы:
1  2 


Похожие статьи

П В Тимощук - Аналогова нейронна схема ідентифікації к максимальних сигналів

П В Тимощук - Порівняльний аналіз моделей нейронних осциляторів

П В Тимощук - Проектування прецизійних диференціаторів та інтеграторів гармонічних сигналів

П В Тимощук - Стійкість i збіжність до встановлених режимів дискретизованих сигналів kwta-нейронної схеми

П В Тимощук - Модель аналогової нейронної схеми ідентифікації найбільших сигналів