<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE</id>
	<title>Дельта-правило - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE"/>
	<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE&amp;action=history"/>
	<updated>2026-05-05T07:02:46Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.38.4</generator>
	<entry>
		<id>https://wiki.dzmuh.com/index.php?title=%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE&amp;diff=14046&amp;oldid=prev</id>
		<title>Dzmuh: Новая страница: «'''Де́льта-пра́вило''' — метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Его дальнейшее развитие привело к созданию Метод обратного распространения ошибки|метода обратног...»</title>
		<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE&amp;diff=14046&amp;oldid=prev"/>
		<updated>2024-08-31T00:12:46Z</updated>

		<summary type="html">&lt;p&gt;Новая страница: «&amp;#039;&amp;#039;&amp;#039;Де́льта-пра́вило&amp;#039;&amp;#039;&amp;#039; — метод &lt;a href=&quot;/index.php/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&quot; title=&quot;Машинное обучение&quot;&gt;обучения&lt;/a&gt; &lt;a href=&quot;/index.php/%D0%9F%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD&quot; title=&quot;Перцептрон&quot;&gt;перцептрона&lt;/a&gt; по принципу &lt;a href=&quot;/index.php?title=%D0%93%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B9_%D1%81%D0%BF%D1%83%D1%81%D0%BA&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Градиентный спуск (страница не существует)&quot;&gt;градиентного спуска&lt;/a&gt; по поверхности ошибки. Его дальнейшее развитие привело к созданию Метод обратного распространения ошибки|метода обратног...»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;'''Де́льта-пра́вило''' — метод [[Машинное обучение|обучения]] [[перцептрон]]а по принципу [[градиентный спуск|градиентного спуска]] по поверхности ошибки. Его дальнейшее развитие привело к созданию [[Метод обратного распространения ошибки|метода обратного распространения ошибки]].&lt;br /&gt;
&lt;br /&gt;
== Дельта-правило ==&lt;br /&gt;
Собственно дельта-правилом называют математическую форму записи. Пусть вектор &amp;lt;math&amp;gt;\mathbf{X}={x_1,x_2,...x_r,...x_m}&amp;lt;/math&amp;gt; — вектор входных сигналов, а вектор &amp;lt;math&amp;gt;\mathbf{D}={d_1,d_2,...d_k,...d_n}&amp;lt;/math&amp;gt; — вектор сигналов, которые должны быть получены от перцептрона под воздействием входного вектора. Здесь &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; — число нейронов, составляющих перцептрон. Входные сигналы, поступив на входы перцептрона, были взвешены и просуммированы, в результате чего получен вектор &amp;lt;math&amp;gt;\mathbf{Y}={y_1,y_2,...y_k,...y_n}&amp;lt;/math&amp;gt; выходных значений перцептрона. Тогда можно определить ''вектор ошибки'' &amp;lt;math&amp;gt;\mathbf{\Epsilon}={e_1,e_2,...e_k,...e_n}&amp;lt;/math&amp;gt;, размерность которого совпадает с размерностью вектора выходных сигналов. Компоненты вектора ошибок определяются как разность между ожидаемым и реальным значением выходного сигнала перцептронного нейрона:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\mathbf{\Epsilon=D-Y}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
При таких обозначениях формулу для корректировки j-го веса i-го нейрона можно записать следующим образом:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;w_j(t+1)=w_j(t)+e_i x_j&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Номер сигнала &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; изменяется в пределах от единицы до размерности входного вектора &amp;lt;math&amp;gt;m&amp;lt;/math&amp;gt;. Номер нейрона &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; изменяется в пределах от единицы до количества нейронов &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;. Величина &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt; — номер текущей итерации обучения. Таким образом, вес входного сигнала нейрона изменяется в сторону уменьшения ошибки пропорционально величине суммарной ошибки нейрона. Часто вводят коэффициент пропорциональности &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt;, на который умножается величина ошибки. Этот коэффициент называют ''скоростью'' или ''нормой''&amp;lt;ref&amp;gt;{{Статья|автор=Nielsen, Michael A.|заглавие=Neural Networks and Deep Learning|ссылка=http://neuralnetworksanddeeplearning.com/chap1.html#learning_with_gradient_descent|год=2015-01-01|издание=|archivedate=2016-09-06|archiveurl=https://web.archive.org/web/20160906094923/http://neuralnetworksanddeeplearning.com/chap1.html#learning_with_gradient_descent}}&amp;lt;/ref&amp;gt; ''обучения''. Таким образом, итоговая формула для корректировки весов:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;w_j(t+1)=w_j(t)+\eta e_i x_j&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Обобщенное дельта-правило ==&lt;br /&gt;
С целью расширения круга задач, решаемых перцептроном, Уидроу и Хоффом&amp;lt;ref&amp;gt;Widrow B., Hoff M.E. — Adaptive switching circuits. 1969 IRE WESTCON Conferencion Record. — New York, 1960&amp;lt;/ref&amp;gt; была предложена [[сигмоид]]альная [[функция активации]] для нейронов. Это позволило перцептрону оперировать с непрерывными сигналами, но потребовало модификации алгоритма обучения&amp;lt;ref&amp;gt;Л. Н. Ясницкий — Введение в искусственный интеллект. — с.34-36&amp;lt;/ref&amp;gt;. Модифицированный алгоритм направлен на минимизацию функции среднеквадратичной ошибки:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\epsilon=\frac{1}{2} \sum^{n}_{i=1}{(d_i-y_i)^2}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Эта функция определяется матрицей весовых коэффициентов &amp;lt;math&amp;gt;w_{ij}&amp;lt;/math&amp;gt;. Здесь &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; — номер нейрона, а &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; — номер входа. Поверхность, описываемая этой функцией имеет форму ''псевдопараболоида''&amp;lt;ref&amp;gt;Л. Н. Ясницкий — Введение в искусственный интеллект. — с.35&amp;lt;/ref&amp;gt;. Задачей обучения является нахождение глобального минимума этой поверхности. Одним из способов нахождения минимума является ''метод градиентного спуска''. Корректировка весов производится в направлении антиградиента поверхности:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\Delta w_{ij}=-\eta \frac {\partial \epsilon}{\partial w_{ij}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Здесь &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; — коэффициент скорости обучения.&lt;br /&gt;
&lt;br /&gt;
Функция ошибки является сложной и зависит в первую очередь от выходных сигналов перцептрона. В соответствии с правилами [[производная|дифференцирования]] сложных функций:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac {\partial \epsilon}{\partial w_{ij}} = \frac{\partial \epsilon}{\partial y_i} \frac{\partial y_i}{\partial w_{ij}}&amp;lt;/math&amp;gt; (*)&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Выходной сигнал &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; каждого [[искусственный нейрон|нейрона]] определяется по формуле:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;y_i = \operatorname{f}(S_i), S_i = \sum^{m}_{j=1}{w_{ij} x_j}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Здесь &amp;lt;math&amp;gt;m&amp;lt;/math&amp;gt; — число входов перцептрона, &amp;lt;math&amp;gt;x_j&amp;lt;/math&amp;gt; — сигнал на j-ом входе, а &amp;lt;math&amp;gt;\operatorname{f}(S)&amp;lt;/math&amp;gt; — функция активации. Тогда получим:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{\partial y_i}{\partial w_{ij}}=(\frac{\partial \operatorname{f}(S)}{\partial S})\mid_{S=S_i} \frac {\partial S_i}{\partial w_{ij}}= f^\prime(S_i) x_j&amp;lt;/math&amp;gt; (**)&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Продифференцировав функцию ошибки по значению выходного сигнала получим:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac {\partial \epsilon}{\partial y_i}=-(d_i-y_i)&amp;lt;/math&amp;gt; (***)&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Подставив формулы (**) и (***) в выражение (*) получим выражение для корректировки веса j-го входа у i-го нейрона при любой активационной функции&amp;lt;ref&amp;gt;Л. Н. Ясницкий — Введение в искусственный интеллект. — с.36&amp;lt;/ref&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\Delta w_{ij} = \eta (d_i-y_i)f^\prime(S_i)x_j&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Из этой формулы видно, что в качестве активационной функции при использовании обобщенного дельта-правила функция активации нейронов должна быть непрерывно дифференцируемой на всей оси абсцисс. Преимущество имеют функции активации с простой производной (например — логистическая кривая или гиперболический тангенс).&lt;br /&gt;
&lt;br /&gt;
На основе дельта-правила Уидроу и Хопфом был создан один из первых аппаратных [[нейрокомпьютер]]ов Адалин ([[1960]]).&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
{{примечания}}&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Искусственная нейронная сеть]]&lt;br /&gt;
* [[Перцептрон]]&lt;br /&gt;
* [[Метод обратного распространения ошибки]]&lt;br /&gt;
&lt;br /&gt;
== Литература ==&lt;br /&gt;
* Rosenblatt F. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Washington, DC: Spartan Books (1962).&lt;br /&gt;
* Russell, Ingrid. &amp;quot;The Delta Rule&amp;quot;. University of Hartford. Archived from the original on 4 March 2016. Retrieved 5 November 2012. &lt;br /&gt;
* Головко, В. А. Нейронные сети: обучение, организация и применение: Кн.4 : Учебное пособие для вузов по направлению &amp;quot;Прикладные математика и физика&amp;quot; / В. А. Головко ; Общ. ред. А. И. Галушкин . – М. : ИПРЖР, 2001 . – 256 с. – (Нейрокомпьютеры и их применение) : 5-93108-05-8 . &lt;br /&gt;
* Осовский С. Нейронные сети для обработки информации (2002)&lt;br /&gt;
* Hebb, D. O. The organization of behavior: a neuropsychological theory. New York (2002) (Оригинальное издание — 1949)&lt;br /&gt;
* Hebb, D. O. Conditioned and unconditioned reflexes and inhibition. Unpublished MA Thesis, McGill University, Montreal, Quebec, (1932)&lt;br /&gt;
* [http://science-library.at.ua/load/sistemy_iskusstvennogo_intellekta/nechetkie_sistemy_i_nechetkaja_logika/fusion_of_neural_networks_fuzzy_systems_and_genetic_algorithms_industrial_applications/4-1-0-5  Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. — CRC Press, CRC Press LLC, 1998]&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;br /&gt;
{{Википедия|Дельта-правило}}&lt;br /&gt;
&lt;br /&gt;
[[Категория:Методы обучения нейросетей]]&lt;/div&gt;</summary>
		<author><name>Dzmuh</name></author>
	</entry>
</feed>