<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C</id>
	<title>Свёрточная нейронная сеть - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C"/>
	<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C&amp;action=history"/>
	<updated>2026-05-05T07:08:37Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.38.4</generator>
	<entry>
		<id>https://wiki.dzmuh.com/index.php?title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C&amp;diff=14747&amp;oldid=prev</id>
		<title>Dzmuh: /* Ссылки */</title>
		<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C&amp;diff=14747&amp;oldid=prev"/>
		<updated>2026-01-26T07:37:50Z</updated>

		<summary type="html">&lt;p&gt;&lt;span dir=&quot;auto&quot;&gt;&lt;span class=&quot;autocomment&quot;&gt;Ссылки&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;ru&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Предыдущая версия&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Версия от 07:37, 26 января 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l69&quot;&gt;Строка 69:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Строка 69:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{Машинное обучение}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{Машинное обучение}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Категория:&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;Искусственные нейронные &lt;/del&gt;сети]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Категория:&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;Нейронные &lt;/ins&gt;сети]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Категория:Машинное обучение]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Категория:Машинное обучение]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Dzmuh</name></author>
	</entry>
	<entry>
		<id>https://wiki.dzmuh.com/index.php?title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C&amp;diff=14021&amp;oldid=prev</id>
		<title>Dzmuh: Новая страница: «3D-анимация хода свёртки. Значения в ядре можно извлечь независимо друг от друга. Для периферийных областей входов применяются различные подходы заполнения.  '''Свёрточная нейронная сеть''' ({{lang-en|convolutional neural network}}, ''CNN'') — специ...»</title>
		<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C&amp;diff=14021&amp;oldid=prev"/>
		<updated>2024-08-30T23:13:07Z</updated>

		<summary type="html">&lt;p&gt;Новая страница: «&lt;a href=&quot;/index.php/%D0%A4%D0%B0%D0%B9%D0%BB:2D_Convolution_Animation.gif&quot; title=&quot;Файл:2D Convolution Animation.gif&quot;&gt;мини|3D-анимация хода свёртки. Значения в ядре можно извлечь независимо друг от друга. Для периферийных областей входов применяются различные подходы заполнения.&lt;/a&gt;  &amp;#039;&amp;#039;&amp;#039;Свёрточная нейронная сеть&amp;#039;&amp;#039;&amp;#039; ({{lang-en|convolutional neural network}}, &amp;#039;&amp;#039;CNN&amp;#039;&amp;#039;) — специ...»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;[[Файл:2D Convolution Animation.gif|мини|3D-анимация хода свёртки. Значения в ядре можно извлечь независимо друг от друга. Для периферийных областей входов применяются различные подходы заполнения.]]&lt;br /&gt;
&lt;br /&gt;
'''Свёрточная нейронная сеть''' ({{lang-en|convolutional neural network}}, ''CNN'') — специальная архитектура [[искусственная нейронная сеть|искусственных нейронных сетей]], предложенная [[Лекун, Ян|Яном Лекуном]] в 1988 году&amp;lt;ref&amp;gt;Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard and L. D. Jackel: Backpropagation Applied to Handwritten Zip Code Recognition, Neural Computation, 1(4):541-551, Winter 1989.&amp;lt;/ref&amp;gt; и нацеленная на эффективное [[Теория распознавания образов|распознавание образов]]&amp;lt;ref name=&amp;quot;deeplearning&amp;quot;&amp;gt;{{cite web|title=Convolutional Neural Networks (LeNet) - DeepLearning 0.1 documentation|url=http://deeplearning.net/tutorial/lenet.html|work=DeepLearning 0.1|publisher=LISA Lab|accessdate=2013-08-31|archive-date=2017-12-28|archive-url=https://web.archive.org/web/20171228091645/http://deeplearning.net/tutorial/lenet.html|url-status=live}}&amp;lt;/ref&amp;gt;, входит в состав технологий [[Глубокое обучение|глубокого обучения]]. Использует некоторые особенности [[Зрительная кора|зрительной коры]]&amp;lt;ref name=&amp;quot;robust face detection&amp;quot;&amp;gt;{{статья |заглавие=Subject independent facial expression recognition with robust face detection using a convolutional neural network |издание=Neural Networks |том=16 |номер=5 |страницы=555—559 |ссылка=http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf |accessdate=2013-11-17 |doi=10.1016/S0893-6080(03)00115-1 |язык=en |тип=journal |автор=Matusugu, Masakazu; Katsuhiko Mori; Yusuke Mitari; Yuji Kaneda |год=2003 |archivedate=2013-12-13 |archiveurl=https://web.archive.org/web/20131213022740/http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf }}&amp;lt;/ref&amp;gt;, в которой были открыты так называемые простые клетки, реагирующие на прямые линии под разными углами, и сложные клетки, реакция которых связана с активацией определённого набора простых клеток. Таким образом, идея свёрточных нейронных сетей заключается в чередовании свёрточных слоёв и субдискретизирующих слоёв (слоёв подвыборки). Структура сети — однонаправленная (без обратных связей), принципиально многослойная. Для обучения используются стандартные методы, чаще всего [[метод обратного распространения ошибки]]. [[Функция активации|Функция активации нейронов]] (передаточная функция) — любая, по выбору исследователя.&lt;br /&gt;
&lt;br /&gt;
Название архитектура сети получила из-за наличия операции [[Свёртка (математический анализ)|свёртки]], суть которой в том, что каждый фрагмент изображения умножается на матрицу (ядро) свёртки поэлементно, а результат суммируется и записывается в аналогичную позицию выходного изображения.&lt;br /&gt;
&lt;br /&gt;
== Интерпретация ==&lt;br /&gt;
Работа свёрточной нейронной сети обычно интерпретируется как переход от конкретных особенностей изображения к более абстрактным деталям, и далее к ещё более абстрактным деталям вплоть до выделения понятий высокого уровня. При этом сеть самонастраивается и вырабатывает сама необходимую иерархию абстрактных признаков (последовательности карт признаков), фильтруя маловажные детали и выделяя существенное.&lt;br /&gt;
&lt;br /&gt;
Подобная интерпретация носит скорее метафорический или иллюстративный характер. Фактически «признаки», вырабатываемые сложной сетью, малопонятны и трудны для интерпретации настолько, что на практике суть этих признаков даже не пытаются понять, тем более «подправлять», а вместо этого для улучшения результатов распознавания меняют структуру и архитектуру сети. Так, игнорирование системой каких-то существенных явлений может говорить о том, что либо не хватает данных для обучения, либо структура сети обладает недостатками, и система не может выработать эффективных признаков для данных явлений.&lt;br /&gt;
&lt;br /&gt;
== Архитектура и принцип работы ==&lt;br /&gt;
[[Файл:Архитектура сверточной нейронной сети.png|thumb|Архитектура свёрточной нейронной сети]]&lt;br /&gt;
[[Файл:Typical cnn.png|thumb|Типовая архитектура свёрточной нейронной сети]]&lt;br /&gt;
В обычном [[перцептрон]]е, который представляет собой полносвязную нейронную сеть, каждый нейрон связан со всеми нейронами предыдущего слоя, причём каждая связь имеет свой персональный весовой коэффициент. В свёрточной нейронной сети в ''операции свёртки'' используется лишь ограниченная матрица весов небольшого размера, которую «двигают» по всему обрабатываемому слою (в самом начале — непосредственно по входному изображению), формируя после каждого сдвига сигнал активации для нейрона следующего слоя с аналогичной позицией. То есть для различных нейронов выходного слоя используется одна и та же матрица весов, которую также называют ''ядром свёртки''. Её интерпретируют как графическое кодирование какого-либо признака, например, наличие наклонной линии под определённым углом. Тогда следующий слой, получившийся в результате операции свёртки такой матрицей весов, показывает наличие данного признака в обрабатываемом слое и её координаты, формируя так называемую карту признаков. Естественно, в свёрточной нейронной сети набор весов не один, а целая гамма, кодирующая элементы изображения (например линии и дуги под разными углами). При этом такие ядра свёртки не закладываются исследователем заранее, а формируются самостоятельно путём обучения сети классическим [[метод обратного распространения ошибки|методом обратного распространения ошибки]]. Проход каждым набором весов формирует свой собственный экземпляр карты признаков, делая нейронную сеть многоканальной (много независимых карт признаков на одном слое). При переборе слоя матрицей весов её передвигают обычно не на полный шаг (размер этой матрицы), а на небольшое расстояние. Так, например, при размерности матрицы весов 5×5 её сдвигают на один или два нейрона (пикселя) вместо пяти, чтобы не «перешагнуть» искомый признак.&lt;br /&gt;
&lt;br /&gt;
Операция субдискретизации (также переводимая как «операция подвыборки» или операция объединения), выполняет уменьшение размерности сформированных карт признаков. В данной архитектуре сети считается, что информация о факте наличия искомого признака важнее точного знания его координат, поэтому из нескольких соседних нейронов карты признаков выбирается максимальный и принимается за один нейрон уплотнённой карты признаков меньшей размерности. За счёт такой операции, помимо ускорения дальнейших вычислений, сеть становится более инвариантной к масштабу входного изображения.&lt;br /&gt;
&lt;br /&gt;
Типовая сеть состоит из большого количества слоёв. После начального слоя (входного изображения) сигнал проходит серию свёрточных слоёв, в которых чередуется свёртка и субдискретизация («пулинг»). Чередование слоёв позволяет составлять «карты признаков», на каждом следующем слое карта уменьшается в размере, но увеличивается количество каналов. На практике это означает способность распознавания сложных иерархий признаков. Обычно после прохождения нескольких слоёв карта признаков вырождается в вектор или даже скаляр, но таких карт признаков возникают сотни. На выходе свёрточных слоёв сети дополнительно устанавливают несколько слоёв полносвязной нейронной сети (перцептрон), на вход которых подаются оконечные карты признаков.&lt;br /&gt;
&lt;br /&gt;
=== Слой свёртки ===&lt;br /&gt;
[[Файл:Conv layer.png|thumb|Нейроны слоя свёртки, преобразуемые по нескольким выходным каналам]]&lt;br /&gt;
Слой свёртки — это основной блок свёрточной нейронной сети. Слой свёртки включает в себя для каждого канала свой фильтр, ''ядро свёртки'' которого обрабатывает предыдущий слой по фрагментам (суммируя результаты поэлементного произведения для каждого фрагмента). Весовые коэффициенты ядра свёртки (небольшой матрицы) неизвестны и устанавливаются в процессе обучения.&lt;br /&gt;
&lt;br /&gt;
Особенностью свёрточного слоя является сравнительно небольшое количество параметров, устанавливаемое при обучении. Так например, если исходное изображение имеет размерность 100×100 пикселей по трём каналам (это значит 30 000 входных нейронов), а свёрточный слой использует фильтры с ядром 3×3 пикселя с выходом на 6 каналов, тогда в процессе обучения определяется только 9 весов ядра, однако по всем сочетаниям каналов, то есть 9×3×6=162, в таком случае данный слой требует нахождения только 162 параметров, что существенно меньше количества искомых параметров полносвязной нейронной сети.&lt;br /&gt;
&lt;br /&gt;
=== Слой активации ===&lt;br /&gt;
Скалярный результат каждой свёртки попадает на [[Функция активации|функцию активации]], которая представляет собой некую нелинейную функцию. Слой активации обычно логически объединяют со слоем свёртки (считают, что функция активации встроена в слой свёртки). Функция нелинейности может быть любой по выбору исследователя, традиционно для этого использовали функции типа [[Гиперболические функции|гиперболического тангенса]] (&amp;lt;math alt=&amp;quot;гиперболический тангенс&amp;quot;&amp;gt;f(x)=\tanh(x)&amp;lt;/math&amp;gt;, &amp;lt;math alt=&amp;quot;абсолютное значение гиперболического тангенса&amp;quot;&amp;gt;f(x)=|\tanh(x)|&amp;lt;/math&amp;gt;) или [[Сигмоида|сигмоиды]] (&amp;lt;math alt=&amp;quot;function of x equals the inverse of one plus e to the power of minus x&amp;quot;&amp;gt;f(x)=(1+e^{-x} )^{-1}&amp;lt;/math&amp;gt;). Однако в 2000х годах была предложена&amp;lt;ref name=&amp;quot;Hahnloser2000&amp;quot;&amp;gt;{{cite conference |authors=R Hahnloser, R. Sarpeshkar, M A Mahowald, R. J. Douglas, H.S. Seung |title=Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit |journal=Nature |volume=405 |year=2000 |pages=947–951}}&amp;lt;/ref&amp;gt; и исследована&amp;lt;ref name=&amp;quot;glorot2011&amp;quot;&amp;gt;{{cite conference |authors=Xavier Glorot, Antoine Bordes and [[Yoshua Bengio]] |year=2011 |title=Deep sparse rectifier neural networks |conference=AISTATS |url=http://jmlr.org/proceedings/papers/v15/glorot11a/glorot11a.pdf |access-date=2017-12-29 |archive-date=2016-12-13 |archive-url=https://web.archive.org/web/20161213022121/http://www.jmlr.org/proceedings/papers/v15/glorot11a/glorot11a.pdf |url-status=live }}&amp;lt;/ref&amp;gt; новая функция активации — ReLU (сокращение от {{lang-en|rectified linear unit}}), которая позволила существенно ускорить процесс обучения и одновременно упростить вычисления (за счёт простоты самой функции)&amp;lt;ref name=&amp;quot;nair2010&amp;quot;&amp;gt;{{cite conference|authors=Vinod Nair and [[Geoffrey Hinton]]|year=2010|title=Rectified linear units improve restricted Boltzmann machines|conference=[[International Conference on Machine Learning|ICML]]|url=http://machinelearning.wustl.edu/mlpapers/paper_files/icml2010_NairH10.pdf|url-status=dead|archiveurl=https://web.archive.org/web/20140324020659/http://machinelearning.wustl.edu/mlpapers/paper_files/icml2010_NairH10.pdf|archivedate=2014-03-24|accessdate=2016-12-22}} {{Wayback|url=http://machinelearning.wustl.edu/mlpapers/paper_files/icml2010_NairH10.pdf |date=20140324020659 }}&amp;lt;/ref&amp;gt;, что означает блок линейной ректификации, вычисляющий функцию &amp;lt;math alt=&amp;quot;function of x equals maximum between zero and x&amp;quot;&amp;gt;f(x)=\max(0,x)&amp;lt;/math&amp;gt;. То есть по сути это операция отсечения отрицательной части скалярной величины. По состоянию {{на|2017}} эта функция и её модификации (Noisy ReLU, Leaky ReLU и другие) являются наиболее часто используемыми функциями активации в глубоких нейросетях, в частности, в свёрточных. Существует методика определения оптимального числа блоков линейной ректификации&amp;lt;ref name=&amp;quot;Romanuke4&amp;quot;&amp;gt;{{статья |заглавие=Appropriate number and allocation of ReLUs in convolutional neural networks |издание=Research Bulletin of NTUU “Kyiv Polytechnic Institute” |том=1 |страницы=69—78 |doi=10.20535/1810-0546.2017.1.88156 |ссылка=http://bulletin.kpi.ua/article/view/88156/pdf_186/88156-200304-1-PB.pdf |accessdate=2019-02-17 |язык=en |тип=journal |автор=Romanuke, Vadim |год=2017 |archivedate=2019-02-18 |archiveurl=https://web.archive.org/web/20190218021346/http://bulletin.kpi.ua/article/view/88156/pdf_186/88156-200304-1-PB.pdf }}&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=== Слой субдискретизации ===&lt;br /&gt;
[[Файл:Max pooling.png|thumb|Субдискретизация с функцией максимума и фильтром 2×2 с шагом 2]]&lt;br /&gt;
Слой субдискретизации (иначе подвыборки или «пулинга») представляет собой нелинейное уплотнение карты признаков, при этом группа пикселей (обычно размера 2×2) уплотняется до одного пикселя, проходя нелинейное преобразование. Наиболее употребительна при этом функция максимума. Преобразования затрагивают непересекающиеся прямоугольники или квадраты, каждый из которых ужимается в один пиксель, при этом выбирается пиксель, имеющий максимальное значение. Операция субдискретизации позволяет существенно уменьшить пространственный объём изображения. Субдискретизация интерпретируется так: если на предыдущей операции свёртки уже были выявлены некоторые признаки, то для дальнейшей обработки настолько подробное изображение уже не нужно, и оно уплотняется до менее подробного. К тому же фильтрация уже ненужных деталей помогает не [[переобучение|переобучаться]]. Слой субдискретизации, как правило, вставляется после слоя свёртки перед слоем следующей свёртки.&lt;br /&gt;
&lt;br /&gt;
Кроме субдискретизации с функцией максимума можно использовать и другие функции — например, среднего значения или ''L2-нормирования''. Однако практика показала преимущества именно субдискретизации с функцией максимума, который включается в типовые системы.&lt;br /&gt;
&lt;br /&gt;
В целях более агрессивного уменьшения размера получаемых представлений, всё чаще находят распространение идеи использования меньших фильтров&amp;lt;ref&amp;gt;{{cite arXiv|title = Fractional Max-Pooling|eprint= 1412.6071|date = 2014-12-18|first = Benjamin|last = Graham|class= cs.CV}}&amp;lt;/ref&amp;gt; или полный отказ от слоёв субдискретизации.&amp;lt;ref&amp;gt;{{cite arXiv|title = Striving for Simplicity: The All Convolutional Net|eprint= 1412.6806|date = 2014-12-21|first = Jost Tobias|last = Springenberg|first2 = Alexey|last2 = Dosovitskiy|first3 = Thomas|last3 = Brox|first4 = Martin|last4 = Riedmiller|class= cs.LG}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Полносвязная нейронная сеть ===&lt;br /&gt;
{{main|Перцептрон}}&lt;br /&gt;
После нескольких прохождений свёртки изображения и уплотнения с помощью субдискретизации система перестраивается от конкретной сетки пикселей с высоким разрешением к более абстрактным картам признаков, как правило, на каждом следующем слое увеличивается число каналов и уменьшается размерность изображения в каждом канале. В конце концов, остаётся большой набор каналов, хранящих небольшое число данных (даже один параметр), которые интерпретируются как самые абстрактные понятия, выявленные из исходного изображения.&lt;br /&gt;
&lt;br /&gt;
Эти данные объединяются и передаются на обычную полносвязную нейронную сеть, которая тоже может состоять из нескольких слоёв. При этом полносвязные слои уже утрачивают пространственную структуру пикселей и обладают сравнительно небольшой размерностью (по отношению к количеству пикселей исходного изображения).&lt;br /&gt;
&lt;br /&gt;
== Обучение ==&lt;br /&gt;
Наиболее простым и популярным способом обучения является метод обучения с учителем (на [[Маркированные данные|маркированных данных]]) — [[метод обратного распространения ошибки]] и его модификации. Но существует также ряд техник обучения свёрточной сети без учителя. Например, фильтры операции свёртки можно обучить отдельно и автономно, подавая на них вырезанные случайным образом кусочки исходных изображений обучающей выборки и применяя для них любой известный алгоритм обучения без учителя (например, [[автоассоциатор]] или даже метод [[K-means|k-средних]]) — такая техника известна под названием {{lang-en2|patch-based training}}. Соответственно, следующий слой свёртки сети будет обучаться на кусочках от уже обученного первого слоя сети. Также можно скомбинировать сверточную нейросеть с другими технологиями [[Глубинное обучение|глубинного обучения]]. Например, сделать свёрточный авто-ассоциатор&amp;lt;ref&amp;gt;Jain, V. and Seung, S. H. (2008). Natural image denoising with convolutional networks. In NIPS’2008.&amp;lt;/ref&amp;gt;, свёрточную версию каскадных ограниченных [[Машина Больцмана|машин Больцмана]], обучающихся за счёт вероятностного математического аппарата&amp;lt;ref&amp;gt;Lee, H., Grosse, R., Ranganath, R., and Ng, A. Y. (2009a). Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations. In ICML’2009.&amp;lt;/ref&amp;gt;, свёрточную версию разреженного кодирования, названную «развертывающими» сетями&amp;lt;ref&amp;gt;Zeiler, M., Krishnan, D., Taylor, G., and Fergus, R. (2010). Deconvolutional networks. In CVPR’2010.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Для улучшения работы сети, повышения её устойчивости и предотвращения [[переобучение|переобучения]] применяется также [[Исключение (нейронные сети)|исключение]] — метод обучения подсети с выбрасыванием случайных одиночных нейронов.&lt;br /&gt;
&lt;br /&gt;
== Преимущества ==&lt;br /&gt;
* Один из лучших алгоритмов по распознаванию и классификации изображений.&lt;br /&gt;
* По сравнению с полносвязной нейронной сетью (типа перцептрона) — гораздо меньшее количество настраиваемых весов, так как одно ядро весов используется целиком для всего изображения, вместо того, чтобы делать для каждого пикселя входного изображения свои персональные весовые коэффициенты. Это подталкивает нейросеть при обучении к обобщению демонстрируемой информации, а не попиксельному запоминанию каждой показанной картинки в мириадах весовых коэффициентов, как это делает перцептрон.&lt;br /&gt;
* Удобное распараллеливание вычислений, а следовательно, возможность реализации алгоритмов работы и обучения сети на [[Графический процессор|графических процессорах]].&lt;br /&gt;
* Относительная устойчивость к повороту и сдвигу распознаваемого изображения.&lt;br /&gt;
* Обучение при помощи классического [[метод обратного распространения ошибки|метода обратного распространения ошибки]].&lt;br /&gt;
&lt;br /&gt;
== Недостатки ==&lt;br /&gt;
* Слишком много варьируемых параметров сети; непонятно, для какой задачи и вычислительной мощности какие нужны настройки. Так, к варьируемым параметрам можно отнести: количество слоёв, размерность ядра свёртки для каждого из слоёв, количество ядер для каждого из слоёв, шаг сдвига ядра при обработке слоя, необходимость слоёв субдискретизации, степень уменьшения ими размерности, функция по уменьшению размерности (выбор максимума, среднего и т. п.), передаточная функция нейронов, наличие и параметры выходной полносвязной нейросети на выходе свёрточной. Все эти параметры существенно влияют на результат, но выбираются исследователями эмпирически. Существует несколько выверенных и прекрасно работающих конфигураций сетей, но не хватает рекомендаций, по которым нужно строить сеть для новой задачи.&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
{{примечания|2}}&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;br /&gt;
{{Википедия|Свёрточная нейронная сеть}}&lt;br /&gt;
* [http://yann.lecun.com/ Личный сайт Яна Лекуна]&lt;br /&gt;
* [http://www.matthewzeiler.com/ Личный сайт Мэтью Зейлера (M. D. Zeiler)]&lt;br /&gt;
* {{cite web | url = https://postnauka.ru/video/66872 | date = 2016-08-12| publisher = [[ПостНаука]] | title = Сверточные нейронные сети | author = Виктор Лемпицкий }}&lt;br /&gt;
&lt;br /&gt;
{{Типы искусственных нейронных сетей}}&lt;br /&gt;
{{Машинное обучение}}&lt;br /&gt;
&lt;br /&gt;
[[Категория:Искусственные нейронные сети]]&lt;br /&gt;
[[Категория:Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>Dzmuh</name></author>
	</entry>
</feed>