<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80</id>
	<title>Линейный классификатор - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.dzmuh.com/index.php?action=history&amp;feed=atom&amp;title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80"/>
	<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80&amp;action=history"/>
	<updated>2026-05-05T21:27:08Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.38.4</generator>
	<entry>
		<id>https://wiki.dzmuh.com/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80&amp;diff=14041&amp;oldid=prev</id>
		<title>Dzmuh: Новая страница: «'''Линейный классификатор''' — способ решения задач классификации, когда  решение принимается на основании действия линейного оператора над входными данными. Класс задач, которые можно решать с помощью линей...»</title>
		<link rel="alternate" type="text/html" href="https://wiki.dzmuh.com/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80&amp;diff=14041&amp;oldid=prev"/>
		<updated>2024-08-30T23:35:13Z</updated>

		<summary type="html">&lt;p&gt;Новая страница: «&amp;#039;&amp;#039;&amp;#039;Линейный классификатор&amp;#039;&amp;#039;&amp;#039; — способ решения &lt;a href=&quot;/index.php?title=%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D0%B8&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Задача классификации (страница не существует)&quot;&gt;задач классификации&lt;/a&gt;, когда  решение принимается на основании действия &lt;a href=&quot;/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BE%D0%BF%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;Линейный оператор (страница не существует)&quot;&gt;линейного оператора&lt;/a&gt; над входными данными. Класс задач, которые можно решать с помощью линей...»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;'''Линейный классификатор''' — способ решения [[Задача классификации|задач классификации]], когда  решение принимается на основании действия [[Линейный оператор|линейного оператора]] над входными данными. Класс задач, которые можно решать с помощью линейных классификаторов, обладают, соответственно, свойством  [[Линейная сепарабельность|линейной сепарабельности]].&lt;br /&gt;
&lt;br /&gt;
== Определение ==&lt;br /&gt;
[[Image:Svm separating hyperplanes.png|thumb|right|На картинке множества чёрных и белых шаров разделяются синей и красной линией. При этом красная линия проводит более точную классификацию, потому что она максимально отстоит от обоих множеств. Зелёная линия не является линейным классификатором,  она не разделяет два множества.]]&lt;br /&gt;
&lt;br /&gt;
Пусть вектор &amp;lt;math&amp;gt;\vec x&amp;lt;/math&amp;gt; из действительных чисел представляет собой входные данные, а на выходе классификатора вычисляется показатель y по формуле:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;y = f(\vec{w}\cdot\vec{x}) = f\left(\sum_j w_j x_j\right),&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
здесь &amp;lt;math&amp;gt;\vec w&amp;lt;/math&amp;gt; - действительный вектор весов, а  ''f'' - функция преобразования [[Скалярное произведение|скалярного произведения]]. (Иными словами, вектор весов &amp;lt;math&amp;gt;\vec{w}&amp;lt;/math&amp;gt; - [[ковариантный вектор]] или [[линейная форма]] отображения  &amp;lt;math&amp;gt;\vec x&amp;lt;/math&amp;gt; в '''R'''.) Значения весов вектора  &amp;lt;math&amp;gt;\vec w&amp;lt;/math&amp;gt; определяются в ходе [[машинное обучение|машинного обучения]] на подготовленных образцах. Функция ''f'' обычно простая пороговая функция, отделяющая один класс объектов от другого. В более сложных случаях Функция ''f'' имеет смысл вероятности того или иного решения.&lt;br /&gt;
&lt;br /&gt;
Операцию линейной классификации для двух классов можно себе представить как отображение объектов в многомерном пространстве на гиперплоскость, в которой те объекты, которые попали по одну сторону разделяющей линии, относятся к первому классу (&amp;quot;да&amp;quot;), а объекты по другую сторону - ко второму классу (&amp;quot;нет&amp;quot;)).&lt;br /&gt;
&lt;br /&gt;
Линейный классификатор используется когда важно проводить быстрые вычисления с большой скоростью. Он неплохо работает, когда входной вектор  &amp;lt;math&amp;gt;\vec x&amp;lt;/math&amp;gt; разрежен. Линейные классификаторы могут хорошо срабатывать в многомерном пространстве, например, для классификации документов по [[Терм-документная матрица|матрице встречаемости слов]]. В подобных случаях считается, что объекты [[регуляризация (математика)|хорошо регуляризируемы]].&lt;br /&gt;
&lt;br /&gt;
== Генеративная и дискриминативная модели ==&lt;br /&gt;
Существует два подхода к определению параметров  &amp;lt;math&amp;gt;\vec w&amp;lt;/math&amp;gt; для линейного классификатора - генеративные или дискриминативные модели.&amp;lt;ref&amp;gt;T. Mitchell, [http://www.cs.cmu.edu/~tom/mlbook/NBayesLogReg.pdf Generative and Discriminative Classifiers: Naive Bayes and Logistic Regression.] {{Wayback|url=http://www.cs.cmu.edu/~tom/mlbook/NBayesLogReg.pdf |date=20210224155910 }} Draft Version, 2005&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;A. Y. Ng and M. I. Jordan. [http://www.cs.berkeley.edu/~jordan/papers/ng-jordan-nips01.ps On Discriminative vs. Generative Classifiers: A comparison of logistic regression and Naive Bayes.] {{Wayback|url=http://www.cs.berkeley.edu/~jordan/papers/ng-jordan-nips01.ps |date=20160304200258 }}  in NIPS 14, 2002.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Генеративная модель использует [[условное распределение]] &amp;lt;math&amp;gt;P(\vec x|{\rm class})&amp;lt;/math&amp;gt;. Например:&lt;br /&gt;
* [[Дискриминантный анализ]] (LDA) — предполагает [[нормальное распределение]] по Гауссу. &amp;lt;ref&amp;gt;R.O. Duda, P.E. Hart, D.G. Stork, &amp;quot;Pattern Classification&amp;quot;, Wiley, (2001). ISBN 0-471-05669-3&amp;lt;/ref&amp;gt;{{rp|117}}&lt;br /&gt;
* [[Наивный байесовский классификатор]] с Бернуллиевской моделью событий.&lt;br /&gt;
&lt;br /&gt;
Дискриминативные модели стремятся улучшить качество выходных данных на наборе образцов для обучения. Например:&lt;br /&gt;
* [[Логистическая регрессия]] — стремление достичь максимального сходства через вектор of &amp;lt;math&amp;gt;\vec w&amp;lt;/math&amp;gt; из предположения, что наблюдаемый набор образцов генерировался в виде биномиальной модели от выходных данных.&lt;br /&gt;
* Простой [[Перцептрон]] — алгоритм коррекции всех ошибок на входном наборе образцов.&lt;br /&gt;
* [[Метод опорных векторов]] — алгоритм расширения разделительной зоны в гиперплоскости решений между образцами входных данных.&lt;br /&gt;
&lt;br /&gt;
Дискриминативные модели более точны, однако при неполной информации в данных легче использовать условное распределение.&lt;br /&gt;
&lt;br /&gt;
=== Дискриминативное обучение ===&lt;br /&gt;
Обучение при использовании дискриминативных моделей строится через &amp;quot;[[Обучение с учителем]]&amp;quot; , то есть через процесс [[Оптимизация (математика)|оптимизации]] выходных данных на заданных образцах для обучения. При этом определяется [[функция потерь]], измеряющая несогласование между выходными данными и желаемыми результатами.  Формально задача обучения (как оптимизации) записывается как:&lt;br /&gt;
&amp;lt;ref name=&amp;quot;ieee&amp;quot;&amp;gt;{{статья |заглавие=Recent Advances of Large-Scale Linear Classification |издание={{Нп3|Proceedings of the IEEE|Proc. IEEE||Proceedings of the IEEE}} |том=100 |номер=9 |язык=en |тип=journal |автор=Guo-Xun Yuan; Chia-Hua Ho; Chih-Jen Lin |год=2012}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underset{\mathbf{w}}{\arg\!\min} \;R(\mathbf{w}) + C \sum_{i=1}^N L(y_i, \mathbf{w}^\mathsf{T} \mathbf{x}_i)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
где&lt;br /&gt;
&lt;br /&gt;
* {{math|'''w'''}} - искомый  вектор весов классификатора,&lt;br /&gt;
* {{math|''L''(''y&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;'', '''w'''&amp;lt;sup&amp;gt;T&amp;lt;/sup&amp;gt;'''x'''&amp;lt;sub&amp;gt;''i''&amp;lt;/sub&amp;gt;)}} [[функция потерь]] (то есть, несоответствие между выходом классификатора и истинными значениями {{mvar|y&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;}} для {{mvar|i}}-го образца),&lt;br /&gt;
* {{math|''R''('''w''')}} - функция регуляризации, которая не позволяет параметрам выходить за разумные пределы (по причине [[переобучение|переобучения]]),&lt;br /&gt;
* {{mvar|C}} - константа, определяемая пользователем алгоритма обучения для балансировки между регуляризацией и функцией потерь.&lt;br /&gt;
&lt;br /&gt;
Наиболее популярны  кусочно-линейная функция  и логарифмическая ([[Перекрёстная энтропия]]) функции потерь. Если функция регуляризации {{mvar|R}} [[Выпуклая функция|выпуклая]], то ставится проблема выпуклой оптимизации{{r|ieee}}. Для решения этих задач используется много алгоритмов, в частности метод стохастического градиентного спуска,  [[Градиентный спуск|метод градиентного спуска]], [[L-BFGS]], [[метод координатного спуска]] и [[Метод Ньютона]].{{Нет АИ|19|8|2022}}&lt;br /&gt;
&lt;br /&gt;
== См. также ==&lt;br /&gt;
* [[Метод обратного распространения ошибки]]&lt;br /&gt;
* [[Линейная регрессия]]&lt;br /&gt;
* [[Перцептрон]]&lt;br /&gt;
* [[Метод опорных векторов]]&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Литература ==&lt;br /&gt;
# Y. Yang, X. Liu, &amp;quot;A re-examination of text categorization&amp;quot;, Proc. ACM SIGIR Conference, pp.&amp;amp;nbsp;42–49, (1999). [http://citeseer.ist.psu.edu/yang99reexamination.html paper @ citeseer]&lt;br /&gt;
# R. Herbrich, &amp;quot;Learning Kernel Classifiers: Theory and Algorithms,&amp;quot; MIT Press, (2001). ISBN 0-262-08306-X&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;br /&gt;
{{Википедия|Линейный классификатор}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Linear Classifier}}&lt;br /&gt;
[[Категория:Применение искусственного интеллекта]]&lt;br /&gt;
[[Категория:Машинное обучение]]&lt;/div&gt;</summary>
		<author><name>Dzmuh</name></author>
	</entry>
</feed>