Stable Diffusion: различия между версиями

Материал из DZWIKI
Перейти к навигации Перейти к поиску
Нет описания правки
 
(не показано 7 промежуточных версий этого же участника)
Строка 1: Строка 1:
{{Заготовка}}
{{Программа
{{Infobox software
| название = Stable Diffusion
| name = Stable Diffusion
| logo =
| logo =
| screenshot = Cyberpunk city created by Stable Diffusion 2.webp
| screenshot = Cyberpunk city created by Stable Diffusion 2.webp
Строка 19: Строка 18:
| CEO =  
| CEO =  
}}
}}
'''Stable Diffusion''' (''дословно «Стабильная'' {{Iw|Диффузионная модель|диффузия|4=Diffusion model}}''»'') — программное обеспечение, создающее изображения по текстовым описаниям, с [[Открытое программное обеспечение|открытым исходным кодом]]<ref>{{Статья|ссылка=https://github.com/CompVis/stable-diffusion|заглавие=Stable Diffusion|год=2023-01-05|archivedate=2023-01-18|archiveurl=https://web.archive.org/web/20230118183342/https://github.com/CompVis/stable-diffusion}}</ref>. Выпущено в 2022 году. Разработано группой компаний CompVis в [[Мюнхенский университет|Мюнхенском университете]]. Кроме того, в разработке участвовали Runway, EleutherAI и LAION.
'''Stable Diffusion''' (''дословно «стабильная диффузия»'') — модель [[Глубокое обучение|глубокого обучения]] создающая {{Iw|Модель преобразования текста в изображение|изображения по текстовым описаниям|4=Text-to-image model}}, с [[Открытое программное обеспечение|открытым исходным кодом]]<ref>{{Статья|ссылка=https://github.com/CompVis/stable-diffusion|заглавие=Stable Diffusion|год=2023-01-05|archivedate=2023-01-18|archiveurl=https://web.archive.org/web/20230118183342/https://github.com/CompVis/stable-diffusion}}</ref>. Выпущена в 2022 году и основанна на методах {{Iw|Диффузионная модель|диффузии|4=Diffusion model}}. В основном используется для создания детальных изображений на основе текстовых описаний, хотя ее также можно применять и для других задач, например дорисовывать наброски и редактировать исходные картинки<ref>{{Cite web|url=https://trends.rbc.ru/trends/industry/6453407a9a794740b2fd2b96|title=Stable Diffusion: что за нейросеть, как работает, инструкция|lang=ru|website=РБК Тренды|access-date=2024-03-10}}</ref>. Разработана группой компаний CompVis в [[Мюнхенский университет|Мюнхенском университете]]. Кроме того, в разработке участвовали Runway, EleutherAI и LAION<ref name="sifted_financialtimes">{{cite web|title=Leaked deck raises questions over Stability AI's Series A pitch to investors|url=https://sifted.eu/articles/stability-ai-fundraise-leak|access-date=2023-06-20|website=sifted.eu|archive-date=June 29, 2023|archive-url=https://web.archive.org/web/20230629201917/https://sifted.eu/articles/stability-ai-fundraise-leak|url-status=live}}</ref><ref name="lmu_lauch">{{cite web|title=Revolutionizing image generation by AI: Turning text into images|url=https://www.lmu.de/en/newsroom/news-overview/news/revolutionizing-image-generation-by-ai-turning-text-into-images.html|access-date=2023-06-21|website=www.lmu.de|archive-date=September 17, 2022|archive-url=https://web.archive.org/web/20220917200820/https://www.lmu.de/en/newsroom/news-overview/news/revolutionizing-image-generation-by-ai-turning-text-into-images.html|url-status=live}}</ref><ref>{{Cite web|last=Mostaque|first=Emad|date=November 2, 2022|title=Stable Diffusion came from the Machine Vision & Learning research group (CompVis) @LMU_Muenchen|url=https://twitter.com/EMostaque/status/1587844074064822274?lang=en|access-date=2023-06-22|website=Twitter|language=en|archive-date=July 20, 2023|archive-url=https://web.archive.org/web/20230720002303/https://twitter.com/EMostaque/status/1587844074064822274?lang=en|url-status=live}}</ref><ref name="stable-diffusion-launch">{{cite web|url=https://stability.ai/blog/stable-diffusion-announcement|title=Stable Diffusion Launch Announcement|website=Stability.Ai|access-date=2022-09-06|archive-date=2022-09-05|archive-url=https://web.archive.org/web/20220905105009/https://stability.ai/blog/stable-diffusion-announcement|url-status=live}}</ref>.
 
Stable Diffusion — модель скрытой диффузии, своего рода [[Глубокое обучение|глубокая]] [[Генеративная модель|генеративная]] [[нейронная сеть]]. Код и вес модели были [[Открытое программное обеспечение|открыты]]<ref name="stable-diffusion-github">{{cite web|title=Stable Diffusion Repository on GitHub|url=https://github.com/CompVis/stable-diffusion|publisher=CompVis - Machine Vision and Learning Research Group, LMU Munich|access-date=17 September 2022|date=17 September 2022|archive-date=January 18, 2023|archive-url=https://web.archive.org/web/20230118183342/https://github.com/CompVis/stable-diffusion|url-status=live}}</ref>. Может работать на большинстве потребительских устройств, оснащенных графическим процессором с объемом видеопамяти не менее 4 ГБ. Её появление ознаменовало отход от предыдущих [[Проприетарное программное обеспечение|проприетарных]] моделей преобразования текста в изображение, таких как [[DALL-E]] и [[Midjourney]], которые были доступны только через [[Облачные вычисления|облачные сервисы]]<ref name="pcworld">{{cite web|url=https://www.pcworld.com/article/916785/creating-ai-art-local-pc-stable-diffusion.html|title=The new killer app: Creating AI art will absolutely crush your PC|website=PCWorld|archive-url=https://web.archive.org/web/20220831065139/https://www.pcworld.com/article/916785/creating-ai-art-local-pc-stable-diffusion.html|archive-date=2022-08-31|access-date=2022-08-31|url-status=live}}</ref><ref>{{Cite web|url=https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart|title=AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit|first=James|last=Vincent|date=January 16, 2023|website=The Verge|access-date=January 16, 2023|archive-date=March 9, 2023|archive-url=https://web.archive.org/web/20230309010528/https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart|url-status=live}}</ref>.


== Технические особенности ==
== Технические особенности ==
Строка 69: Строка 70:


== См. также ==
== См. также ==
* [[Stable Cascade]]
* [[Midjourney]]
* [[15.ai]]
* [[15.ai]]
* [[Artificial intelligence art]]
* [[Artificial intelligence art]]
* [[Craiyon]]
* [[Craiyon]]
* [[Imagen (Google Brain)]]
* [[Imagen (Google Brain)]]
* [[Midjourney]]


== Примечания ==
== Примечания ==
Строка 88: Строка 91:
[[Категория:Генерация изображения из текста]]
[[Категория:Генерация изображения из текста]]
[[Категория:Искусственные нейронные сети]]
[[Категория:Искусственные нейронные сети]]
[[Категория:Обучение без учителя]]
[[Category:Art controversies]]
[[Category:Works involved in plagiarism controversies]]
[[Category:Artificial intelligence art]]

Текущая версия от 10:58, 30 июня 2024

Stable Diffusion
Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Изображение, сгенерированное Stable Diffusion
Изображение, сгенерированное Stable Diffusion
Тип Text-to-image model
Автор Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Разработчик StabilityAI
Написана на Python
Операционная система Все, поддерживающие ядра CUDA
Первый выпуск Август 22, 2022
Последняя версия Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Кандидат в релизы Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Бета-версия Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Альфа-версия Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Тестовая версия Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value).
Репозиторий github.com/CompVis/stable-diffusion
Лицензия Creative ML OpenRAIL-M
Сайт stability.ai

Stable Diffusion (дословно «стабильная диффузия») — модель глубокого обучения создающая изображения по текстовым описаниям[en], с открытым исходным кодом[2]. Выпущена в 2022 году и основанна на методах диффузии[en]. В основном используется для создания детальных изображений на основе текстовых описаний, хотя ее также можно применять и для других задач, например дорисовывать наброски и редактировать исходные картинки[3]. Разработана группой компаний CompVis в Мюнхенском университете. Кроме того, в разработке участвовали Runway, EleutherAI и LAION[4][5][6][7].

Stable Diffusion — модель скрытой диффузии, своего рода глубокая генеративная нейронная сеть. Код и вес модели были открыты[8]. Может работать на большинстве потребительских устройств, оснащенных графическим процессором с объемом видеопамяти не менее 4 ГБ. Её появление ознаменовало отход от предыдущих проприетарных моделей преобразования текста в изображение, таких как DALL-E и Midjourney, которые были доступны только через облачные сервисы[9][10].

Технические особенности

Модель может работать на центральном процессоре, но лучшая производительность достигается при помощи видеокарты с объёмом видеопамяти не менее 2 ГБ, начиная с GeForce GTX 750Ti.

Далее хуёвый перевод

Stable Diffusion (дословно «Стабильная диффузия[en]») — глубокое изучение, модель текста к изображению, опубликованная запуском StabilityAI в 2022. В первую очередь он используется для создания подробных изображений на основе текстовых описаний, но также может применяться и к другим задачам, таким как ввод, вывод и создание переводов «изображение-изображение» с помощью текстового запроса.[11]

Stable Diffusion — латентная диффузионная модель, разнообразная генеративная нейронная сеть, разработанная исследователями из LMU Munich. Он был разработан Stability AI в сотрудничестве с LMU и Runway при поддержке EleutherAI и LAION.[12][13][14] Stability AI ведёт переговоры о привлечении капитала по оценке до одного миллиарда долларов по состоянию на сентябрь 2022 года.[15]

Код и вес модели Stable Diffusion были опубликованы публично, и они могут работать на большинстве потребительских аппаратных средств домашних ПК, оснащённых скромным графическим процессором. Это означало отход от предыдущих запатентованных моделей преобразования текста в изображение, таких как DALL-E и Midjourney, которые были доступны только через облачные сервисы.[16][17]

Архитектура

Stable Diffusion является формой диффузионной модели (DM). Внедрённые в 2015 году диффузионные модели обучаются с целью удаления последовательных применений гауссова шума к обучающим изображениям, и их можно рассматривать как последовательность денуазирующих автокодеров. Stable Diffusion использует вариант, известный как «латентная диффузионная модель» (LDM). Вместо обучения обесшумлению данных изображения (в «пиксельном пространстве») автокодер обучается преобразованию изображений в более низкоразмерное латентное пространство. Процесс добавления и удаления шума применяется к этому скрытому представлению, при этом конечный деноизируемый выходной сигнал затем декодируется в пиксельное пространство. Каждый этап деноизирования выполняется архитектурой U-Net. Исследователи указывают на снижение вычислительных требований к обучению и генерации как на преимущество LDM.[12][18]

Этап отрицания может быть обусловлен строкой текста, изображением или некоторыми другими данными. Кодирование кондиционирующих данных подвергают воздействию деноизлучающих U-сетей посредством механизма перекрёстного внимания.[18]

Файл:Stable Diffusion architecture.png
Diagram of the latent diffusion architecture used by Stable Diffusion.

Использование

Модель Stable Diffusion поддерживает возможность создания новых изображений с нуля посредством использования текстового запроса, описывающего элементы, которые должны быть включены или опущены из выходных данных,[13] и перерисовки существующих изображений, которые включают новые элементы, описанные в текстовом запросе.[19] Кроме того, модель также позволяет использовать подсказки для частичного изменения существующих изображений посредством ввода и вывода, при использовании с соответствующим пользовательским интерфейсом, поддерживающим такие особенности, из которых существуют многочисленные различные реализации с открытым исходным кодом[20].

Стабильную диффузию рекомендуется запускать с 10 ГБ или более VRAM, однако пользователи с меньшим количеством VRAM могут использовать для загрузки весов с точностью float16 вместо значения по умолчанию float32, чтобы снизить использование VRAM.[21]

Создание текста для изображения

Сценарий выборки текста для изображения в рамках стабильной диффузии, известный как «txt2img», использует текстовую подсказку в дополнение к различным параметрам опций, охватывающим типы выборки, выходные размеры изображения и начальные значения, а также вывод файла изображения на основе интерпретации подсказки моделью.[13] Сгенерированные изображения помечаются невидимым цифровым водяным знаком, что позволяет пользователям идентифицировать изображение, сформированное при помощи функции «Стабильная диффузия»,[13] Хотя этот водяной знак теряет свою эффективность, если изображение изменяется или поворачивается.[22] Модель стабильной диффузии обучается на наборе данных, состоящем из изображений с разрешением 512 × 512,[13][23] означает, что выходные изображения txt2img оптимально сконфигурированы для генерации с разрешением 512 × 512, и отклонение от этого размера может привести к некачественным выходам генерации[21].

Каждое формирование txt2img будет включать конкретное начальное значение, которое влияет на выходное изображение; пользователи могут выбрать рандомизацию начального числа для того, чтобы исследовать различные сгенерированные выходные данные, или использовать одно и то же начальное значение для того, чтобы получить тот же выходной сигнал изображения, что и ранее сгенерированное изображение.[24] Пользователи также могут регулировать количество шагов вывода для дискретизатора; более высокое значение занимает больше времени, однако меньшее значение может привести к визуальным дефектам.[24] значение шкалы управления без классификатора позволяет пользователю отрегулировать, насколько близко выходное изображение придерживается подсказки;[25] более экспериментальные или творческие сценарии использования могут выбрать меньшее значение, в то время как сценарии использования, направленные на более конкретные выходы, могут использовать более высокое значение.[24]

Отрицательные подсказки — это функция, включённая в некоторые реализации интерфейса пользователя Stable Diffusion, которая позволяет пользователю задавать подсказки, которых модель должна избегать во время создания изображения. для случаев использования, когда нежелательные признаки изображения в противном случае присутствовали бы в выходных данных изображения из-за положительных подсказок, предоставленных пользователем,[20] Использование негативных подсказок оказывает весьма статистически значимое влияние на снижение частоты генерации нежелательных результатов по сравнению с использованием маркеров акцента, которые являются другим альтернативным способом добавления веса к частям подсказок, используемых в некоторых реализациях стабильной диффузии с открытым исходным кодом, где скобки добавлены к ключевым словам, чтобы добавить или уменьшить акцент.[26]

Изменение изображения

Stable Diffusion включает в себя другой сценарий выборки, «img2img», который использует текстовое приглашение, путь к существующему изображению и значение силы между 0,0 и 1,0, и выводит новое изображение на основе исходного изображения, которое также имеет элементы, предусмотренные в текстовом приглашении; значение силы обозначает величину шума, добавляемого к выходному изображению, с более высоким значением, создающим изображения с большей вариацией, однако может не быть семантически совместимым с предоставленной подсказкой.[13] Увеличение масштаба изображения является одним из возможных вариантов использования img2img, среди прочих.[13]

Покраска и выкраска

Дополнительные примеры использования для модификации изображения через img2img предлагаются многочисленными различными фронтальными реализациями модели стабильной диффузии. Ввод включает в себя выборочное изменение части существующего изображения, очерченного предоставленной пользователем маской, которая заполняет маскированное пространство вновь сформированным содержимым на основе предоставленного приглашения.[20] Наоборот, вывод расширяет изображение за пределы его первоначальных размеров, заполняя ранее пустое пространство содержимым, сформированным на основе предоставленного приглашения.[20]

Лицензия

В отличие от таких моделей, как DALL-E, Stable Diffusion обеспечивает доступность исходного кода[27][13] вместе с предварительно подготовленными весами. Его лицензия запрещает определённые случаи использования, включая преступления, клевету, домогательства, доксинг, "эксплуатацию… несовершеннолетние, предоставление медицинских консультаций, автоматическое создание юридических обязательств, представление юридических доказательств и дискриминация или причинение вреда отдельным лицам или группам на основе… социальное поведение или… личностные или личностные характеристики… [или] охраняемые законом характеристики или категории «[28][29] Пользователь владеет правами на созданные им выходные изображения и может свободно использовать их на коммерческой основе[30].

Обучение

Stable Diffusion была обучена на парах изображений и титров, взятых из LAION-5B, общедоступного набора данных, полученного из данных Common Crawl, соскребаемых из сети. Набор данных был создан немецкой некоммерческой организацией LAION, которая получает финансирование от Stability AI.[31][32] Модель была первоначально обучена на большом подмножестве LAION-5B, с заключительными раундами обучения, выполненными на. „LAION-Aesthetics v2 5 +“, подмножество из 600 миллионов титульных изображений, которые ИИ предсказал, что люди дадут оценку по крайней мере 5 из 10, когда его попросили оценить, насколько они им нравятся.[31][33] Это последнее подмножество также исключало изображения с низким разрешением и изображения, которые ИИ идентифицировал как несущие водяной знак.[31] Сторонний анализ обучающих данных модели выявил, что из меньшего подмножества из 12 миллионов изображений, взятых из исходного более широкого набора данных, приблизительно 47 % размера выборки изображений пришли из 100 различных доменов, при этом Pinterest занял 8,5 % подмножества, а затем такие веб-сайты, как WordPress, Blogspot, Flickr, DevIantArt и Wikimedia Общее достояние[34][31].

Модель была обучена с использованием 256 графических процессоров Nvidia A100 на веб-сервисах Amazon Web Services на общую сумму 150 000 GPU-часов при стоимости 600 000 долл. США.[35][36].

Социальные последствия

Как визуальные стили и композиции не подлежат авторскому праву, часто интерпретируется, что пользователи „Стабильной диффузии“, создающие изображения произведений искусства, не должны рассматриваться как нарушающие авторские права на визуально похожие произведения,[37] однако лица, изображённые на сгенерированных изображениях, все ещё могут быть защищены правами личности, если используется их подобие,[37] и интеллектуальная собственность, такая как узнаваемые логотипы торговых марок, по-прежнему защищены авторским правом. Тем не менее, визуальные художники выразили опасение, что широкое использование программного обеспечения для синтеза изображений, такого как „Стабильная диффузия“, может в конечном итоге привести к тому, что человеческие художники, а также фотографы, модели, кинематографисты и актёры постепенно потеряют коммерческую жизнеспособность против конкурентов на основе ИИ.[38]

Стабильное Распространение особенно более разрешающее в типах пользователей содержания, может произвести, такие как сильные или сексуально откровенные образы, по сравнению с подобными продуктами синтеза машинного обучения изображения от других компаний.[39] опасения Обращения, что модель может использоваться в оскорбительных целях, генеральном директоре StabilityAI Emad Mostaque, объясняют это»(это) ответственность людей за то, являются ли они этическими, моральными и законными в том, как они используют эту технологию, "[17] и что передача возможностей стабильной диффузии в руки общественности приведёт к тому, что технология обеспечит чистую выгоду в целом, даже несмотря на потенциальные негативные последствия[17]. Мостак утверждает, что целью открытой доступности стабильной диффузии является прекращение корпоративного контроля и доминирования над такими технологиями, которые ранее разрабатывали только закрытые системы ИИ для синтеза изображений.[17][39]

См. также

Примечания

  1. Mostaque, Emad Stable Diffusion 1.5 beta now available to try via API and #DreamStudio, let me know what you think. Much more tomorrow… Twitter (6 июня 2022). Архивировано 27 сентября 2022 года.
  2. Stable Diffusion. — 2023-01-05. Архивировано 18 января 2023 года.
  3. Stable Diffusion: что за нейросеть, как работает, инструкция. РБК Тренды. Дата обращения: 10 марта 2024.
  4. Leaked deck raises questions over Stability AI's Series A pitch to investors. sifted.eu. Дата обращения: 20 июня 2023. Архивировано 29 июня 2023 года.
  5. Revolutionizing image generation by AI: Turning text into images. www.lmu.de. Дата обращения: 21 июня 2023. Архивировано 17 сентября 2022 года.
  6. Mostaque, Emad Stable Diffusion came from the Machine Vision & Learning research group (CompVis) @LMU_Muenchen (англ.). Twitter (2 ноября 2022). Дата обращения: 22 июня 2023. Архивировано 20 июля 2023 года.
  7. Stable Diffusion Launch Announcement. Stability.Ai. Дата обращения: 6 сентября 2022. Архивировано 5 сентября 2022 года.
  8. Stable Diffusion Repository on GitHub. CompVis - Machine Vision and Learning Research Group, LMU Munich (17 сентября 2022). Дата обращения: 17 сентября 2022. Архивировано 18 января 2023 года.
  9. The new killer app: Creating AI art will absolutely crush your PC. PCWorld. Дата обращения: 31 августа 2022. Архивировано 31 августа 2022 года.
  10. Vincent, James AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit. The Verge (16 января 2023). Дата обращения: 16 января 2023. Архивировано 9 марта 2023 года.
  11. Diffuse The Rest - a Hugging Face Space by huggingface-projects. huggingface.co. Дата обращения: 18 октября 2022.
  12. 12,0 12,1 Stable Diffusion launch announcement (брит. англ.). Stability.Ai. Дата обращения: 18 октября 2022.
  13. 13,0 13,1 13,2 13,3 13,4 13,5 13,6 13,7 Stable Diffusion. — 2022-10-18.
  14. Revolutionizing image generation by AI: Turning text into images (англ.). www.lmu.de. Дата обращения: 18 октября 2022.
  15. Kenrick Cai. Startup Behind AI Image Generator Stable Diffusion Is In Talks To Raise At A Valuation Up To $1 Billion (англ.). Forbes. Дата обращения: 18 октября 2022.
  16. Senior Editor. The new killer app: Creating AI art will absolutely crush your PC (англ.). PCWorld. Дата обращения: 18 октября 2022.
  17. 17,0 17,1 17,2 17,3 James Vincent. Anyone can use this AI art generator — that’s the risk (амер. англ.). The Verge (15 сентября 2022). Дата обращения: 18 октября 2022.
  18. 18,0 18,1 Rombach; Blattmann; Lorenz; Esser; Ommer (June 2022). [1].
  19. Chenlin Meng, Yutong He, Yang Song, Jiaming Song, Jiajun Wu. SDEdit: Guided Image Synthesis and Editing with Stochastic Differential Equations // arXiv:2108.01073 [cs]. — 2022-01-04.
  20. 20,0 20,1 20,2 20,3 AUTOMATIC1111. Stable Diffusion web UI. — 2022-10-18.
  21. 21,0 21,1 Stable Diffusion with 🧨 Diffusers. huggingface.co. Дата обращения: 18 октября 2022.
  22. invisible-watermark. — 2022-10-17.
  23. Andy Baio. Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion's Image Generator (амер. англ.). Waxy.org (30 августа 2022). Дата обращения: 18 октября 2022.
  24. 24,0 24,1 24,2 Stable Diffusion (англ.) // Wikipedia. — 2022-10-14.
  25. Jonathan Ho, Tim Salimans. Classifier-Free Diffusion Guidance // arXiv:2207.12598 [cs]. — 2022-07-25.
  26. stable-diffusion-tools/emphasis at master · JohannesGaessler/stable-diffusion-tools (англ.). GitHub. Дата обращения: 18 октября 2022.
  27. Stable Diffusion Public Release (брит. англ.). Stability.Ai. Дата обращения: 18 октября 2022.
  28. Ready or not, mass video deepfakes are.
  29. stable-diffusion-license.
  30. 言葉で指示した画像を凄いAIが描き出す「Stable Diffusion」 ~画像は商用利用も可能.
  31. 31,0 31,1 31,2 31,3 Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion’s Image Generator.
  32. This artist is dominating AI-generated art. And he’s not happy about it.
  33. LAION-AESTHETICS.
  34. Alex Ivanovs. Stable Diffusion: Tutorials, Resources, and Tools (амер. англ.). Stack Diary (8 сентября 2022). Дата обращения: 18 октября 2022.
  35. CompVis/stable-diffusion-v1-4 · Hugging Face. huggingface.co. Дата обращения: 18 октября 2022.
  36. Kyle Wiggers. A startup wants to democratize the tech behind DALL-E 2, consequences be damned (амер. англ.). TechCrunch (12 августа 2022). Дата обращения: 18 октября 2022.
  37. 37,0 37,1 蒼唯レン(VTuber), 蒼唯レン(VTuber). 高性能画像生成AI「Stable Diffusion」無料リリース。「kawaii」までも理解し創造する画像生成AI (яп.). AUTOMATON (24 августа 2022). Дата обращения: 18 октября 2022.
  38. This artist is dominating AI-generated art. And he’s not happy about it. (англ.). MIT Technology Review. Дата обращения: 18 октября 2022.
  39. 39,0 39,1 清水亮 / Ryo Shimizu. Midjourneyを超えた? 無料の作画AI「 #StableDiffusion 」が「AIを民主化した」と断言できる理由 (яп.). BUSINESS INSIDER JAPAN (26 августа 2022). Дата обращения: 18 октября 2022.

Ссылки