GPT-J: различия между версиями
Dzmuh (обсуждение | вклад) (Новая страница: «{{Программа}} '''GPT-J''' — языковая модель искусственного интеллекта с открытым исходным кодом, разработанная EleutherAI<ref>{{Cite web|lang=en|url=https://gpt3demo.com/apps/gpt-j-6b|title=GPT-J {{!}} Discover AI use cases|author=Demo|first=GPT-3|website=gpt3demo.com|access-date=2023-02-28|archive-date=2023-02-28|archive...») |
Dzmuh (обсуждение | вклад) (→Ссылки) |
||
| Строка 7: | Строка 7: | ||
== Ссылки == | == Ссылки == | ||
{{Википедия|GPT-J}} | {{Википедия|GPT-J}} | ||
{{Генеративный ИИ}} | |||
[[Категория:Большие языковые модели]] | [[Категория:Большие языковые модели]] | ||
Текущая версия от 06:58, 26 января 2026
| GPT-J | |
|---|---|
| Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). | |
| Ошибка Lua в Модуль:Wikidata на строке 288: attempt to index field 'wikibase' (a nil value). | |
| Автор | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Разработчик | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Первый выпуск | Ошибка Lua в Модуль:Wikidata на строке 288: attempt to index field 'wikibase' (a nil value). |
| Последняя версия | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Кандидат в релизы | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Бета-версия | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Альфа-версия | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
| Тестовая версия | Ошибка Lua в Модуль:Wikidata на строке 1098: attempt to index field 'wikibase' (a nil value). |
GPT-J — языковая модель искусственного интеллекта с открытым исходным кодом, разработанная EleutherAI[1]. GPT-J работает очень похоже на GPT-3 от OpenAI в различных zero-shot задачах и может даже превзойти его в задачах генерации кода[2]. Новейшая версия GPT-J-6B представляет собой языковую модель, основанную на наборе данных под названием The Pile[3]. Pile — это 825- гигабайтный набор данных языкового моделирования с открытым исходным кодом, который разделен на 22 меньших набора данных[4]. GPT-J похож на ChatGPT по возможностям, хотя он не работает как чат-бот, а только как предсказатель текста[5]. В марте 2023 года Databricks выпустила Dolly, лицензированную Apache модель следования инструкциям, основанную на GPT-J с тонкой настройкой из набора данных Stanford Alpaca[6].
Примечания
- ↑ Demo. GPT-J | Discover AI use cases (англ.). gpt3demo.com. Дата обращения: 28 февраля 2023. Архивировано 28 февраля 2023 года.
- ↑ GPT-J-6B: An Introduction to the Largest Open Source GPT Model | Forefront (англ.). www.forefront.ai. Дата обращения: 28 февраля 2023. Архивировано из оригинала 9 марта 2023 года.
- ↑ Wang, Ben, Table of contents, <https://github.com/kingoflolz/mesh-transformer-jax>. Проверено 28 февраля 2023.
- ↑ The Pile. pile.eleuther.ai. Дата обращения: 28 февраля 2023. Архивировано 28 февраля 2023 года.
- ↑ Mueller. How you can use GPT-J (англ.). Medium (25 января 2022). Дата обращения: 28 февраля 2023. Архивировано 28 февраля 2023 года.
- ↑ Conover; Hayes, Matt; Mathur, Ankit; Meng, Xiangrui; Xie, Jianwei Hello Dolly: Democratizing the magic of ChatGPT with open models (24 марта 2023). Дата обращения: 5 апреля 2023. Архивировано 5 апреля 2023 года.