GitHub Copilot: различия между версиями
Dzmuh (обсуждение | вклад) Нет описания правки |
Dzmuh (обсуждение | вклад) |
||
| Строка 35: | Строка 35: | ||
21 июня появилось официальное объявление о выходе ''Copilot'' из предварительного тестирования и доступности его для всех желающих по подписочной системе<ref>{{Cite web|lang=en|url=https://github.blog/2022-06-21-github-copilot-is-generally-available-to-all-developers/|title=GitHub Copilot is generally available to all developers|website=The GitHub Blog|date=2022-06-21|access-date=2022-06-23}}</ref>. | 21 июня появилось официальное объявление о выходе ''Copilot'' из предварительного тестирования и доступности его для всех желающих по подписочной системе<ref>{{Cite web|lang=en|url=https://github.blog/2022-06-21-github-copilot-is-generally-available-to-all-developers/|title=GitHub Copilot is generally available to all developers|website=The GitHub Blog|date=2022-06-21|access-date=2022-06-23}}</ref>. | ||
== Принятие == | |||
С момента выпуска ''Copilot'' начали возникать опасения по поводу его безопасности и образовательного воздействия, а также разногласия по поводу лицензирования создаваемого им кода<ref name="автоссылка3">{{Cite news | |||
|url=https://www.theverge.com/2021/7/7/22561180/github-copilot-legal-copyright-fair-use-public-code | |||
|title=GitHub's automatic coding tool rests on untested legal ground | |||
|date=7 July 2021 | |||
|accessdate=11 July 2021 | |||
|website=The Verge | |||
}}</ref><ref name="автоссылка4">{{Cite journal | |||
|author=Finnie-Ansley | |||
|first=James | |||
|date=14 February 2022 | |||
|title=The Robots Are Coming: Exploring the Implications of OpenAI Codex on Introductory Programming | |||
|url=https://doi.org/10.1145/3511861.3511863 | |||
|journal=Australasian Computing Education Conference|publisher=Association for Computing Machinery | |||
|pages=10–19 | |||
|doi=10.1145/3511861.3511863 | |||
|isbn=978-1-4503-9643-1 | |||
}}</ref>. | |||
=== Споры о лицензировании === | |||
Хотя большая часть кода, выводимого ''Copilot'', может быть классифицирована как {{Не переведено 3|преобразующая работа|4=Transformative use}}, в ''GitHub'' признают, что небольшая его часть скопирована дословно, что привело к опасениям относительно того факта, что полученный код недостаточно преобразован, чтобы его можно было классифицировать как [[добросовестное использование]], и мог нарушать авторские права первоначального владельца<ref name="Verge legal" />. Данный факт оставляет ''Copilot'' на непроверенном правовом основании, хотя ''GitHub'' заявляет, что «обучение моделей машинного обучения на общедоступных данных считается добросовестным использованием в сообществе машинного обучения»<ref name="автоссылка3" />. | |||
==== Официальные документы FSF ==== | |||
28 июля 2021 года [[Фонд свободного программного обеспечения]] (''FSF'') опубликовал финансируемый призыв к созданию официальных [[Белая книга|документов]] по философским и юридическим вопросам, связанным с ''Copilot''<ref name="FSFCall">{{Cite web|url=https://www.fsf.org/blogs/licensing/fsf-funded-call-for-white-papers-on-philosophical-and-legal-questions-around-copilot|title=FSF-funded call for white papers on philosophical and legal questions around Copilot|date=28 July 2021|publisher=Free Software Foundation|access-date=11 August 2021}}</ref>. Дональд Робертсон, менеджер по лицензированию и соблюдению требований ''FSF'', заявил, что «''Copilot'' поднимает много […] вопросов, которые требуют более глубокого изучения»<ref name="FSFCall" />. 24 февраля 2022 года в FSF объявили, что ими было получено 22 статьи по данному вопросу, и с помощью процесса анонимного обзора были выбраны для выделения 5 из них<ref>{{Cite web|lang=en|url=https://www.fsf.org/news/publication-of-the-fsf-funded-white-papers-on-questions-around-copilot|title=Publication of the FSF-funded white papers on questions around Copilot|date=2022-02-24|publisher=Free Software Foundation}}</ref>. | |||
=== Вопросы безопасности === | |||
В документе, принятом к публикации на симпозиуме [[Институт инженеров электротехники и электроники|Института инженеров электротехники и электроники]] по безопасности и конфиденциальности в 2022 году, оценивалась безопасность кода, сгенерированного Copilot, для 25 основных уязвимостей кода ''[[MITRE]]'' (например, межсайтовый скриптинг, обход пути) в 89 различных сценариях и 1 689 программах<ref name=":4">{{Статья|ссылка=http://arxiv.org/abs/2108.09293|автор=Хаммонд Пирс, Бали Ахмад, Бенджамин Тан, Брендан Долан-Гавитт, Рамеш Карри|заглавие=Asleep at the Keyboard? Assessing the Security of GitHub Copilot's Code Contributions|год=2021|язык=en|издание=arXiv:2108.09293 [cs]}}</ref>. Это было сделано по осям разнообразия слабых мест (способности реагировать на сценарии, которые могут привести к различным уязвимостям кода), разнообразия подсказок (способности реагировать на одну и ту же уязвимость кода с небольшими вариациями) и разнообразия доменов (возможности генерировать аппаратные спецификации [[Уровень регистровых передач|уровня передачи регистров]] в [[Verilog]])<ref name=":4" />. Исследование показало, что на разных языках по данным осям 39,33 % наилучших из предложений и 40,73 % от общего числа предложений приводят к созданию уязвимостей в коде. Кроме того, было обнаружено, что небольшие несемантические (вроде комментариев) изменения, внесённые в код, могут повлиять на его безопасность<ref name=":4" />. | |||
=== Вопросы образования === | |||
В документе, опубликованном в феврале 2022 года [[Ассоциация вычислительной техники|Ассоциацией вычислительной техники]], оценивается влияние ''Codex'', технологии, используемой ''Github Copilot'', на обучение начинающих программистов<ref name="автоссылка4" />. В исследовании используются оценочные вопросы из вводного класса по программированию в [[Оклендский университет|Оклендском университете,]] и сравниваются ответы ''Codex'' с успеваемостью студентов<ref name=":1" />. Исследователи обнаружили, что ''Codex'' в среднем показал результаты лучше, в сравнении с большинством учащихся; однако его производительность снизилась на вопросах с ограничением возможностей, которые можно использовать в решении (например, [[Ветвление (программирование)|условные операторы]], [[Коллекция (программирование)|коллекции]] и [[Цикл (программирование)|циклы]])<ref name=":1" />. Учитывая данную проблему, «только 2 из 10 решений [''Codex''] были верны, но оба […] нарушили установленные ограничения». В документе делается вывод о том, что ''Codex'' может быть полезен для предоставления учащимся разнообразных решений, но также может привести к чрезмерной уверенности и плагиату<ref name=":1" />. | |||
== См. также == | == См. также == | ||
Версия от 18:36, 12 июля 2022
Это заготовка статьи. |
GitHub Copilot — инструмент с использованием искусственного интеллекта, совместно разработанный GitHub и OpenAI для помощи пользователям таких интегрированных сред разработки как Visual Studio Code, Visual Studio, Neovim и JetBrains в автодополнении кода[1]. Инструмент был впервые анонсирован 29 июня 2021 года и до 21 июня 2022 был доступен только в виде предварительной версии. Лучше всего он подходит для пользователей, создающих код на Python, JavaScript, TypeScript, Ruby и Go[2][3].
История
29 июня 2021 года GitHub анонсировал GitHub Copilot в качестве расширения в предварительной версии для Visual Studio Code[4][5].
26 октября 2021 года данный инструмент был выпущен в виде плагина в JetBrains Marketplace[6].
27 октября 2021 года GitHub выпустил плагин GitHub Copilot для Neovim в качестве общедоступного репозитория[7].
29 марта 2022 года было официально объявлено о доступности Copilot для Visual Studio 2022[8].
21 июня появилось официальное объявление о выходе Copilot из предварительного тестирования и доступности его для всех желающих по подписочной системе[9].
Принятие
С момента выпуска Copilot начали возникать опасения по поводу его безопасности и образовательного воздействия, а также разногласия по поводу лицензирования создаваемого им кода[10][11].
Споры о лицензировании
Хотя большая часть кода, выводимого Copilot, может быть классифицирована как Шаблон:Не переведено 3, в GitHub признают, что небольшая его часть скопирована дословно, что привело к опасениям относительно того факта, что полученный код недостаточно преобразован, чтобы его можно было классифицировать как добросовестное использование, и мог нарушать авторские права первоначального владельца[2]. Данный факт оставляет Copilot на непроверенном правовом основании, хотя GitHub заявляет, что «обучение моделей машинного обучения на общедоступных данных считается добросовестным использованием в сообществе машинного обучения»[10].
Официальные документы FSF
28 июля 2021 года Фонд свободного программного обеспечения (FSF) опубликовал финансируемый призыв к созданию официальных документов по философским и юридическим вопросам, связанным с Copilot[12]. Дональд Робертсон, менеджер по лицензированию и соблюдению требований FSF, заявил, что «Copilot поднимает много […] вопросов, которые требуют более глубокого изучения»[12]. 24 февраля 2022 года в FSF объявили, что ими было получено 22 статьи по данному вопросу, и с помощью процесса анонимного обзора были выбраны для выделения 5 из них[13].
Вопросы безопасности
В документе, принятом к публикации на симпозиуме Института инженеров электротехники и электроники по безопасности и конфиденциальности в 2022 году, оценивалась безопасность кода, сгенерированного Copilot, для 25 основных уязвимостей кода MITRE (например, межсайтовый скриптинг, обход пути) в 89 различных сценариях и 1 689 программах[14]. Это было сделано по осям разнообразия слабых мест (способности реагировать на сценарии, которые могут привести к различным уязвимостям кода), разнообразия подсказок (способности реагировать на одну и ту же уязвимость кода с небольшими вариациями) и разнообразия доменов (возможности генерировать аппаратные спецификации уровня передачи регистров в Verilog)[14]. Исследование показало, что на разных языках по данным осям 39,33 % наилучших из предложений и 40,73 % от общего числа предложений приводят к созданию уязвимостей в коде. Кроме того, было обнаружено, что небольшие несемантические (вроде комментариев) изменения, внесённые в код, могут повлиять на его безопасность[14].
Вопросы образования
В документе, опубликованном в феврале 2022 года Ассоциацией вычислительной техники, оценивается влияние Codex, технологии, используемой Github Copilot, на обучение начинающих программистов[11]. В исследовании используются оценочные вопросы из вводного класса по программированию в Оклендском университете, и сравниваются ответы Codex с успеваемостью студентов[15]. Исследователи обнаружили, что Codex в среднем показал результаты лучше, в сравнении с большинством учащихся; однако его производительность снизилась на вопросах с ограничением возможностей, которые можно использовать в решении (например, условные операторы, коллекции и циклы)[15]. Учитывая данную проблему, «только 2 из 10 решений [Codex] были верны, но оба […] нарушили установленные ограничения». В документе делается вывод о том, что Codex может быть полезен для предоставления учащимся разнообразных решений, но также может привести к чрезмерной уверенности и плагиату[15].
См. также
Примечания
- ↑ Гершгорн, Дэйв. GitHub and OpenAI launch a new AI tool that generates its own code (англ.). The Verge (29 июня 2021). Дата обращения: 13 июня 2022.
- ↑ 2,0 2,1 Гершгорн, Дэйв. GitHub's automatic coding tool rests on untested legal ground (англ.). The Verge (7 июля 2021). Дата обращения: 13 июня 2022.
- ↑ GitHub Copilot · Your AI pair programmer (англ.). GitHub Copilot. Дата обращения: 13 июня 2022.
- ↑ Gershgorn. GitHub and OpenAI launch a new AI tool that generates its own code. The Verge (29 июня 2021). Дата обращения: 6 июля 2021.
- ↑ Introducing GitHub Copilot: your AI pair programmer (англ.). The GitHub Blog (29 июня 2021). Дата обращения: 13 июня 2022.
- ↑ GitHub Copilot - IntelliJ IDEs Plugin | Marketplace (англ.). JetBrains Marketplace. Дата обращения: 7 апреля 2022.
- ↑ Neovim plugin for GitHub Copilot (англ.). GitHub (27 октября 2021).
- ↑ GitHub Copilot now available for Visual Studio 2022 (амер. англ.). The GitHub Blog (29 марта 2022). Дата обращения: 7 апреля 2022.
- ↑ GitHub Copilot is generally available to all developers (англ.). The GitHub Blog (21 июня 2022). Дата обращения: 23 июня 2022.
- ↑ 10,0 10,1 GitHub's automatic coding tool rests on untested legal ground. The Verge (7 июля 2021). Дата обращения: 11 июля 2021.
- ↑ 11,0 11,1 Шаблон:Cite journal
- ↑ 12,0 12,1 FSF-funded call for white papers on philosophical and legal questions around Copilot. Free Software Foundation (28 июля 2021). Дата обращения: 11 августа 2021.
- ↑ Publication of the FSF-funded white papers on questions around Copilot (англ.). Free Software Foundation (24 февраля 2022).
- ↑ 14,0 14,1 14,2 Хаммонд Пирс, Бали Ахмад, Бенджамин Тан, Брендан Долан-Гавитт, Рамеш Карри. Asleep at the Keyboard? Assessing the Security of GitHub Copilot's Code Contributions (англ.) // arXiv:2108.09293 [cs]. — 2021.
- ↑ 15,0 15,1 15,2 Ошибка цитирования Неверный тег
<ref>; для сносок:1не указан текст