Некоторое время назад я посмотрел на ассистента Jetbrains AI на собственную конюшню IDES, но теперь мы можем работать в коде Visual Studio с помощью AI Assistant JetBrains в качестве расширения. Как я уже отмечал, у меня были некоторые трудности переключения между расширениями кода с большой языковой модели (LLM) в коде VS, поэтому я буду тщательно наступить при установке этого публичного предварительного просмотра.
Jetbrains уважается за свою работу над IntelliJ, поэтому я не совсем уверен, почему компания написала расширение VS -кода для своего помощника ИИ, что было относительно поздно для партии LLM. Причина приведена «для того, чтобы охватить более широкое сообщество разработчиков и продемонстрировать нашу приверженность помощи ИИ-агентству Иде», но в любом случае я был счастлив провести ее через свои шаги.
В этом посте я подробно расскажу об этом помощнике по искусственному интеллекту, но если вы хотите только подключить и играть, то просто прочитайте биты, которые контрастируют с тем, что делает Jetbrains по сравнению со стандартным помощником. К настоящему времени я ожидаю, что большинство разработчиков будут знакомы с использованием LLMS во время кодирования.
Прежде всего, я хочу остановить Copilot в VS -коде, который является LLM, который по умолчанию населяет код против кода. После установки помощника AI JetBrains вы можете увидеть, как оба их значка находятся на нижней ленте.
Оба кажутся «готовыми», хотя я еще не вошел в Jetbrains. Тем не менее, я могу отключить Copilot из представления расширений. Значок копила все еще присутствует, но с крестом через него.
Теперь вы можете войти в свою учетную запись JetBrains (у меня была лицензия, оставленная от предыдущего обзора). Вы прибудете к умному маленькому объяснению их услуг LLM:
Рядом с днем находится маленький чат и контекст:
Как и Github Copilot, в раскрывающемся списке есть варианты для чата, многопрофильного редактирования и агента. Каждый из них принимает большее потребление квот нового золота: токенов. Обратите внимание, что GPT-4O это модель по умолчанию. Выпадающий список модели включает в себя других обычных подозреваемых.
В этом посте я сосредоточусь на действиях, которые LLM может предпринять в IDE (то есть не оставлять интерфейс для чат -бота). Первый — это завершение кода:
Это остается основным продуктом LLM. Вы должны тренировать свою мышечную память, чтобы запомнить вкладку, в противном случае предложения исчезнут, если вы напечатаете над ними. Это поведение по умолчанию для завершения кода. Поскольку я работал с кодом сервера протокола контекста модели (MCP) в предыдущем сообщении, у меня все еще есть этот код в вкладке «Открыть». В качестве примера предложения, ниже нашего существующего кода я набрал подпись класса, а буквы «он» и завершение сделали все остальное после курсора:
Это типичный кусочек «Текстового спора». То, что он сделал, было эффективно создать шаблон для минимального инструмента MCP Server, который является контекстом, который он читает из файла. (В какой -то момент ИИ бросил несколько внутренних ошибок, которые он не объяснил, но это не имело внешнего эффекта. Помните, это всего лишь публичный предварительный просмотр.)
Затем у нас есть объяснение кода, которое является быстрым способом справиться с незнакомым кодовой базой:
Опять же, это стандарт для любого помощника кода LLM. Дерепость два меню — это подходящее для этого варианта, потому что это не требуется очень часто для фрагмента кода:
Применяемый к нашему существующему инструменту MCP в прошлый раз, он производит большой словес, объясняющий все подробно. Но важной частью является резюме:
«Таким образом, в обобщении, этот класс будет использоваться в качестве инструмента на сервере MCP, и когда он будет вызван, он всегда будет возвращать слово« абракадабра »».
Это очень полезно, так как понимает как контекст кода (в данном случае, это для MCP), так и то, что он делает (просто верните статическую строку). Вот где истинное значение; Я бы порекомендовал, чтобы это было возвращено в предпочтение подробным материалам, который в основном излишне.
После того, как словеса, созданная из объяснения этого, вряд ли удивительно, что документация может быть легко создана. Это сделано как правильно размещенный комментарий к нашему первоначальному фрагменту:
///
/// <Замечание> /// Этот инструмент предоставляет метод для выявления предопределенного секретного слова при вызове. /// Он может быть расширен или использован как часть функциональности инструмента McPerver. /// замечания>
[McpServerToolType]
Public Static Class SecretWordTool {
[McpServerTool, Description(«Reveal the secret word.»)]
Public Static String Secretword (String Message) => «Abracadabra»; } 123456789101112 ///
/// <Замечание> /// Этот инструмент предоставляет метод для выявления предопределенного секретного слова при вызове. /// Он может быть расширен или использован как часть функциональности инструмента McPerver. /// замечания> [McpServerToolType] Public Static Class SecretWordTool { [McpServerTool, Description(«Reveal the secret word.»)] Public Static String Secretword (String Message) => «Abracadabra»; }
Это довольно тривиально, но мне нравится тот факт, что он понимает, как комментарий отличается от необработанного объяснения — не притворяется, что слово «абракадбра» является частью дизайна. С другой стороны, семантическая интерпретация — это именно то, что LLM делают хорошо.
Следующее действие менее простое:
В то время как я не использую код VS для управления элементом управления источником, все мои примеры файлов находятся в репозитории GIT.
Я открыл управление источником и получил вкладку, чтобы подтвердить, что я ничего не проверил в последнее время. Тем не менее, Spiral икона Jetbrains действительно присутствует:
К сожалению, у меня не было установленных файлов, и созданное оно сообщение (об обработке ошибок) было бессмысленным, поскольку я понятия не имею, на что оно ссылалось. В GIT код должен быть установлен (обычно с добавлять команда) до того, как это будет совершено. JetBrains должен ввести в это немного больше работы.
Это оставляет LLM в стиле чата, который не нуждается в интерфейсе кода VS, и, следовательно, в изучении этого есть мало. Я бы порекомендовал использовать что -то вроде Claude Code, если вам не нужно открыть IDE в первую очередь. Даже многофильдные изменения не получают выгоды от присутствия IDE.
Заключение
Как я уже указывал, я не совсем знаю, чего достигает Jetbrains с этим расширением, кроме того, что пользовательские токены с помощью сервисов бэкэнд. Это не Jetbrians IDE, и они не утверждают, что делают LLMS. Возможно, рынок «IDE-оживленная помощь AI»-это больше, чем просто маркетинг.
Тем не менее, Jetbrains на самом деле не создал убедительного опыта пользовательского интерфейса здесь. Тем не менее, я думаю, что многие разработчики .NET будут рады доверять бренду Jetbrains, и, возможно, эта опора предшествует еще более интересным предложениям в будущем.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Дэвид был лондонским профессиональным разработчиком программного обеспечения в Oracle Corp. и British Telecom, а также консультантом, помогающим командам работать более гибким образом. Он написал книгу по дизайну пользовательского интерфейса и с тех пор пишет технические статьи …. Подробнее от Дэвида Истмана