TechCrunch AI Glossary

Искусственный интеллект — это глубокий и запутанный мир. Ученые, которые работают в этой области, часто полагаются на жаргон и жаргоны, чтобы объяснить, над чем они работают. В результате нам часто приходится использовать эти технические термины в нашем освещении индустрии искусственного интеллекта. Вот почему мы думали, что было бы полезно собрать глоссарий с определениями некоторых из самых важных слов и фраз, которые мы используем в наших статьях.

Мы регулярно обновляем этот глоссарий, чтобы добавить новые записи, поскольку исследователи постоянно раскрывали новые методы, чтобы продвигать границу искусственного интеллекта, одновременно выявляя возникающие риски безопасности.

У вас есть агент

Агент ИИ относится к инструменту, который использует технологии ИИ для выполнения ряда задач от вашего имени — помимо того, что мог бы сделать более простой чат -бот, например, подачу расходов, бронирование билетов или стол в ресторане или даже написание и поддержание кода. Однако, как мы объясняли ранее, в этом возникающем пространстве есть много движущихся частей, поэтому разные люди могут означать разные вещи, когда они ссылаются на агента искусственного интеллекта. Инфраструктура также по -прежнему создается для предоставления предполагаемых возможностей. Но основная концепция подразумевает автономную систему, которая может опираться на несколько систем ИИ для выполнения многоэтапных задач.

Цепь мысли

Учитывая простой вопрос, человеческий мозг может ответить, даже не задумываясь об этом — такие вещи, как «какое животное выше между жирафом и кошкой?» Но во многих случаях вам часто нужна ручка и бумага, чтобы придумать правильный ответ, потому что есть промежуточные шаги. Например, если у фермера есть цыплята и коров, и вместе у них есть 40 голов и 120 ног, вам, возможно, придется записать простое уравнение, чтобы придумать ответ (20 цыплят и 20 коров).

В контексте искусственного интеллекта рассуждения о цепочке для крупных языковых моделей означает разбивание проблемы на более мелкие, промежуточные шаги для улучшения качества конечного результата. Обычно для получения ответа требуется больше времени, но ответ, скорее всего, будет правильным, особенно в логике или контексте кодирования. Так называемые модели рассуждений разработаны из традиционных крупных языковых моделей и оптимизированы для мышления цепочки мыслей благодаря обучению подкреплению.

(См.: Модель большого языка)

Глубокое обучение

Подмножество самосовершенствоваемого машинного обучения, в котором алгоритмы ИИ разработаны со структурой многослойной, искусственной нейронной сети (ANN). Это позволяет им создавать более сложные корреляции по сравнению с более простыми системами на основе машинного обучения, такими как линейные модели или деревья решений. Структура алгоритмов глубокого обучения черпает вдохновение из взаимосвязанных путей нейронов в человеческом мозге.

Глубокое обучение ИИ способны определить важные характеристики в самих данных, а не требуют, чтобы люди инженеров определяли эти функции. Структура также поддерживает алгоритмы, которые могут учиться на ошибках, и, посредством процесса повторения и корректировки, улучшать свои собственные результаты. Тем не менее, системы глубокого обучения требуют большого количества данных для получения хороших результатов (миллионы или более). Обычно для обучения глубокого обучения по сравнению с более простыми алгоритмами машинного обучения требуется больше времени — поэтому затраты на разработку, как правило, выше.

(См.: Нейронная сеть)

Тонкая настройка

Это означает дальнейшую подготовку модели ИИ, которая предназначена для оптимизации производительности для более конкретной задачи или области, чем ранее была центром ее обучения-обычно путем подачи в новые, специализированные (т.е. ориентированные на задачу) данные.

Многие стартапы искусственного интеллекта принимают большие языковые модели в качестве отправной точки для создания коммерческого продукта, но они борются за утилиту усилителя для целевого сектора или задачи, дополняя более ранние учебные циклы с точной настройкой, основанной на их собственных знаниях и опыте, специфичных для домена.

(См.: Модель большого языка (LLM))

Большая языковая модель (LLM)

Большие языковые модели, или LLMS, являются моделями ИИ, используемыми популярными помощниками ИИ, такими как CHATGPT, CLAUDE, Google Gemini, Meta’s AI Llama, Microsoft Copilot или Le Chat. Когда вы общаетесь с помощником искусственного интеллекта, вы взаимодействуете с большой языковой моделью, которая обрабатывает ваш запрос напрямую или с помощью различных доступных инструментов, таких как веб -просмотр или переводчики кода.

Помощники ИИ и LLM могут иметь разные имена. Например, GPT является большой языковой моделью Openai, а CHATGPT является помощником искусственного интеллекта.

LLM — это глубокие нейронные сети, изготовленные из миллиардов численных параметров (или веса, см. Ниже), которые изучают отношения между словами и фразами и создают представление языка, своего рода многомерную карту слов.

Они созданы из кодирования моделей, которые они находят в миллиардах книг, статей и стенограмм. Когда вы предпринимаете LLM, модель генерирует наиболее вероятный шаблон, который подходит для подсказки. Затем он оценивает наиболее вероятное следующее слово после последнего, основанного на том, что было сказано ранее. Повторите, повторите и повторите.

(См.: Нейронная сеть)

Нейронная сеть

Нейронная сеть относится к многослойной алгоритмической структуре, которая лежит в основе глубокого обучения-и, в более широком смысле, весь бум в генеративных инструментах ИИ после появления крупных языковых моделей.

Несмотря на то, что идея черпать вдохновение в плотно взаимосвязанных путях человеческого мозга в качестве структуры дизайна для алгоритмов обработки данных датируется вплоть до 1940 -х годов, это был гораздо более поздний рост оборудования для графической обработки (графические процессоры) — через индустрию видеоигр — который действительно разблокировал силу теории. Эти чипы оказались хорошо подходящими для алгоритмов обучения с гораздо большим количеством слоев, чем это было возможно в более ранние эпохи-позволяя системам искусственного интеллекта на основе нейронных сети достичь гораздо лучшей производительности во многих областях, будь то для распознавания голоса, автономной навигации или обнаружения лекарств.

(См.: Модель большого языка (LLM))

Вес

Веса являются основными для обучения ИИ, поскольку они определяют, сколько важности (или веса) придается различным функциям (или входным переменным) в данных, используемых для обучения системы — тем самым формируя выход модели ИИ.

Иными словами, веса — это числовые параметры, которые определяют, что наиболее заметно в наборе данных для заданной учебной задачи. Они достигают своей функции, применяя умножение к входам. Обучение модели обычно начинается с веса, которые распределяются случайным образом, но по мере разворачивания процесс веса корректируются, поскольку модель стремится достичь вывода, который более близко соответствует цели.

Например, модель искусственного интеллекта для прогнозирования цен на жилье, которая обучена историческим данным о недвижимости для целевого местоположения, может включать веса для таких функций, как количество спален и ванных комнат, независимо от того, отсоединяется ли недвижимость, полуоткрыта, если у нее есть или нет парковки, гараж и так далее.

В конечном счете, веса, которые модель прикрепляет к каждому из этих входов, является отражением того, насколько сильно они влияют на значение свойства, на основе данного набора данных.