Нет сомнений в том, что ИИ есть повсюду, с новыми случаями использования, появляющимися почти ежедневно, но бесконечный гул скрывает гораздо более сложную реальность. Мы вступаем в парадокс ИИ: хотя волнение для этих новых технологий никогда не было выше, крупные языковые модели (LLMS) достигают своих пределов и наблюдают только незначительные улучшения. Это вызвало дебаты среди инсайдеров искусственного интеллекта о том, являются ли эти инструменты «ударить в стену» или что такие проблемы раздуваются. Ясно, что на данном этапе просто обучение LLM с большим количеством данных больше не приведет к улучшению прорыва.
Итак, Ай зима на нас?
Пока не совсем. Вместо этого мы вступаем в AI осень, сезон изменений, который будет вводить новую главу для этих невероятных технологий. Хотя вероятность экспоненциальных улучшений в отношении AGI (искусственный общий интеллект) становится все более маловероятной с LLMS (нам понадобится новая парадигма для AGI), я считаю, что модели гипер-острой будут определять следующую эру инноваций искусственного интеллекта. На этом этапе путешествия ИИ компании превратят LLM общего назначения в тонко оптимизированные модели ИИ, адаптированные для вертикальных вариантов использования и приложений.
Давайте посмотрим, как мы добрались до осени ИИ и что впереди.
Понимание замедления в улучшении LLM
Производительность LLMS была замечательной, и мы были свидетелем одного из самых значительных технологических прорывов в истории за последние несколько лет. Тем не менее, существуют внутренние и практические ограничения, которые становятся все более очевидными по мере взросления поля:
Масштабирование и случай уменьшения доходности
В то время как законы масштабирования (более крупные модели и больше данных приводят к лучшей производительности) на какое -то время оставались верными, возврат уменьшается по мере того, как модели стали больше. Улучшения стали незначительными по сравнению с огромным увеличением потребностей в вычислительных и данных (стоимости), необходимых для обучения этих моделей.
Больше данных не означает лучшего искусственного интеллекта
Современные LLM уже обучаются на обширных наборах данных, охватывающих многие общедоступные и высококачественные данные. В масштабах сегодняшних лучших LLMS добавление большего количества данных не обязательно означает добавление новых или ценных знаний — оно может просто повторить или усилить то, что модель уже знает.
Качество имеет значение
Поскольку лучшие источники данных исчерпаны, новые наборы данных имеют тенденцию включать более качественные или более шумные данные. Это может снизить производительность модели или привести к переоснащению, когда модель, столь близкая, отражает исходные учебные данные, что не включает новые источники информации и извергает неточные ответы.
Кроме того, по мере того, как LLMS взлетел, все больше компаний начали использовать их для создания онлайн -контента, что означает, что новый интернет -контент теперь частично или полностью генерируется ИИ. Таким образом, обучение искусственного интеллекта по сгенерированному искусственным технологиям контента не дает лучших результатов и может усугубить модели, в конечном итоге приводит к обрушению модели.
Случай для моделей с гипер-острой
В то время как LLM общего назначения являются отличными отправными точками, им, как правило, не хватает глубокого опыта, чтобы помочь в определенных областях. Во многих отношениях это похоже на случай с человеческим опытом: человек не может стать экспертом в конкретной области, если у него нет формального образования, обучения и углубленного опыта.
Двигаясь вперед, я ожидаю, что специализированные LLMS будут все чаще полагаться на точную настройку и адаптацию моделей общего назначения общего назначения-и, в процессе, разрабатывают более специализированный опыт. Обучение курируемым высококачественным наборам данных из определенного домена позволяет этим моделям получать опыт без вычислительных накладных расходов на обучение с нуля.
Компании будут разрабатывать решения LLM, адаптированные для конкретных отраслей, включающих домен-релевантную терминологию, процессы и инструменты. Эти модели будут поставляться с оптимизированными пользовательскими интерфейсами и рабочими процессами — помимо распространенного интерфейса чата, с которым мы все знакомы сегодня.
Это также позволит компаниям создавать подлинное «ров» или конкурентное преимущество на рынке вокруг их продуктов искусственного интеллекта. Инкапсулируя свой собственный опыт и данные в высокоспециализированные модели, они будут опередить пакет и создавать модели, которые другие не могут легко воспроизвести.
А для доказательства? Смотрите не дальше появления DeepSeek — прекрасного примера меньшей, выскочительной модели, обученной конкретной целью. Вскоре мы увидим «DeepSeek-подобный» ИИ, созданный для вариантов вертикального использования, поскольку улучшение LLM замедляется, а специализированные модели доказывают их характер. Представьте себе, что используете AI, похожий на CHATGPT, но он был оптимизирован для очень специфической области, такой как дизайн UI/UX, архитектура, финансовое планирование, инфраструктура облачных вычислений и т. Д.
Ай осень сопровождает больше изменений в
Они говорят, что изменение является единственной постоянной, и это, безусловно, так и с ИИ. В последние годы мы стали свидетелями огромных событий, когда ИИ вошел в нашу повседневную жизнь и доминировал в цикле новостей. И все же каждый инструмент имеет свои пределы; Мы начинаем видеть, как они ясно проявляются с LLMS. Масштабирование этих моделей больше не может привести к тому же возвращению, что и раньше. Более того, поскольку многие уже были обучены большинству высококачественных наборов данных, обучение LLMS по данным с низким качеством или с помощью AI даст более худшие модели и будет чрезмерно дорого.
Но это не значит, что это начало конца. Напротив, ИИ осень даст новые захватывающие возможности для определения приоритетов гиперспециализации над обобщением. Мы переходим в новую эру экспертных моделей ИИ, и компании, которые используют этот импульс, увидят огромные выгоды — и быстро.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Тони является главой продукта для ИИ в Миро. Ранее Тони был соучредителем и генеральным директором Uizard, первого мирового инструмента дизайна продукта с AI, который был приобретен Миро в начале 2024 года.