Cloudflare, служба доставки и безопасности контента, сегодня объявили о запуске CloudFlare для AI, нового набора инструментов безопасности, направленного на решение некоторых из самых насущных проблем безопасности, которые предприятия используют при использовании моделей и услуг ИИ.
К ним относятся инструменты для мониторинга того, как сотрудники используют эти инструменты, обнаружите, когда они используют несанкционированные услуги, и остановить утечку информации для этих моделей. Новая услуга также может обнаружить, когда в модель представлены неподходящие или токсичные подсказки.
Как объясняет CloudFlare в сегодняшнем объявлении, идея состоит в том, чтобы помочь предприятиям чувствовать себя более уверенно в рабочих нагрузках, которые они включают для своих сотрудников и пользователей.
«В течение следующего десятилетия стратегия ИИ организации определит ее судьбу-новаторы будут процветать, и те, кто сопротивляется, исчезнут. Постановка« двигаться быстро, сломать вещи », стала мантрой, поскольку организации гонятся за внедрением новых моделей и экспериментировали с ИИ для управления инновациями»,-сказал Мэтью Принс, соучредитель и генеральный директор CloudFlare. «Но часто существует недостающая связь между экспериментами и безопасностью. CloudFlare для ИИ позволяет клиентам двигаться так быстро, как они хотят в любом направлении, с необходимыми гарантиями, чтобы обеспечить быстрое развертывание и использование ИИ. Это единственный набор инструментов, которые решают наиболее неотложные проблемы клиентов, не ставя тормозные новейшие».
Общий набор состоит из ряда услуг. Например, есть брандмауэр для ИИ, который позволяет предприятиям обнаружить, какие сотрудники ИИ на самом деле используют. Вековая проблема тени, которую она сохраняется. Поскольку сотрудники стремятся использовать эти новые инструменты искусственного интеллекта, команды безопасности часто не понимают, что они делают. Теперь они получат отчеты о том, какие инструменты используются, и возможность блокировать их при необходимости.
Аналогичным образом, Gateway AI CloudFlare, который компания запустила еще в 2023 году, дает представление о моделях, используемых внутри компании, и о представленных подсказках, что, в свою очередь, означает, что брандмауэр может затем блокировать подсказки, которые могут выявить личную информацию и другие утечки данных от модели.
Немногие инструменты на рынке сегодня сосредоточены на прекращении токсичных подсказок. Чтобы обнаружить их, Cloudflare использует Llama Guard, инструмент Meta для защиты разговоров LLM. Это, по словам Cloudflare, поможет сохранить модели в соответствии с их предполагаемым использованием.
Конечно, CloudFlare не одинок в том, чтобы увидеть рынок этих инструментов. Например, есть предложения API от Kong и IBM, а также решения от F5 и DataBricks.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. До присоединения к новому стеку Фредерик был редактором Enterprise в TechCrunch, где он освещал все, от роста облака и самых ранних дней Kubernetes до появления квантовых вычислений. До этого он работал в ReadWriteWeb … Подробнее от Frederic Lardinois