X Пользователи, относящиеся к Гроку как к проверке факторов, озабоченность за дезинформацию

Некоторые пользователи на X Elon Musk обращаются к Musk’s AI Bot Grok для проверки фактов, что выражает опасения среди человеческих проверяющих фактов, что это может способствовать дезинформации.

Ранее в этом месяце X позволил пользователям позвонить Xai’s Grok и задать вопросы о разных вещах. Этот шаг был похож на недоумение, которая запускала автоматизированную учетную запись на X, чтобы предложить аналогичный опыт.

Вскоре после того, как XAI создал автоматизированную учетную запись Grok на X, пользователи начали экспериментировать с вопросами. Некоторые люди на рынках, включая Индию, начали просить Грока с комментариями и вопросами проверки фактов и вопросам, которые нацелены на конкретные политические убеждения.

Проверки фактов обеспокоены использованием Grok-или любого другого помощника искусственного интеллекта такого рода-таким образом, потому что боты могут создавать свои ответы на здравые убедительные, даже если они не являются правыми. Случаи распространения поддельных новостей и дезинформации были замечены с Гроком в прошлом.

В августе прошлого года пять государственных секретарей призвали Маск внедрить критические изменения в Грока после того, как вводящая в заблуждение информация, полученная помощником, появилась в социальных сетях перед выборами в сша.

Другие чат -боты, в том числе CHATGPT Openai и Google Gemini, также видели неточную информацию о выборах в прошлом году. Отдельно, исследователи дезинформации обнаружили в 2023 году, что ИИ чат -боты, включая ЧАТГПТ, можно легко использовать для создания убедительного текста с вводящими в заблуждение повествования.

«Помощники искусственного интеллекта, как и Грок, они действительно хороши в использовании естественного языка и дают ответ, который звучит как человек, сказанный. И таким образом, у продуктов ИИ есть это утверждение о естественности и подлинных ответах, даже когда они потенциально очень неправильны. Это было бы опасность здесь»,-сказала Театрана Энджи Холан.

Пользователь был попросил Грока, чтобы проверить факты по претензиям, представленным другим пользователем

В отличие от помощников искусственного интеллекта, человеческие проверки фактов используют несколько, достоверных источников для проверки информации. Они также получают полную ответственность за свои выводы, причем их имена и организации привязаны к обеспечению достоверности.

Пратик Синха, соучредитель некоммерческого веб-сайта по проверке фактов в Индии, сказал, что, хотя у Грока в настоящее время, похоже, есть убедительные ответы, он так же хорош, как и данные, которые он предоставляется.

«Кто собирается решить, с какими данными он предоставляется, и именно здесь вмешатся правительственное вмешательство и т. Д., — отметил он.

«Прозрачности нет. Все, у кого не хватает прозрачности, причинит вред, потому что все, что не хватает прозрачности, может быть формировано любым способом».

«Можно неправильно использовать — распространять дезинформацию»

В одном из ответов, опубликованных ранее на этой неделе, аккаунт Грока на X признал, что его «можно неправильно использовать — для распространения дезинформации и нарушения конфиденциальности».

Тем не менее, автоматизированная учетная запись не показывает никаких отказов от ответственности пользователям, когда они получают свои ответы, что заставляет их быть дезинформированными, если она, например, галлюцинировал ответ, который является потенциальным недостатком ИИ.

Ответ Грока о том, может ли он распространять дезинформацию (переведен с хингалиша)

«Это может составить информацию, чтобы дать ответ»,-сказал TechCrunch, научный сотрудник Anushka Jain, научный сотрудник Multidisciplinary Research Collective Digital Futures Lab.

Есть также некоторые вопросы о том, сколько Grok использует посты на X в качестве учебных данных, и какие меры контроля качества он использует для проверки фактов, таких постов. Прошлым летом он выпустил изменение, которое, по -видимому, позволило Гроку потреблять пользовательские данные x по умолчанию.

Другим в отношении областей AI Assistants, таких как Grok, доступными через платформы социальных сетей, является их предоставление информации на общественностью — в отличие от CHATGPT или других чат -ботов, используемых в частном порядке.

Даже если пользователь хорошо знает, что информация, которую он получает от помощника, может вводить в заблуждение или не совсем правильная, другие на платформе все еще могут в это поверить.

Это может нанести серьезный социальный вред. Примеры этого были замечены ранее в Индии, когда дезинформация распространялась над WhatsApp, привела к линчеваниям толпы. Тем не менее, эти тяжелые инциденты произошли до прибытия Геная, что сделало генерацию синтетического содержания еще проще и казалось более реалистичным.

«Если вы увидите многие из этих ответов Грока, вы скажете, эй, ну, большинство из них правы, и это может быть так, но есть некоторые, которые будут неправильными. И сколько? Это не небольшая часть. Некоторые из исследований исследований показали, что модели искусственного интеллекта подвергаются 20% -ным уровням ошибок… и когда это пойдет не так, это может пойти действительно не так с реальными последствиями мира», если Holan’s сказал Holan’s Holan.

ИИ против реальных проверок фактов

В то время как компании ИИ, включая XAI, совершенствуют свои модели ИИ, чтобы они общались больше как люди, они все еще не являются — и не могут — заменить людей.

В течение последних нескольких месяцев технологические компании изучают способы снизить зависимость от человеческих проверок фактов. Платформы, включая X и Meta, начали охватывать новую концепцию краудсорсинговой проверки фактов через так называемые заметки сообщества.

Естественно, такие изменения также вызывают обеспокоенность по проверке фактов.

Синха из Alt News оптимистически считает, что люди научатся дифференцировать машины и контролировщики человеческих фактов и больше ценит точность людей.

«Мы увидим, что маятник в конечном итоге возвращается к большей проверке фактов», — сказал Холан из Ifcn.

Тем не менее, она отметила, что в то же время проверки фактов, вероятно, будут иметь больше работы с использованием ИИ, сгенерированной информации, распространяющейся.

«Многое из этой проблемы зависит от того, действительно ли вы заботитесь о том, что на самом деле правда или нет? Вы просто ищете шпон чего -то, что звучит и чувствует себя правдой, не будучи правдой? Потому что именно это поможет вам помощь», — сказала она.

X и Xai не ответили на наш запрос на комментарий.