Главный научный сотрудник Объятия Фейса беспокоится, что ИИ становится «да-милы на серверах»

Основатели компании ИИ имеют репутацию смелых заявлений о потенциале технологии для изменения областей, особенно наук. Но Томас Вольф, соучредитель и главный директор по науке обнимающего лица, имеет более измеренный дубль.

В эссе, опубликованном в X в четверг, Вольф сказал, что он опасался, что ИИ стал «да-людей на серверах», отсутствующий прорыв в исследованиях искусственного интеллекта. Он уточнил, что нынешние парадигмы развития искусственного интеллекта не дадут искусственного искусства, способного к внешнему творческому решению проблем-такого рода решения проблем, которая выигрывает Нобелевские призы.

«Основная ошибка, которую обычно совершают люди, — это думает [people like] Ньютон или Эйнштейн были только что увеличены хорошими учениками, что гений оживает, когда вы линейно экстраполируете студента топ-10% »,-написал Вольф. «Чтобы создать Einstein в центре обработки данных, нам нужна не просто система, которая знает все ответы, а скорее тот, который может задать вопросы, о которых никто другой не думал или осмелился задать».

Утверждения Вольфа в отличие от утверждений генерального директора Openai Сэма Альтмана, который в эссе ранее в этом году заявил, что «Superintelligent AI может« массово ускорить научное открытие ». Точно так же генеральный директор Anpropic Дарио Амодеей предсказал, что ИИ может помочь сформулировать лекарства от большинства видов рака.

Проблема Вольфа с ИИ сегодня — и куда он думает, что технология движется — заключается в том, что она не генерирует никаких новых знаний, подключая ранее не связанные факты. По словам Вольфа, даже с большей частью Интернета в его распоряжении, ИИ, поскольку мы в настоящее время понимаем, что он в основном заполняет пробелы между тем, что люди уже знают.

Некоторые эксперты по искусственному искусству, в том числе бывший инженер Google Francois Chollet, выразили схожие взгляды, утверждая, что, хотя ИИ может быть способен запомнить модели рассуждений, маловероятно, что он может генерировать «новые рассуждения» на основе новых ситуаций.

Вольф считает, что лаборатории ИИ строят то, что по сути, «очень послушные студенты», а не научные революционеры в любом смысле фразы. AI Today не заинтересован в том, чтобы подвергать сомнению и предлагать идеи, которые потенциально могут противостоять его учебным данным, сказал он, ограничивая их ответом на известные вопросы.

«Чтобы создать Einstein в центре обработки данных, нам нужна не просто система, которая знает все ответы, а скорее тот, который может задавать вопросы, о которых никто другой не думал или осмелился задать», — сказал Вольф. «Тот, который пишет:« Что если все не так? » Когда все учебники, эксперты и общие знания предполагают иное ».

Волк считает, что «оценка кризиса» в ИИ частично виноват в этом разочаровании положения дел. Он указывает на контрольные показатели, обычно используемые для измерения улучшений системы ИИ, большинство из которых состоят из вопросов, которые имеют четкие, очевидные и «близкие» ответы.

В качестве решения Wolf предлагает, чтобы индустрия искусственного интеллекта «перешла к меру знаний и рассуждений», которые способны выяснить, может ли ИИ использовать «смелые контрфактуальные подходы», делая общие предложения, основанные на «крошечных намеках» и задавать «невидимые вопросы», которые приводят к «новым исследованиям».

Хитрость будет выяснить, как выглядит эта мера, признает Вольф. Но он думает, что это может стоить усилий.

«[T]он самый важный аспект науки [is] Навык задать правильные вопросы и оспаривать даже то, что научился », — сказал Вольф. «Нам не нужен А+ [AI] студент, который может ответить на каждый вопрос с общими знаниями. Нам нужен студент B, который видит и спрашивает то, что упустили все остальные ».