Эксперты не думают, что ИИ готов быть «ко-научным»

В прошлом месяце Google объявил о «AI Co-Seceedist», AI, который, по словам компании, был разработан для помощи ученым в создании гипотез и планов исследований. Google предпринял его как способ раскрыть новые знания, но эксперты думают, что это — и подобные инструменты — не хватает PR -обещаний.

«Этот предварительный инструмент, хотя и интересный, вряд ли будет серьезно использован», — сказала TechCrunch, вряд ли будет серьезно использован », — сказала Сара Бери, исследователь компьютерного зрения в MIT. «Я не уверен, что существует спрос на систему генерации гипотез от научного сообщества».

Google является последним техническим гигантом, который продвигает представление о том, что ИИ когда-нибудь значительно ускорит научные исследования, особенно в литературных областях, таких как биомедицина. В эссе в начале этого года генеральный директор Openai Сэм Альтман сказал, что «суперинтелтингантные» инструменты ИИ могут «массово ускорить научные открытия и инновации». Точно так же генеральный директор Anpropic Дарио Амодеей смело предсказал, что ИИ может помочь сформулировать лекарства для большинства раковых заболеваний.

Но многие исследователи не считают ИИ сегодня особенно полезным для руководства научным процессом. По их словам, такие приложения, как Co-So-Sceantist, представляют собой более шумиху, чем все, чем что-либо, не поддерживаемые эмпирическими данными.

Например, в своем сообщении в блоге, описывающем AI-ученый, Google сказал, что этот инструмент уже продемонстрировал потенциал в таких областях, как перепрофилирование лекарств для острого миелоидного лейкоза, тип рака крови, который влияет на костный мозг. Тем не менее [them] Серьезно »,-сказала Фавия Дубик, патолог, связанный с Северо-Западным медицинским центром Туксона в Аризоне.

«Это можно использовать в качестве хорошей отправной точки для исследователей, но […] Отсутствие деталей вызывает беспокойство и не дает мне доверять », — сказал Дубик TechCrunch. «Отсутствие предоставленной информации затрудняет понимание того, может ли это быть действительно полезно».

Это не первый раз, когда Google подвергается критике со стороны научного сообщества за то, что он трубил предполагаемый прорыв в ИИ без предоставления средств для воспроизведения результатов.

В 2020 году Google утверждал, что одна из своих систем ИИ, обученных обнаружению опухолей молочной железы, достигли лучших результатов, чем рентгенологи человека. Исследователи из Гарварда и Стэнфорда опубликовали опровержение в журнале Nature, заявив, что отсутствие подробных методов и кода в исследовании Google «подорвать[d] его научная ценность ».

Ученые также упрекнули Google за то, что он замораживал ограничения своих инструментов искусственного интеллекта, предназначенных для научных дисциплин, таких как материаловая инженерия. В 2023 году компания заявила, что около 40 «новых материалов» были синтезированы с помощью одной из ее систем ИИ, называемой GNOME. Тем не менее, внешний анализ не обнаружил ни одного из материалов, на самом деле, чистым новым.

«Мы по-настоящему не поймем сильные стороны и ограничения таких инструментов, как Google« Соучительский », пока они не пройдут строгую, независимую оценку между различными научными дисциплинами»,-заявил Ashique Khudabukhsh, доцент кафедры разработки программного обеспечения в Рочестерском технологическом институте. «ИИ часто хорошо работает в контролируемых средах, но может терпеть неудачу при применении в масштабе».

Сложные процессы

Часть задачи в разработке инструментов ИИ для помощи в научном открытии предвидит невыразимое количество смешанных факторов. ИИ может пригодиться в областях, где необходимо широкое исследование, например, сокращение обширного списка возможностей. Но менее ясно, способен ли ИИ к тому, чтобы решить проблемы, приводящие к научным прорывам.

«На протяжении всей истории мы видели, что некоторые из наиболее важных научных достижений, таких как развитие вакцин против мРНК, были обусловлены человеческой интуицией и настойчивостью перед лицом скептицизма», — сказал Худабухш. «ИИ, как это существует сегодня, может быть не подходящим, чтобы повторить это».

Лана Синапайен, исследователь искусственного интеллекта в Laboratories Sony Commorting Science в Японии, считает, что такие инструменты, как Co-Sceentist, такие инструменты, как Google, сосредоточены на неправильном виде научных работ.

Sinapayen видит подлинную ценность в ИИ, которая может автоматизировать технически сложные или утомительные задачи, такие как суммирование новой академической литературы или форматирование работы, чтобы соответствовать требованиям заявки на грант. Но в научном сообществе мало требований для совместного научного наука ИИ, который генерирует гипотезы, говорит она,-задача, из которой многие исследователи получают интеллектуальное выполнение.

«Для многих ученых, в том числе и я, генерирование гипотез — самая забавная часть работы», — сказал Синапайен TechCrunch. «Зачем мне захотеть передавать свое развлечение на компьютер, а затем оставаться только тяжелой работой, чтобы сделать сам? В целом, многие генеративные исследователи ИИ, кажется, неправильно понимают, почему люди делают то, что они делают, и в итоге мы получаем предложения о продуктах, которые автоматизируют самую часть, от которой мы получаем радость ».

Beery отметил, что часто самым сложным шагом в научном процессе является разработка и реализация исследований и анализов для проверки или опровержения гипотезы, которая не обязательно в пределах досягаемости современных систем ИИ. ИИ, конечно, не может использовать физические инструменты для проведения экспериментов, и он часто работает хуже по проблемам, для которых существуют чрезвычайно ограниченные данные.

«Большинство науки невозможно сделать полностью практически — часто существует значительный компонент научного процесса, который является физическим, таким как сбор новых данных и проведение экспериментов в лаборатории», — сказал Бери. «Одно большое ограничение систем [like Google’s AI co-scientist] Относительно фактического научного процесса, который определенно ограничивает его удобство использования, является контекстом о лаборатории и исследователе, использующих систему и их конкретные цели исследования, их прошлую работу, их навыки и ресурсы, к которым они имеют доступ ».

ИИ риск

Технические недостатки ИИ и риски, такие как его тенденция к галлюцинации, также заставляют ученых опасаться одобрения его для серьезной работы.

Худабухш, страх, инструменты ИИ могут просто в конечном итоге создавать шум в научной литературе, не повышая прогресс.

Это уже проблема. Недавнее исследование показало, что «мусорная наука», основанная на AI, затопляет Google Scholar, бесплатную поисковую систему Google для научной литературы.

«Исследования, сгенерированные AI, если не тщательно контролироваться, могли бы затопить научную область более качественными или даже вводящими в заблуждение исследованиями, что подавляет процесс обзора»,-сказал Худабухш. «Забитый процесс рецензирования уже является проблемой в таких областях, как компьютерные науки, где на высших конференциях наблюдается экспоненциальный рост военнослужащих».

По словам Синапайена, даже хорошо продуманные исследования могли быть испорчены неправильно поведение ИИ. В то время как ей нравится идея инструмента, который может помочь с обзором литературы и синтеза, Синапайен сказала, что сегодня она не доверяет ИИ, чтобы выполнить эту работу надежно.

«Это вещи, которые, как утверждают различные существующие инструменты, это делают, но это не рабочие места, которые я лично оставляю в текущем ИИ», — сказала Синапайен, добавив, что она не согласен с тем, как обучаются многие системы ИИ, а также количество энергии, которую они потребляют. «Даже если все этические проблемы […] были решены, текущий ИИ просто недостаточно надежен, чтобы я мог бы так или иначе основывать свою работу на их результатах ».