Исследователи из Университета Microsoft и Carnegie Mellon недавно опубликовали исследование, посвященное тому, как использование генеративного ИИ на работе влияет на навыки критического мышления.
«Неправильно используемые технологии могут и действительно приводят к ухудшению когнитивных способностей, которые должны быть сохранены», — говорится в документе.
Когда люди полагаются на генеративный ИИ на работе, их усилия смещаются перед проверкой того, что ответ ИИ достаточно хорош для использования, вместо того, чтобы использовать навыки критического мышления более высокого порядка, такие как создание, оценка и анализ информации. По словам документа, если люди вмешиваются только тогда, когда ответы искусственного интеллекта недостаточны, то работники лишены «обычных возможностей практиковать свое суждение и укреплять их когнитивную мускулатуру, оставляя их атрофированными и неподготовленными, когда возникают исключения».
Другими словами, когда мы слишком сильно полагаемся на ИИ, чтобы думать за нас, мы сами ухудшаем проблемы, когда ИИ терпит неудачу.
В этом исследовании 319 человек, которые сообщили об использовании генеративного ИИ, по крайней мере, один раз в неделю на работе респондентам было предложено поделиться тремя примерами того, как они используют генеративный ИИ на работе, которые подпадают под три основные категории: создание (написание формульного электронного письма на коллега, например); информация (исследование темы или суммирование длинной статьи); и советы (прося руководства или изготовление диаграммы из существующих данных). Затем их спросили, практикуют ли они навыки критического мышления при выполнении задачи, и если использование генеративного искусственного интеллекта заставляет их приложить более или менее усилия для критического мышления. Для каждой задачи, о которой упоминались респонденты, их также попросили поделиться, насколько они уверены в себе, в генеративном ИИ и в их способности оценивать результаты ИИ.
Около 36% участников сообщили, что они использовали навыки критического мышления, чтобы смягчить потенциальные негативные результаты от использования ИИ. Одна участника сказала, что она использовала CHATGPT, чтобы написать обзор производительности, но дважды проверила результат искусственного интеллекта, опасаясь, что она может случайно отправить что -то, что позволит ей приостановить. Другой респондент сообщил, что ему пришлось отредактировать электронные письма, сгенерированные AI, которые он отправит своему боссу-чья культура уделяет больше внимания иерархии и возрасту-чтобы он не совершал искусственную PAS. И во многих случаях участники проверяли сгенерированные AI ответы с помощью более общих веб-поисков из таких ресурсов, как YouTube и Wikipedia, возможно, победив цель использования ИИ в первую очередь.
Чтобы работники компенсировали недостатки генеративного ИИ, им необходимо понять, как случаются эти недостатки. Но не все участники были знакомы с пределами ИИ.
«Потенциальный поток повреждений от ответов Геная может мотивировать критическое мышление, но только если пользователь сознательно осознает такой вред», — говорится в статье.
Фактически, исследование показало, что участники, которые сообщили о уверенности в ИИ, использовали менее критические усилия по мышлению, чем те, кто сообщил, что имели уверенность в своих способностях.
В то время как исследователи выступают против того, чтобы говорить, что генеративные инструменты искусственного интеллекта делают вас тупицами, исследование показывает, что чрезмерная зависимость от генеративных инструментов ИИ может ослабить нашу способность к независимому решению проблем.