
Исследование Microsoft и Университета Карнеги-Меллон подтверждает: чрезмерное доверие к ИИ снижает критическое мышление
Тревожные выводы исследования
Согласно совместному исследованию Microsoft и Университета Карнеги-Меллон, опубликованному 11 февраля 2025 года, чрезмерное использование генеративного ИИ на работе приводит к снижению навыков критического мышления и когнитивных способностей. В эксперименте участвовали 319 офисных сотрудников, которые регулярно применяли ИИ для рутинных задач: создания документов, анализа данных, поиска решений. Результаты показали, что чем больше люди доверяли алгоритмам, тем реже они проверяли их выводы и предлагали оригинальные идеи .
Ключевые наблюдения:
- Снижение критического анализа. Участники, полагающиеся на ИИ, реже оценивали качество его работы, особенно в простых задачах (например, составление электронных писем). Вместо глубокого анализа они ограничивались поверхностной проверкой, что лишало их возможности тренировать «когнитивную мускулатуру» .
- Однородность решений. Группы, использовавшие ИИ, предлагали менее разнообразные идеи по сравнению с теми, кто работал самостоятельно. Алгоритмы генерировали шаблонные ответы, ограниченные обучающими данными, что сужало креативность сотрудников .
- Риск долгосрочной деградации. Исследователи предупреждают: если новые поколения сотрудников будут расти в условиях полной автоматизации рутинных задач, их способность к самостоятельному решению проблем может атрофироваться .
Почему мозг «ленится»?
Человеческий мозг адаптируется к внешним инструментам, перекладывая на них часть когнитивной нагрузки. Исторически это происходило с письменностью, калькуляторами, GPS. Например, из-за навигаторов у людей снижается активность в зонах мозга, отвечающих за пространственную память .
Современные параллели:
- Потеря навыков запоминания. Раньше люди помнили десятки телефонных номеров, сегодня — только свой.
- Зависимость от алгоритмов. Без Google Maps многие не могут пройти маршрут, а без ChatGPT — сформулировать мысль.
- Автоматизационное самоуспокоение. Даже профессионалы (пилоты, врачи) теряют навыки, если слишком полагаются на ИИ .
Когда ИИ становится опасным?
Парадокс в том, что ИИ наиболее вреден в низкорисковых ситуациях. Например, при создании стандартного отчёта сотрудники перестают анализировать данные, доверяя шаблонным решениям алгоритмов. Однако в сложных или высокорисковых задачах (например, медицинская диагностика) люди склонны перепроверять ИИ, сохраняя критический подход .
Пример из исследования:
Одна участница использовала ChatGPT для написания характеристики коллеги, но тщательно редактировала текст, опасаясь ошибок. Другой респондент проверял сгенерированные ИИ письма через поисковые системы. Такие случаи — исключение: лишь 36% участников применяли критическое мышление для коррекции работы ИИ .
Исторический контекст: от Сократа до ChatGPT
Страхи перед технологиями не новы. Сократ критиковал письменность, считая, что она ослабит память. В XX веке педагоги опасались, что калькуляторы уничтожат навыки счёта. Однако эти инструменты не заменили человеческий интеллект, а перераспределили когнитивные ресурсы .
Чем ИИ отличается?
- Пассивность мышления. Если калькулятор требует ввода данных, то генеративный ИИ предлагает готовые решения, минимизируя вовлечённость пользователя.
- Иллюзия совершенства. Люди склонны переоценивать точность ИИ, особенно если не понимают его ограничений.
Как сохранить критическое мышление?
Исследователи предлагают стратегии для баланса:
- Обучение ограничениям ИИ. Сотрудники должны знать, что алгоритмы могут ошибаться из-за предвзятости данных или узкой обучающей выборки.
- Внедрение «тренировочных» механизмов. Например, ИИ-системы могут указывать на спорные моменты в своих выводах, стимулируя пользователей к анализу .
- Сознательное делегирование. Автоматизировать рутину, но оставлять сложные задачи для самостоятельного решения.
ИИ — мощный инструмент, но его неправильное использование превращает нас в «когнитивных лентяев». Как отмечают учёные, опасность не в том, что машины заменят людей, а в том, что люди добровольно откажутся от мышления, переложив его на алгоритмы . Чтобы избежать этого, важно сохранять баланс: использовать ИИ как помощника, а не замену собственному интеллекту.
«Технологии должны расширять возможности, а не сужать горизонты», — резюмируют авторы исследования.