20.03.2025

ИИ и когнитивная атрофия: почему делегирование задач машинам угрожает нашему мышлению


Исследование Microsoft и Университета Карнеги-Меллон подтверждает: чрезмерное доверие к ИИ снижает критическое мышление


Тревожные выводы исследования

Согласно совместному исследованию Microsoft и Университета Карнеги-Меллон, опубликованному 11 февраля 2025 года, чрезмерное использование генеративного ИИ на работе приводит к снижению навыков критического мышления и когнитивных способностей. В эксперименте участвовали 319 офисных сотрудников, которые регулярно применяли ИИ для рутинных задач: создания документов, анализа данных, поиска решений. Результаты показали, что чем больше люди доверяли алгоритмам, тем реже они проверяли их выводы и предлагали оригинальные идеи .

Ключевые наблюдения:

  1. Снижение критического анализа. Участники, полагающиеся на ИИ, реже оценивали качество его работы, особенно в простых задачах (например, составление электронных писем). Вместо глубокого анализа они ограничивались поверхностной проверкой, что лишало их возможности тренировать «когнитивную мускулатуру» .
  2. Однородность решений. Группы, использовавшие ИИ, предлагали менее разнообразные идеи по сравнению с теми, кто работал самостоятельно. Алгоритмы генерировали шаблонные ответы, ограниченные обучающими данными, что сужало креативность сотрудников .
  3. Риск долгосрочной деградации. Исследователи предупреждают: если новые поколения сотрудников будут расти в условиях полной автоматизации рутинных задач, их способность к самостоятельному решению проблем может атрофироваться .

Почему мозг «ленится»?

Человеческий мозг адаптируется к внешним инструментам, перекладывая на них часть когнитивной нагрузки. Исторически это происходило с письменностью, калькуляторами, GPS. Например, из-за навигаторов у людей снижается активность в зонах мозга, отвечающих за пространственную память .

Современные параллели:

  • Потеря навыков запоминания. Раньше люди помнили десятки телефонных номеров, сегодня — только свой.
  • Зависимость от алгоритмов. Без Google Maps многие не могут пройти маршрут, а без ChatGPT — сформулировать мысль.
  • Автоматизационное самоуспокоение. Даже профессионалы (пилоты, врачи) теряют навыки, если слишком полагаются на ИИ .

Когда ИИ становится опасным?

Парадокс в том, что ИИ наиболее вреден в низкорисковых ситуациях. Например, при создании стандартного отчёта сотрудники перестают анализировать данные, доверяя шаблонным решениям алгоритмов. Однако в сложных или высокорисковых задачах (например, медицинская диагностика) люди склонны перепроверять ИИ, сохраняя критический подход .

Пример из исследования:
Одна участница использовала ChatGPT для написания характеристики коллеги, но тщательно редактировала текст, опасаясь ошибок. Другой респондент проверял сгенерированные ИИ письма через поисковые системы. Такие случаи — исключение: лишь 36% участников применяли критическое мышление для коррекции работы ИИ .


Исторический контекст: от Сократа до ChatGPT

Страхи перед технологиями не новы. Сократ критиковал письменность, считая, что она ослабит память. В XX веке педагоги опасались, что калькуляторы уничтожат навыки счёта. Однако эти инструменты не заменили человеческий интеллект, а перераспределили когнитивные ресурсы .

Чем ИИ отличается?

  • Пассивность мышления. Если калькулятор требует ввода данных, то генеративный ИИ предлагает готовые решения, минимизируя вовлечённость пользователя.
  • Иллюзия совершенства. Люди склонны переоценивать точность ИИ, особенно если не понимают его ограничений.

Как сохранить критическое мышление?

Исследователи предлагают стратегии для баланса:

  1. Обучение ограничениям ИИ. Сотрудники должны знать, что алгоритмы могут ошибаться из-за предвзятости данных или узкой обучающей выборки.
  2. Внедрение «тренировочных» механизмов. Например, ИИ-системы могут указывать на спорные моменты в своих выводах, стимулируя пользователей к анализу .
  3. Сознательное делегирование. Автоматизировать рутину, но оставлять сложные задачи для самостоятельного решения.

ИИ — мощный инструмент, но его неправильное использование превращает нас в «когнитивных лентяев». Как отмечают учёные, опасность не в том, что машины заменят людей, а в том, что люди добровольно откажутся от мышления, переложив его на алгоритмы . Чтобы избежать этого, важно сохранять баланс: использовать ИИ как помощника, а не замену собственному интеллекту.

«Технологии должны расширять возможности, а не сужать горизонты», — резюмируют авторы исследования.