Учёные Кембриджского университета провели необычный эксперимент: они проверили, как ChatGPT-4 справится с классической задачей Платона об «удвоении квадрата». Вместо ожидаемого геометрического решения, которое предлагал Сократ, ИИ упорно выбирал алгебраический подход, допуская ошибки и возвращаясь к привычной стратегии даже при подсказках.
Авторы работы, Надав Марко и Андреас Стилианидес, отмечают, что модель вела себя «по-человечески»: опиралась на знакомые методы, а на прямые указания об ошибке реагировала корректировкой ответа. В вариациях задачи с прямоугольником и треугольником ChatGPT снова настаивал на алгебре и даже ошибочно заявил о невозможности геометрического решения для прямоугольника.
Исследователи связывают это с идеей «зоны ближайшего развития»: как и студенты, ИИ может застревать в знакомых стратегиях и нуждаться в направляющих подсказках. По их мнению, такой «сопротивляющийся» собеседник может быть полезен в обучении, помогая студентам развивать критическое мышление и умение проверять доказательства.