Ваш ChatGPT — философский инвалид. Он не способен на прыжок за пределы системы
NewsMakerИнформационная теория объясняет, почему ИИ никогда не станет по-настоящему разумным.
Новый философско-математический труд утверждает , что создание настоящего искусственного разума невозможно не только на практике, но и в теории. Автор статьи, немецкий исследователь Макс Шлерет, представил второе доказательство невозможности так называемого AGI — искусственного интеллекта общего уровня — теперь уже с точки зрения информационной теории.
Первая работа Шлерета опиралась на теоремы Тьюринга, Гёделя и Райса и утверждала, что алгоритмы в принципе не могут решать задачи с бесконечным пространством вариантов. Новая статья выходит за рамки логики и показывает другой парадокс: в определённых условиях добавление новых данных не снижает, а наоборот увеличивает неопределённость. Чем больше информации поступает, тем труднее принять решение. Автор называет это эффектом «IOpenER» — информация открывает, энтропия растёт.
В качестве иллюстрации он приводит ситуации, в которых даже самые продвинутые языковые модели теряются. Например, простой бытовой вопрос вроде «Я поправилась?» вызывает у ИИ не решение, а бесконечную череду анализов, потому что количество контекстов и возможных интерпретаций практически бесконечно. Машина не ошибается, она просто не может выбрать единственный ответ в условиях социальной неопределённости. Сходным образом, если ИИ пытается объяснить эксперимент Майкельсона-Морли с позиций ньютоновской физики, он не способен изобрести концепцию относительности, потому что это требует выхода за рамки его символического словаря.
Шлерет утверждает, что в таких случаях алгоритм действует идеально в рамках своей логики, но именно это его и губит. Он не может перескочить в другую систему координат. Он не понимает, что находится в тупике. Человек же в этих условиях способен совершить скачок — не всегда рациональный, но продуктивный. Именно так появляются научные революции, нестандартные бизнес-решения и социальная интуиция.
Работа Шлерета получила неожиданное эмпирическое подтверждение. В исследовании Apple, опубликованном в июне, показано, что современные модели вроде Claude 3.7 и DeepSeek-R1 демонстрируют обвальное снижение точности и логической связности при усложнении задачи, даже при наличии достаточного количества вычислительных ресурсов. Это согласуется с предсказаниями Шлерета о росте энтропии в глубоких архитектурах.
Ключевой вывод статьи звучит тревожно. Проблема не в том, что ИИ ещё не достиг уровня человека. Проблема в том, что он в принципе не может этого сделать. Не потому что слаб, а потому что ограничен своей природой. Его мир — это заранее заданные символы и правила. А настоящий интеллект начинается там, где эти правила уже не работают.
По мнению автора, попытки «настроить» ИИ под нормы поведения или этики на деле являются лишь попыткой удержать модель в зоне низкой энтропии. Настоящее же мышление требует выхода за пределы формальной системы, а это не поддаётся алгоритмизации. В итоге он формулирует универсальное ограничение: если решение задачи требует соединения разных смысловых рамок, пересмотра понятий или принятия решений при бесконечной неопределённости, то алгоритм не сможет с ней справиться.
Шлерет обещает третье доказательство — уже с другой формальной базы. А пока его работа предлагает не столько критику искусственного интеллекта, сколько попытку очертить его границы. Ведь понимание предела — это тоже шаг к прогрессу.

Новый философско-математический труд утверждает , что создание настоящего искусственного разума невозможно не только на практике, но и в теории. Автор статьи, немецкий исследователь Макс Шлерет, представил второе доказательство невозможности так называемого AGI — искусственного интеллекта общего уровня — теперь уже с точки зрения информационной теории.
Первая работа Шлерета опиралась на теоремы Тьюринга, Гёделя и Райса и утверждала, что алгоритмы в принципе не могут решать задачи с бесконечным пространством вариантов. Новая статья выходит за рамки логики и показывает другой парадокс: в определённых условиях добавление новых данных не снижает, а наоборот увеличивает неопределённость. Чем больше информации поступает, тем труднее принять решение. Автор называет это эффектом «IOpenER» — информация открывает, энтропия растёт.
В качестве иллюстрации он приводит ситуации, в которых даже самые продвинутые языковые модели теряются. Например, простой бытовой вопрос вроде «Я поправилась?» вызывает у ИИ не решение, а бесконечную череду анализов, потому что количество контекстов и возможных интерпретаций практически бесконечно. Машина не ошибается, она просто не может выбрать единственный ответ в условиях социальной неопределённости. Сходным образом, если ИИ пытается объяснить эксперимент Майкельсона-Морли с позиций ньютоновской физики, он не способен изобрести концепцию относительности, потому что это требует выхода за рамки его символического словаря.
Шлерет утверждает, что в таких случаях алгоритм действует идеально в рамках своей логики, но именно это его и губит. Он не может перескочить в другую систему координат. Он не понимает, что находится в тупике. Человек же в этих условиях способен совершить скачок — не всегда рациональный, но продуктивный. Именно так появляются научные революции, нестандартные бизнес-решения и социальная интуиция.
Работа Шлерета получила неожиданное эмпирическое подтверждение. В исследовании Apple, опубликованном в июне, показано, что современные модели вроде Claude 3.7 и DeepSeek-R1 демонстрируют обвальное снижение точности и логической связности при усложнении задачи, даже при наличии достаточного количества вычислительных ресурсов. Это согласуется с предсказаниями Шлерета о росте энтропии в глубоких архитектурах.
Ключевой вывод статьи звучит тревожно. Проблема не в том, что ИИ ещё не достиг уровня человека. Проблема в том, что он в принципе не может этого сделать. Не потому что слаб, а потому что ограничен своей природой. Его мир — это заранее заданные символы и правила. А настоящий интеллект начинается там, где эти правила уже не работают.
По мнению автора, попытки «настроить» ИИ под нормы поведения или этики на деле являются лишь попыткой удержать модель в зоне низкой энтропии. Настоящее же мышление требует выхода за пределы формальной системы, а это не поддаётся алгоритмизации. В итоге он формулирует универсальное ограничение: если решение задачи требует соединения разных смысловых рамок, пересмотра понятий или принятия решений при бесконечной неопределённости, то алгоритм не сможет с ней справиться.
Шлерет обещает третье доказательство — уже с другой формальной базы. А пока его работа предлагает не столько критику искусственного интеллекта, сколько попытку очертить его границы. Ведь понимание предела — это тоже шаг к прогрессу.