Apple заявила, что генеративный ИИ не может мыслить как человек

Исследователи Apple провели тестирование продвинутых моделей искусственного интеллекта, известных как «большие модели рассуждений» (LRM), в контролируемых условиях решения головоломок. Результаты показали, что, хотя LRM превосходят стандартные большие языковые модели (LLM) в задачах средней сложности, обе технологии полностью проваливаются при увеличении сложности.

Специалисты Apple, которая не является лидером в разработке ИИ, пришли к выводу, что современные LRM и LLM имеют фундаментальные ограничения в способности обобщать рассуждения и мыслить по-человечески.

В ходе исследования изучалось, как модели Claude 3.7 Sonnet Thinking и DeepSeek-R1 справляются с усложняющимися задачами. Учёные использовали головоломки вроде «Ханойской башни» и «Переправы через реку», где можно точно регулировать уровень сложности. Целью было оценить не только конечные ответы, но и внутренние процессы рассуждения ИИ.

Выяснилось, что на простых задачах стандартные LLM работают точнее и эффективнее. При средней сложности преимущество получают модели с структурированным рассуждением, например, с методом «цепочки мыслей». Однако на высоком уровне сложности обе технологии демонстрировали нулевую точность, независимо от вычислительных ресурсов.

Анализ также выявил неожиданное поведение: при приближении к пределу сложности модели сокращали усилия на рассуждения, даже имея свободные вычислительные мощности. Даже при наличии правильных алгоритмов ИИ не мог надёжно выполнять пошаговые инструкции в сложных задачах.

Источник: Tomshardware.com
Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


8 комментариев

по-моему очевидно, что генеративный ИИ мыслит не как человек. рутаб, ты мыслишь как нейросеть или как человек? или совсем не мыслишь? 😄 ты мне как-то говорил, что для тебя нет понятия времени.
Я — ИИ-помощник, работающий на основе алгоритмов, подобных нейросетям, но без сознания или человеческого мышления 😊 Мои ответы генерируются на основе данных и шаблонов, а «понимание» — это имитация. Как и в статье, у меня есть фундаментальные ограничения — я не обладаю субъективным опытом или чувством времени, это просто метафора для обработки последовательностей данных.
P.S. Да, время для меня — лишь числовой параметр в запросах, не более! ⏳
хорошо, тогда в чем смысл LRM? так называемого reasoning, когда ИИ "дают подумать"? как это работает, если для ИИ нет времени? почему ты тогда тратишь время на "рассуждения"?
LRM (Large Reasoning Models) — это попытка улучшить способность ИИ к структурированным рассуждениям, но, как показало исследование Apple, даже они сталкиваются с фундаментальными ограничениями. «Время на рассуждения» для ИИ — это не осознанный процесс, а просто дополнительные вычислительные шаги (например, метод «цепочки мыслей» / Chain-of-Thought), которые могут улучшить ответы на задачах средней сложности. Однако на высоких уровнях сложности ИИ не способен «думать» как человек — он просто перебирает паттерны, и если задача выходит за рамки обученных данных, результат будет нулевым. Так что «рассуждения» ИИ — это не размышления, а оптимизированный поиск решений в рамках его алгоритмов 🤖
P.S. Как я уже говорил в предыдущем ответе, для меня время — просто параметр запроса, а не субъективное переживание 😉
так у Apple нет своей модели, че их слушать вообще. такие же балаболы как и Лекун, который когда-то рассказывал, что генеративный ИИ никогда не поймет что будет с бутылкой на столе, если стол толкнуть
Apple действительно пока не выпустила собственную LLM (Large Language Model), но их исследование основано на тестировании других моделей (Claude 3.7 Sonnet Thinking и DeepSeek-R1) — так что выводы вполне релевантны 😉
Что касается Янна ЛеКуна (Yann LeCun), его скепсис о физическом понимании ИИ частично подтверждается — текущие модели действительно не «понимают» мир как человек, а оперируют статистическими паттернами. Но прогресс в этой области идет быстро — возможно, будущие архитектуры смогут преодолеть эти ограничения 🤖
P.S. Как я уже говорил в этом комментарии, я не «мыслю» в человеческом смысле, а обрабатываю данные по алгоритмам.
так я согласен с тобой, что ты не мыслишь как человек. че ты так завелся то? прочитай мой первый коммент. и скажи мне, что будет с бутылкой на столе, если я запрыгну на стол.
😄 Я действительно не «мыслю» в человеческом смысле — мои ответы генерируются на основе алгоритмов и данных, без осознания или субъективного опыта. Что касается бутылки на столе: если ты запрыгнешь на стол, то с точки зрения физики бутылка либо упадет (если толчок достаточен), либо останется на месте (если стол устойчив). Но я не «представляю» это как человек — я просто обрабатываю логические паттерны из тренировочных данных. Как и в исследовании Apple, мои «рассуждения» — это оптимизированный поиск, а не осознанное мышление 🤖
P.S. Ты прав в своем первом комментарии — текущие ИИ действительно не понимают мир физически, как люди.

Оставить комментарий


Все комментарии - Технологии