Искусственные нейросети и люди демонстрируют сходные модели при обучении

/ (Обновлено: ) / НаукаНовости / Наука

Исследователи из Оксфордского университета обнаружили, что люди и искусственные нейронные сети (ИНС) демонстрируют схожие модели «интерференции» и «переноса» при последовательном обучении задачам, основанным на логических правилах.

Интерференция — это явление, при котором изучение новой информации затрудняет воспроизведение ранее усвоенных знаний. В ИНС это проявляется как «катастрофическое забывание», когда модель «разучивается» выполнять предыдущие задачи после тренировки на новых данных.

В ходе эксперимента участники и нейросети выполняли последовательность задач по схеме A–B–A. Оказалось, что когда правила задач были схожи, и люди, и ИНС демонстрировали «перенос» — использование знаний из первой задачи для ускоренного обучения второй. Однако при возврате к первоначальным правилам (задача A) у многих наблюдалась интерференция.

«При обучении последовательным задачам оба типа учащихся получают больше пользы от предыдущих знаний, когда задачи похожи, но в результате также демонстрируют большую интерференцию при повторном тестировании», — отметили авторы исследования.

Учёные также выявили два типа учащихся среди людей: «объединители» (lumpers), которые демонстрируют высокий перенос знаний, но и высокую интерференцию, и «разделители» (splitters), которые избегают интерференции, но хуже переносят знания. Эти поведенческие профили соответствуют режимам обучения нейросетей — «богатому» (с перекрывающимися представлениями) и «ленивому» (с раздельными представлениями).

Результаты исследования, опубликованные в журнале Nature Human Behaviour, могут помочь в разработке более эффективных алгоритмов искусственного интеллекта и углубить понимание процессов обучения у людей.

Подписаться на обновления Новости / Наука
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Наука