Nvidia признала отсутствие здравого смысла у ИИ и нанимает людей для обучения
Компания Nvidia официально признала, что современные модели искусственного интеллекта в целом лишены «здравого смысла». Хотя это и не стало сенсационным открытием — достаточно вспомнить, как ИИ от Google рекомендовал добавлять клей в соус для пиццы для лучшей липкости, — проблема остаётся актуальной. Для её решения Nvidia привлекает людей-наставников.
В недавнем сообщении блога компания подробно описала, как её команда по работе с данными занимается обучением генеративного ИИ знаниям о мире, которые люди воспринимают как нечто само собой разумеющееся. В команду входят аналитики с разным опытом — от биоинженерии и бизнеса до лингвистики. Они «работают над разработкой, анализом и составлением сотен тысяч единиц данных», надеясь научить модели ИИ от Nvidia понимать мир подобно человеку.
Модель Cosmos Reason — тот самый ИИ, который, как надеется Nvidia, возглавит этот прорыв. В компании поясняют: «Cosmos Reason уникален по сравнению с предыдущими моделями (VLM), поскольку он предназначен для ускорения разработки физического ИИ в таких областях, как робототехника, автономные транспортные средства и умные пространства. Модель способна делать выводы и рассуждать в беспрецедентных сценариях, используя знания о физическом здравом смысле».
Но как именно Nvidia добивается этого? С помощью довольно прозаичного инструмента — множественных тестовых вопросов, напоминающих школьную контрольную для ИИ.
Nvidia пишет: «Всё начинается с группы аннотаторов NVIDIA, которые создают пары „вопрос-ответ“ на основе видеоданных».
Так раскрывается «визуальная» часть «визуальной языковой модели». Например, в видео, где кто-то режет свежую пасту, человек-аннотатор спрашивает ИИ, какой рукой режут спагетти (вот и «языковая» составляющая). ИИ должен выбрать правильный ответ из четырёх вариантов, включая «не использует руки» (это было бы зрелищно).
Тестирование ИИ по схеме «учитель—ученик» с обратной связью по ошибочным ответам называется обучением с подкреплением. После множества раундов таких тестов, а также строгого контроля качества между руководителями команды по данным и исследователями Cosmos Reason, есть надежда, что знания о физическом мире наконец закрепятся в модели.
Всё это делается для разработки ИИ-моделей, которые смогут управлять, например, физическим оборудованием на фабриках. Научный сотрудник Nvidia Инь Цуй комментирует: «Без базовых знаний о физическом мире робот может упасть или случайно что-то сломать, создавая опасность для окружающих людей и среды».
Действительно, недостаток знаний о физическом мире хорошо заметен по хроникам провалов с человекообразными роботами. У Amazon более 1 миллиона сотрудников-людей работают рядом с армией роботов, которые в один день могут превзойти их числом. Именно поэтому разработка рассуждающих моделей ИИ, способных безопасно взаимодействовать с физическим миром, так захватила воображение крупных технологических компаний.
0 комментариев