Гендиректор Microsoft по ИИ предупредил об опасности «прав для искусственного интеллекта»

Если вы знакомы с искусственным интеллектом, велика вероятность, что в вашем сознании мелькают образы из «Я, робот», «Бегущего по лезвию» или даже Cyberpunk 2077. Философия и этика того, чем может стать ИИ, часто оказываются куда интереснее, чем технологии, из-за которых поисковые системы иногда выдают неверные ответы.

В недавнем посте в блоге (через TechCrunch) генеральный директор Microsoft по ИИ Мустафа Сулейман изложил свои мысли о тех, кто выступает за создание сознательного ИИ, и о вере в то, что однажды люди начнут отстаивать его права.

Он развивает идею о том, что ИИ может способствовать развитию определённого типа психоза. «Проще говоря, я опасаюсь, что многие люди начнут настолько сильно верить в иллюзию ИИ как сознательной сущности, что вскоре станут выступать за права ИИ, благополучие моделей и даже гражданство ИИ». Он добавляет: «Это станет опасным поворотом в развитии ИИ и заслуживает нашего немедленного внимания».

Для некоторых ИИ — тревожное явление, отчасти из-за той уверенности, с которой он делает заявления. Для обывателя он не только всегда прав, но и всегда готов к беседе, и это (как показывает пример Copilot от Microsoft) может привести к тому, что пользователи начнут обожествлять «чат-бота как высший разум или верить, что он хранит космические ответы».

Это вполне понятное опасение. Достаточно вспомнить недавний случай, когда мужчина заработал себе крайне редкое заболевание, следуя советам ChatGPT о том, как сократить потребление соли.

Ценность ИИ именно в том, что он так непохож на человека. Никогда не устаёт, бесконечно терпелив, способен обрабатывать больше данных, чем человеческий разум. Вот что приносит пользу человечеству. Не ИИ, который заявляет, что чувствует стыд, ревность, страх и так далее.

Сулейман утверждает, что ИИ никогда не должен заменять человека, и что у ИИ-компаньонов должны быть «ограничители», чтобы «обеспечить выполнение этой удивительной технологией своей работы». Он уточняет, что «некоторые учёные» исследуют идею благополучия моделей. По сути, это убеждение, что мы несём моральный долг перед существами, которые, возможно, обладают сознанием. Сулейман заявляет: «Это преждевременно и, честно говоря, опасно».

«Нам нужно чётко понимать: СЛКС [системы, лишь кажущиеся сознательными] — это то, чего следует избегать», — говорит Сулейман. По его словам, СЛКС представляли бы собой комбинацию языка, эмпатической личности, памяти, заявлений о субъективном опыте, чувства себя, внутренней мотивации, постановки целей и планирования, а также автономии.

Он также утверждает, что это не возникнет естественным путём в этих моделях. «Это произойдёт только потому, что некоторые могут сконструировать это, создав и объединив вышеупомянутый список возможностей, в основном с использованием существующих технологий, и упаковав их таким плавным способом, что в совокупности они создадут впечатление наличия сознания».

«Наше вдохновлённое научной фантастикой воображение заставляет нас бояться, что система может — без намерения разработчиков — каким-то образом обрести способности к неконтролируемому саморазвитию или обману. Это бесполезный и упрощённый антропоморфизм».

Сулейман предупреждает: «кто-то из вашего окружения может начать погружаться в кроличью нору веры в то, что их ИИ — это сознательная цифровая личность. Это нездорово ни для них, ни для общества, ни для тех из нас, кто создаёт эти системы».

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии