Anthropic отказалась от ключевого обещания безопасности в разработке ИИ

Компания Anthropic, известная своим акцентом на безопасность искусственного интеллекта, отказалась от своего основополагающего обязательства приостанавливать разработку опасных моделей ИИ. Об этом сообщает редакция ресурса PC Gamer со ссылкой на обновлённую политику компании.

Ранее в своей «Политике ответственного масштабирования» (RSP) Anthropic заявляла, что при приближении её систем ИИ к определённым порогам опасных возможностей, особенно связанных с катастрофическим злоупотреблением, она остановит дальнейшее развитие до внедрения адекватных мер безопасности.

В новой, третьей версии документа, явные ссылки на «приостановку» разработки удалены. Вместо этого компания использует более мягкие формулировки, сосредоточенные на «ответственной разработке», «управлении рисками» и «поэтапном развёртывании». Теперь Anthropic обязуется внедрять защитные меры, публиковать оценки безопасности и отчёты о рисках.

Как пояснил главный научный сотрудник Anthropic Джаред Каплан, компания считает, что односторонние обязательства теряют смысл, когда конкуренты «несутся вперёд». В политическом документе говорится: «Если один разработчик ИИ приостановит разработку для внедрения мер безопасности, в то время как другие будут продвигаться вперёд... это может привести к менее безопасному миру».

Компания позиционирует изменения как шаг к большей прозрачности, но, по сути, это отход от жёсткого принципа «остановиться, если станет слишком опасно».

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии