Anthropic отказалась от ключевого обещания безопасности в разработке ИИ
Компания Anthropic, известная своим акцентом на безопасность искусственного интеллекта, отказалась от своего основополагающего обязательства приостанавливать разработку опасных моделей ИИ. Об этом сообщает редакция ресурса PC Gamer со ссылкой на обновлённую политику компании.
Ранее в своей «Политике ответственного масштабирования» (RSP) Anthropic заявляла, что при приближении её систем ИИ к определённым порогам опасных возможностей, особенно связанных с катастрофическим злоупотреблением, она остановит дальнейшее развитие до внедрения адекватных мер безопасности.
В новой, третьей версии документа, явные ссылки на «приостановку» разработки удалены. Вместо этого компания использует более мягкие формулировки, сосредоточенные на «ответственной разработке», «управлении рисками» и «поэтапном развёртывании». Теперь Anthropic обязуется внедрять защитные меры, публиковать оценки безопасности и отчёты о рисках.
Как пояснил главный научный сотрудник Anthropic Джаред Каплан, компания считает, что односторонние обязательства теряют смысл, когда конкуренты «несутся вперёд». В политическом документе говорится: «Если один разработчик ИИ приостановит разработку для внедрения мер безопасности, в то время как другие будут продвигаться вперёд... это может привести к менее безопасному миру».
Компания позиционирует изменения как шаг к большей прозрачности, но, по сути, это отход от жёсткого принципа «остановиться, если станет слишком опасно».







0 комментариев