От ChatGPT к химическому оружию: риски и преимущества возможностей GPT-4

/ (Обновлено: ) / ТехнологииНовости / Технологии

GPT-4 от OpenAI — это система искусственного интеллекта, стоящая за популярным чат-ботом ChatGPT. Недавно технология попала в заголовки СМИ после того, как инженер-химик использовал ее, чтобы предложить новое нервно-паралитическое вещество. Инженер Эндрю Уайт входил в группу экспертов, нанятых OpenAI для изучения рисков, связанных с развертыванием передовых систем искусственного интеллекта в обществе. Группа под названием «Красная Армия» (Red Army) подтолкнула GPT-4 к проверке своих возможностей и осознанию потенциальных опасностей. Они проверили способность модели отвечать на наводящие или опасные вопросы, связанные с токсикологией, плагиатом, национальной безопасностью и языковыми манипуляциями.

В то время как многие из тестировщиков выразили обеспокоенность по поводу потенциальных рисков, связанных с объединением языковых моделей с внешними источниками знаний через плагины, в OpenAI заверили общественность, что серьезно относятся к безопасности и тестируют плагины перед их выпуском. Отзывы «Красной Армии» также использовались для переобучения модели и решения ее проблем перед более широким внедрением GPT-4. Однако, несмотря на усилия OpenAI по устранению рисков, связанных с моделью, некоторые члены «Красной Армии», такие как Ройя Пакзад и Бору Голло, отметили, что GPT-4 по-прежнему демонстрирует предубеждения и дискриминационные тона, особенно при тестировании на пол, расу и язык. Несмотря на критику и жалобы со стороны групп по технологической этике, OpenAI запустила новую функцию под названием плагин ChatGPT, которая позволяет партнерским приложениям предоставлять ChatGPT доступ к своим сервисам.

Разработка GPT-4 и других передовых систем искусственного интеллекта поднимает важные вопросы о потенциальных опасностях развертывания этих систем в обществе. Хотя они предлагают более быстрые и точные инструменты для исследований и разработок, они также представляют значительный риск для общественной безопасности. Таким образом, для таких компаний, как OpenAI, крайне важно принимать упреждающие меры для решения этих проблем и обеспечения ответственной разработки и внедрения технологий искусственного интеллекта.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии