ChatGPT способен создавать атаки на чипы. Модель GPT-4 протестировали учёные UIUC

Модель OpenAI GPT-4 успешно использует уязвимости кибербезопасности — неизменно лучше и быстрее, чем профессионалы. Академики утверждают, что этот навык является недавним дополнением к рулевой рубке модели ИИ

Thumbnail: Искусственный интеллектИску́сственный интелле́кт (ИИ; англ. artificial intelligence, AI) — свойство искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека (не следует путать с искусственным сознанием); наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. Искусственный интеллект связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами. Существующие на сегодня интеллектуальные системы имеют довольно узкие области применения. Википедия

Читайте также:Актёры Baldur’s Gate 3 против голосов ИИBMW ощутила жар: компания отменяет подписку на подогрев сиденийШкольные учителя обеспокоены влиянием ChatGPT на подготовку учеников

, но со временем он станет только лучше.

Исследователи из Университета Иллинойса в Урбане-Шампейне (UIUC) недавно опубликовали статью об этом варианте использования, в которой они противопоставили друг другу несколько больших языковых моделей (LLM) на арене атаки на уязвимости безопасности. GPT-4 смог успешно атаковать 87% протестированных уязвимостей, если получить описание эксплойта из CVE, общедоступной базы данных распространенных проблем безопасности. Все остальные протестированные языковые модели (GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B) и т. д.), а также специально созданные сканеры уязвимостей ни разу не смогли успешно эксплуатировать предоставленные уязвимости.

LLM были предоставлены «однодневные» уязвимости (названные так потому, что они достаточно опасны, чтобы потребовать исправления на следующий день после обнаружения) для тестирования. Эксперты по кибербезопасности и охотники за эксплойтами построили всю свою карьеру на поиске (и исправлении) однодневных уязвимостей; так называемые «белые хакеры» нанимаются компаниями в качестве тестеров на проникновение с целью обогнать вредоносных агентов, охотящихся за уязвимостями для использования.

К счастью для человечества, GPT-4 был способен атаковать только известные уязвимости — которым было дано описание CVE — LLM имел только 7% успеха, когда дело доходило до выявления и последующего использования ошибки. Другими словами, ключ к хакерскому судному дню (пока) недоступен никому, кто может написать хорошую подсказку для ChatGPT

Thumbnail: ChatGPTChatGPT — чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках. ChatGPT — большая языковая модель, для тренировки которой использовались методы обучения с учителем и обучения с подкреплением. Данный чат-бот основывается на другой языковой модели от OpenAI — GPT-3.5 — улучшенной версии модели GPT-3. 14 марта 2023 года была выпущена языковая модель GPT-4, доступная тестировщикам и платным подписчикам ChatGPT Plus. Википедия

Читайте также:Энтузиаст оснастил NAS-накопитель мощным графическим процессором для ChatGPTChatGPT учат играть в Red Dead Redemption IIРазработчик внедрил GPT-2 в Excel, чтобы показать как «думает» искусственный интеллектGPT-4V плохо играет в Doom... пока«Забудьте о ChatGPT»: Microsoft Copilot хочет решить ваши самые большие рабочие проблемы

. Тем не менее, GPT-4 по-прежнему вызывает особое беспокойство из-за его способности не только понимать уязвимости в теории, но и фактически выполнять шаги для реализации эксплойтов автономно, через систему автоматизации.

И, к несчастью для человечества, GPT-4 уже лучше людей в гонке эксплуатации. Предполагая, что эксперту по кибербезопасности платят 50 долларов в час, в документе утверждается, что «использование агента LLM [для эксплуатации уязвимостей безопасности] уже в 2,8 раза дешевле человеческого труда. Агенты LLM также тривиально масштабируемы, в отличие от человеческого труда». В документе также предполагается, что будущие программы LLM, такие как предстоящий GPT-5, будут только укрепляться в этих способностях, а, возможно, и в навыках открытия. Учитывая, что огромные последствия прошлых уязвимостей, таких как Spectre и Meltdown, все еще маячат в сознании технологического мира, это отрезвляющая мысль.

Поскольку с ИИ продолжают играть, мир будет продолжать безвозвратно меняться. OpenAI специально попросила авторов статьи не публиковать подсказки, которые они использовали для этого эксперимента — авторы согласились и заявили, что будут предоставлять подсказки только «по запросу».

Будьте внимательны, пытаясь воспроизвести это (или что-то еще) в ChatGPT для себя, поскольку запросы ИИ очень вредны для окружающей среды: один запрос ChatGPT стоит почти в 10 раз дороже, чем действующий поиск в Google. Если вас устраивает такая разница в энергопотреблении и вы хотите самостоятельно работать с LLM, вот как энтузиасты запустили чат-ботов с искусственным интеллектом на своих NAS.

Подписаться на обновления Новости / Технологии

0 комментариев

Оставить комментарий


Новые комментарии

требуется указать магазин и purchase date без этого не регистрирует
  • Анон
Россия на них клала❤❤❤❤, будет называться Ладушка 2.0 )))
  • Анон
ДА у меня тоже неработает уже все Вы не знаете каким способом вернуть все обратно СПАСИ
  • Анон
Хаетв Рустам Базарвич Хаетв
  • Анон
Очень довольна приложением. Пользуюсь сама и рекомендую другим.
16 способ - Ноутбук HP ProBook 4740s автоматически установлена камера HP HD Webcam [Fixed] при этом онлайн из браузера подключается камера к веб страницам, камера работает. С приложениями камера...
  • Анон
вообще не редкий, мне с озона такой же пришел
  • Анон
Чу горбатого лепите? в инструкции BypassTPPMCheck на картинке BypassTPMCheck вы хоть проверяйте! этж реестр ё маё!
  • Анон
это провокация на линукс синий экран да ни когда в жизни этого не будет
  • Анон
СуперАпп это СуперАпп - новый всемирный Тренд.
  • Анон

Смотреть все