Взлом OpenAI: угроза национальной безопасности

В начале прошлого года хакер взломал внутреннюю систему обмена сообщениями OpenAI

Thumbnail: OpenAIOpenAI — американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта. В состав OpenAI входят зарегистрированная в штате Делавэр некоммерческая организация OpenAI, Inc и её дочерняя коммерческая компания OpenAI Global, LLC. OpenAI ставит перед собой цель разработать «безопасный и полезный» сильный искусственный интеллект, который организация определяет как «высокоавтономные системы, превосходящие человека в выполнении наиболее экономически ценной работы». На пути к этой цели организация создала несколько больших языковых моделей, в том числе GPT-4 и ChatGPT, а также моделей для генерации изображений, как DALL-E; в прошлом она публиковала модели с открытым исходным кодом. Некоммерческая организация OpenAI была основана в декабре 2015 года; её сопредседателями стали Сэм Олтмен и Илон Маск. Википедия

Читайте также:Китайские фирмы осваивают сферу ИИ после ухода OpenAIИлон Маск отказался от иска против OpenAI и АльтманаМаск заявил, что запретит все устройства Apple, если OpenAI будет интегрирован на уровне ОСПредседатель TSMC CC Wei о Сэме Альтмане из OpenAI: «слишком агрессивен»Скарлетт Йоханссон не согласилась предоставить свой голос OpenAI

, украв у сотрудников подробную информацию о том, как работают технологии OpenAI. Хотя хакер не получил доступа к системам, в которых размещены ключевые технологии искусственного интеллекта, инцидент вызвал серьезные проблемы с безопасностью внутри компании. Более того, это даже вызвало обеспокоенность по поводу национальной безопасности США, сообщает New York Times.

Нарушение произошло на онлайн-форуме, где сотрудники обсуждали новейшие технологии OpenAI. Хотя системы OpenAI, в которых компания хранит данные обучения, алгоритмы, результаты и данные клиентов, не были скомпрометированы, некоторая конфиденциальная информация была раскрыта. В апреле 2023 года руководители OpenAI сообщили об инциденте сотрудникам и совету директоров, но предпочли не предавать огласке. Они рассудили, что никакие данные клиентов или партнеров не были украдены, а хакером, скорее всего, был человек, не связанный с правительством. Но не все были довольны таким решением.

Леопольд Ашенбреннер, технический менеджер программ OpenAI, раскритиковал меры безопасности компании, заявив, что они недостаточны для предотвращения доступа иностранных противников к конфиденциальной информации. Позже его уволили за утечку информации, что, по его словам, было политически мотивированным. Несмотря на заявления Ашенбреннера, OpenAI утверждает, что его увольнение не было связано с его опасениями по поводу безопасности. Компания признала его вклад, но не согласилась с его оценкой своих методов обеспечения безопасности.

Инцидент усилил опасения по поводу потенциальных связей с иностранными противниками, особенно с Китаем. Однако OpenAI считает, что ее нынешние технологии искусственного интеллекта не представляют серьезной угрозы национальной безопасности. Тем не менее, можно предположить, что передача их китайским специалистам поможет им быстрее продвигать свои технологии искусственного интеллекта.

В ответ на взлом OpenAI, как и другие компании, усилила меры безопасности. Например, OpenAI и другие компании добавили защитные ограждения для предотвращения неправильного использования своих приложений искусственного интеллекта. Кроме того, OpenAI создала комитет по безопасности и защите, в который входит бывший глава АНБ Пол Накасоне, для устранения будущих рисков.

Другие компании, в том числе Meta, делают свои проекты искусственного интеллекта открытыми, чтобы способствовать общеотраслевым улучшениям. Однако это делает технологии доступными и для таких врагов Америки, как Китай. Исследования, проведенные OpenAI, Anthropic и другими, показывают, что современные системы искусственного интеллекта не более опасны, чем поисковые системы.

Рассматриваются федеральные и государственные постановления, которые будут контролировать выпуск технологий искусственного интеллекта и налагать штрафы за вредные последствия. Однако это больше похоже на предосторожность, поскольку эксперты полагают, что до самых серьезных рисков, связанных с ИИ, еще далеко.

Тем временем китайские исследователи искусственного интеллекта быстро продвигаются вперед, потенциально превосходя своих американских коллег. Этот быстрый прогресс вызвал призывы к ужесточению контроля над развитием ИИ, чтобы смягчить будущие риски.

Источник: Tomshardware.com

Подписаться на обновления Новости / Технологии

0 комментариев

Оставить комментарий


Новые комментарии

требуется указать магазин и purchase date без этого не регистрирует
  • Анон
Россия на них клала❤❤❤❤, будет называться Ладушка 2.0 )))
  • Анон
ДА у меня тоже неработает уже все Вы не знаете каким способом вернуть все обратно СПАСИ
  • Анон
Хаетв Рустам Базарвич Хаетв
  • Анон
Очень довольна приложением. Пользуюсь сама и рекомендую другим.
16 способ - Ноутбук HP ProBook 4740s автоматически установлена камера HP HD Webcam [Fixed] при этом онлайн из браузера подключается камера к веб страницам, камера работает. С приложениями камера...
  • Анон
вообще не редкий, мне с озона такой же пришел
  • Анон
Чу горбатого лепите? в инструкции BypassTPPMCheck на картинке BypassTPMCheck вы хоть проверяйте! этж реестр ё маё!
  • Анон
это провокация на линукс синий экран да ни когда в жизни этого не будет
  • Анон
СуперАпп это СуперАпп - новый всемирный Тренд.
  • Анон

Смотреть все