Взлом OpenAI: угроза национальной безопасности
OpenAI — американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта. В состав OpenAI входят зарегистрированная в штате Делавэр некоммерческая организация OpenAI, Inc и её дочерняя коммерческая компания OpenAI Global, LLC. OpenAI ставит перед собой цель разработать «безопасный и полезный» сильный искусственный интеллект, который организация определяет как «высокоавтономные системы, превосходящие человека в выполнении наиболее экономически ценной работы». На пути к этой цели организация создала несколько больших языковых моделей, в том числе GPT-4 и ChatGPT, а также моделей для генерации изображений, как DALL-E; в прошлом она публиковала модели с открытым исходным кодом.
Некоммерческая организация OpenAI была основана в декабре 2015 года; её сопредседателями стали Сэм Олтмен и Илон Маск. Википедия
Читайте также:Китайские фирмы осваивают сферу ИИ после ухода OpenAIИлон Маск отказался от иска против OpenAI и АльтманаМаск заявил, что запретит все устройства Apple, если OpenAI будет интегрирован на уровне ОСПредседатель TSMC CC Wei о Сэме Альтмане из OpenAI: «слишком агрессивен»Скарлетт Йоханссон не согласилась предоставить свой голос OpenAI
Нарушение произошло на онлайн-форуме, где сотрудники обсуждали новейшие технологии OpenAI. Хотя системы OpenAI, в которых компания хранит данные обучения, алгоритмы, результаты и данные клиентов, не были скомпрометированы, некоторая конфиденциальная информация была раскрыта. В апреле 2023 года руководители OpenAI сообщили об инциденте сотрудникам и совету директоров, но предпочли не предавать огласке. Они рассудили, что никакие данные клиентов или партнеров не были украдены, а хакером, скорее всего, был человек, не связанный с правительством. Но не все были довольны таким решением.
Леопольд Ашенбреннер, технический менеджер программ OpenAI, раскритиковал меры безопасности компании, заявив, что они недостаточны для предотвращения доступа иностранных противников к конфиденциальной информации. Позже его уволили за утечку информации, что, по его словам, было политически мотивированным. Несмотря на заявления Ашенбреннера, OpenAI утверждает, что его увольнение не было связано с его опасениями по поводу безопасности. Компания признала его вклад, но не согласилась с его оценкой своих методов обеспечения безопасности.
Инцидент усилил опасения по поводу потенциальных связей с иностранными противниками, особенно с Китаем. Однако OpenAI считает, что ее нынешние технологии искусственного интеллекта не представляют серьезной угрозы национальной безопасности. Тем не менее, можно предположить, что передача их китайским специалистам поможет им быстрее продвигать свои технологии искусственного интеллекта.
В ответ на взлом OpenAI, как и другие компании, усилила меры безопасности. Например, OpenAI и другие компании добавили защитные ограждения для предотвращения неправильного использования своих приложений искусственного интеллекта. Кроме того, OpenAI создала комитет по безопасности и защите, в который входит бывший глава АНБ Пол Накасоне, для устранения будущих рисков.
Другие компании, в том числе Meta, делают свои проекты искусственного интеллекта открытыми, чтобы способствовать общеотраслевым улучшениям. Однако это делает технологии доступными и для таких врагов Америки, как Китай. Исследования, проведенные OpenAI, Anthropic и другими, показывают, что современные системы искусственного интеллекта не более опасны, чем поисковые системы.
Рассматриваются федеральные и государственные постановления, которые будут контролировать выпуск технологий искусственного интеллекта и налагать штрафы за вредные последствия. Однако это больше похоже на предосторожность, поскольку эксперты полагают, что до самых серьезных рисков, связанных с ИИ, еще далеко.
Тем временем китайские исследователи искусственного интеллекта быстро продвигаются вперед, потенциально превосходя своих американских коллег. Этот быстрый прогресс вызвал призывы к ужесточению контроля над развитием ИИ, чтобы смягчить будущие риски.
Источник: Tomshardware.com
0 комментариев