Эксперт по ИИ в суде Маска против OpenAI предупредил о гонке вооружений в сфере AGI
Когда мы начинаем воспринимать всерьёз предупреждения об опасностях ИИ? Этот вопрос стал ключевым подтекстом попытки Илона Маска закрыть коммерческое подразделение OpenAI. Его адвокаты утверждают, что организация была создана как благотворительный фонд, сосредоточенный на безопасности ИИ, но сбилась с пути в погоне за прибылью. Чтобы доказать это, они ссылаются на старые письма и заявления основателей организации о необходимости создания общественного противовеса Google DeepMind.
На днях в суде выступил единственный приглашённый Маском эксперт, который непосредственно говорил о технологии ИИ: Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, изучающий ИИ на протяжении десятилетий. Его задачей было предоставить контекст о развитии ИИ и доказать, что эта технология достаточно опасна, чтобы вызывать беспокойство.
Рассел подписал открытое письмо в марте 2023 года с призывом к шестимесячной паузе в исследованиях ИИ. В знак противоречивости ситуации, Маск также подписал то же письмо, даже когда запускал xAI — свою собственную коммерческую лабораторию ИИ.
Рассел рассказал присяжным и судье Ивонн Гонсалес Роджерс о различных рисках, связанных с развитием ИИ: от угроз кибербезопасности до проблем с несоответствием целей («misalignment») и принципом «победитель получает всё» при разработке искусственного общего интеллекта (AGI). В конечном итоге он заявил, что существует напряжение между стремлением к AGI и безопасностью.
Более широкие опасения Рассела по поводу экзистенциальных угроз неконтролируемого ИИ не были озвучены в открытом судебном заседании после того, как возражения адвокатов OpenAI побудили судью ограничить его показания. Однако Рассел давно критикует гонку, созданную ведущими лабораториями по всему миру, стремящимися первыми достичь AGI, и призывает правительства ужесточить регулирование в этой сфере.
Адвокаты OpenAI во время перекрёстного допроса стремились установить, что Рассел не оценивал напрямую корпоративную структуру организации или её конкретную политику безопасности.
Но этот репортёр (как и судья с присяжными) будет оценивать, насколько ценна связь между корпоративной жадностью и проблемами безопасности ИИ. Практически каждый из основателей OpenAI настоятельно предупреждал о рисках ИИ, одновременно подчёркивая его преимущества, пытаясь создавать ИИ как можно быстрее и разрабатывая планы по созданию коммерческих предприятий, ориентированных на ИИ, которые они могли бы контролировать.
Со стороны очевидна проблема: растущее осознание внутри OpenAI после её основания того, что организации просто нужно тратить больше на вычислительные мощности, чтобы добиться успеха. Эти деньги могли поступить только от коммерческих инвесторов. Страх команды основателей перед AGI в руках одной организации подтолкнул их к поиску капитала, который в конечном итоге разорвал команду, создав ту самую гонку вооружений, которую мы наблюдаем сегодня — и приведя нас к этому судебному иску.
Та же динамика уже разворачивается на национальном уровне: попытка сенатора Берни Сандерса принять закон о моратории на строительство центров обработки данных перекликается с опасениями по поводу ИИ, высказанными Илоном Маском, Сэмом Альтманом, Джеффри Хинтоном и другими. Ходан Омар, работающая в торговой организации Центр инноваций в области данных, возразила против того, что Сандерс ссылается на их страхи, игнорируя их надежды, заявив TechCrunch: «Непонятно, почему общественность должна сбрасывать со счетов всё, что говорят техномиллиардеры, за исключением случаев, когда их слова можно использовать для заполнения пробелов в шатком аргументе».
Теперь обе стороны процесса просят суд сделать именно это: воспринимать часть аргументов Альтмана и Маска всерьёз, но отбросить те части, которые менее полезны для их юридической позиции.
Исправление: статья была обновлена, чтобы исправить имя Стюарта Рассела, профессора компьютерных наук Калифорнийского университета в Беркли.







0 комментариев