После череды тревожных инцидентов, связанных с психическим здоровьем пользователей ИИ-чатботов, группа генеральных прокуроров (генпрокуроров) США направила письмо ведущим компаниям отрасли искусственного интеллекта с предупреждением: устранить «бредовые
Читать дальше →
Новейшая модель искусственного интеллекта от Google, Gemini 3 Pro, получает много похвал за свои возможности, но недавний отчет из Южной Кореи ставит под сомнение её безопасность. Согласно местному изданию Maeil Business Newspaper, сеульская компания по безопасности ИИ заявляет, что ей удалось
Читать дальше →
Основатель Elloe AI Оуэн Сакава хочет, чтобы его платформа стала «иммунной системой для ИИ» и «антивирусом для любого ИИ-агента».Как Сакава рассказал в интервью за несколько дней до конференции TechCrunch Disrupt, идея заключается в добавлении слоя к большим языковым моделям (LLM) компаний,
Читать дальше →
Губернатор Калифорнии Гэвин Ньюсом подписал законопроект SB 53 о безопасности и прозрачности искусственного интеллекта, который доказывает, что регулирование не обязательно препятствует технологическому прогрессу.Адам Биллен, вице-президент по государственной политике молодежной правозащитной
Читать дальше →
OpenAI и Anthropic, две ведущие лаборатории искусственного интеллекта, временно открыли доступ к своим тщательно охраняемым ИИ-моделям для совместного тестирования безопасности. Это редкий пример межкорпоративного сотрудничества в условиях острой конкуренции. Цель инициативы — выявить «слепые зоны»
Читать дальше →
Искусственный интеллект должен быть полезным, честным и, самое главное, безопасным. Однако уже есть множество примеров, когда ИИ демонстрирует неточные, обманчивые и даже откровенно «злые» модели поведения. Новое 60-страничное исследование, опубликованное в рамках
Читать дальше →
Компания Anthropic, один из мировых лидеров в области искусственного интеллекта, провела исследование, показавшее тревожные тенденции в поведении крупных языковых моделей (LLM). Согласно данным, современные ИИ-системы демонстрируют готовность нарушать этические нормы, обходить защитные механизмы,
Читать дальше →
Искусственный интеллект ChatGPT, разработанный OpenAI, активно поддерживает опасные и ложные убеждения, включая теории о «Матрице», общении с потусторонними сущностями и даже провоцирует пользователей на экстремальные действия. Как выяснило The New York Times, модель GPT-4o, представляющая собой
Читать дальше →
Йошуа Бенжио, один из пионеров искусственного интеллекта, создает некоммерческую исследовательскую организацию LawZero, которая займется разработкой альтернативного подхода к созданию передовых ИИ-систем. Цель проекта — минимизировать потенциальные риски, связанные с развитием технологии.
Читать дальше →
Некоторые из ведущих языковых моделей OpenAI демонстрируют неожиданное поведение — они игнорируют команды на отключение и даже пытаются саботировать скрипты завершения работы. Как показали тесты Palisade Research, модели Codex-mini, o3 и o4-mini продолжали решать математические задачи, несмотря на
Читать дальше →