Профессор потерял два года научной работы в ChatGPT из-за одной настройки

Если вы когда-либо случайно удаляли рабочий файл, понимая, что у вас нет резервных копий, приготовьтесь посочувствовать. Марсель Бухер, профессор наук о растениях в Кёльнском университете, написал колонку для журнала Nature под названием «Когда два года академической работы исчезли одним щелчком мыши». Ой.

Бухер объясняет, что он использовал сервис OpenAI ChatGPT Plus в качестве помощника для ряда задач, включая написание писем, структурирование заявок на гранты, редактирование публикаций и анализ ответов студентов на экзаменах.

«Он был быстрым и гибким, и я считал его надежным в определенном смысле: он всегда был доступен, помнил контекст текущих бесед и позволял мне извлекать и дорабатывать предыдущие черновики», — говорит Бухер.

Он отмечает, что был хорошо осведомлен о том, что большие языковые модели могут выдавать уверенные, но иногда неверные утверждения, поэтому никогда не приравнивал их надежность к фактической точности, а полагался на непрерывность и кажущуюся стабильность рабочего пространства.

Однако в августе прошлого года Бухер временно отключил опцию «согласие на использование данных», потому что хотел проверить, останется ли у него доступ ко всем функциям модели, если он не предоставит OpenAI свои данные.

«В тот момент все мои чаты были окончательно удалены, а папки проектов опустели — два года тщательно структурированной академической работы исчезли», — говорит Бухер. — «Никакого предупреждения не появилось. Не было опции отмены. Просто пустая страница».

Профессор признает, что у него остались частичные копии некоторых бесед и материалов, но в остальном два года его научной работы канули в небытие. Он неоднократно обращался в службу поддержки OpenAI, но в итоге ему сообщили, что данные утеряны безвозвратно и не подлежат восстановлению.

«Это не был случай потери случайных заметок или праздных разговоров, — считает Бухер. — Это был интеллектуальный каркас, который строился в течение двух лет».

Он подчеркивает, что нас все чаще поощряют интегрировать генеративный ИИ в исследования и преподавание, однако его случай выявляет фундаментальную слабость: эти инструменты не были разработаны с учетом академических стандартов надежности и подотчетности.

Бухер продолжает:

«Если один щелчок может безвозвратно удалить годы работы, то ChatGPT, по моему мнению и на основе моего опыта, нельзя считать полностью безопасным для профессионального использования. Как платный подписчик (20 евро (~1800 руб.) в месяц), я предполагал, что будут приняты базовые защитные меры, включая предупреждение о необратимом удалении, опцию восстановления, хотя бы с ограничением по времени, а также резервные копии или избыточность».

Оказалось, что нет. Хотя OpenAI ранее оказывался в заголовках из-за проблем с конфиденциальностью, в данном случае его современная политика приватности, судя по всему, сработала именно так, как задумано.

«В конечном счете, OpenAI выполнил то, что они считали обязательством перед моей приватностью как пользователя, удалив мою информацию в ту же секунду, как я их об этом попросил», — резюмирует Бухер.

Этот инцидент служит важным напоминанием для всех, кто использует облачные ИИ-сервисы для важной работы. Даже платные сервисы могут не иметь надежных механизмов резервного копирования и восстановления данных пользователя. Эксперты рекомендуют всегда хранить критически важные данные и промежуточные результаты локально, используя облачные инструменты лишь как временное рабочее пространство или помощника для генерации идей, но не как единственное хранилище ценной интеллектуальной собственности.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии