Возможности больших языковых моделей, таких как ChatGPT, изменили методы работы многих людей. Однако недавний случай показывает, что использование этих инструментов может быть сопряжено с риском. Профессор Марсель Бухер из Кельнского университета утверждает, что он потерял два года академической работы из-за простого изменения настроек - заявки на гранты, учебные материалы и черновики публикаций внезапно исчезли.
По всей видимости, Бухер намеревался отключить опцию, позволяющую использовать данные для обучения моделей. Согласно его заявлениюэто действие привело к удалению всей истории его чата. В статье , опубликованной в журнале Natureон описывает попытки различными способами восстановить доступ к данным и чатам. Попытки связаться с OpenAI оказались столь же бессмысленными для профессора. Согласно заявлениям профессора, данные были безвозвратно удалены и не могли быть восстановлены. OpenAI ссылается на принцип "Privacy by Design", означающий, что данные удаляются без следа. Для Бухера вывод очевиден: "Если один щелчок может безвозвратно удалить годы работы, то ChatGPT, по моему мнению и на основании моего опыта, не может считаться полностью безопасным для профессионального использования"
Тем не менее, в ChatGPT есть функция резервного копирования. ИИ предлагает простой метод загрузки всех чатов и данных. Опцию "Экспортировать данные" можно найти в настройках в разделе "Контроль данных" Через несколько минут или часов ссылка на скачивание ZIP-файла, содержащего всю сохраненную информацию, будет отправлена по электронной почте. В зависимости от объема данных, хранящихся в ChatGPT, компиляция архива может занять некоторое время. После отправки письма ссылка на скачивание остается действительной в течение 24 часов. Резервное копирование - неотъемлемая часть работы с компьютером, и, вероятно, им не стоит пренебрегать и при использовании инструментов искусственного интеллекта.
Описанный сценарий не удалось повторить в ходе недавней самопроверки. При отключении обмена данными в целях обучения существующие чаты оставались нетронутыми и доступными. Выбор опции удаления всех чатов вызвал явное предупреждение, требующее подтверждения. Поскольку потеря данных , описанная в журнале Nature произошла еще в августе, OpenAI мог с тех пор внести коррективы в пользовательский интерфейс и механизмы безопасности, чтобы предотвратить случайное удаление.








