Новости AiBox

Утечка публичных запросов к ChatGPT и индексация ответов поисковиками

2025-08-06 09:34 новости Ai
Инцидент заставил OpenAI экстренно отключить спорную функцию и пересмотреть подходы к защите пользовательских данных

Механизм утечки данных

Причиной массового попадания чатов в поисковую выдачу стала функция "Поделиться", введённая OpenAI в мае 2023 года. Пользователи могли создавать публичные ссылки на свои диалоги с ChatGPT для отправки друзьям или коллегам. При создании таких ссылок система предлагала поставить галочку "Сделать чат доступным для обнаружения".

Проблема заключалась в том, что многие пользователи не понимали последствий активации этой функции. Они думали, что делятся переписками только с конкретными людьми, но на самом деле открывали их для индексации поисковыми роботами Google, Bing и других систем. В результате достаточно было ввести в поисковой строке запрос типа `site:chat.openai.com/share [ключевое слово]`, чтобы получить доступ к тысячам чужих разговоров.

Масштаб проблемы

В открытом доступе оказались различные типы конфиденциальной информации:

- Личные данные: имена, адреса, медицинские сведения, семейные проблемы
- Профессиональная информация: внутренние документы компаний, коммерческие стратегии
- Технические данные: API-ключи, пароли, токены доступа к платным сервисам
- Интимные откровения: разговоры о зависимостях, психическом здоровье, личных переживаниях

Особую тревогу экспертов вызвал тот факт, что ChatGPT часто используется как "цифровой психолог", которому пользователи доверяют самые сокровенные мысли. Молодёжь особенно активно применяет ИИ для решения личных и эмоциональных проблем, не подозревая о рисках утечки.

Реакция компаний

После публикации журналистских расследований и вирусного распространения скриншотов в социальных сетях OpenAI была вынуждена действовать оперативно. 31 июля 2025 года директор по информационной безопасности компании Дейн Стаки объявил об отключении функции индексации чатов.

OpenAI назвала произошедшее "кратковременным экспериментом", который "создавал слишком много возможностей для случайного распространения контента". Компания также начала процесс удаления уже проиндексированного контента из поисковых систем.

Google, со своей стороны, подчеркнул, что не инициирует индексацию таких страниц — ответственность за публикацию лежит на OpenAI и пользователях. Поисковая система работает согласно стандартным алгоритмам: если страница общедоступна и не заблокирована файлом robots.txt, она попадает в индекс.

История утечек

Этот инцидент стал лишь последним в серии проблем с безопасностью данных ChatGPT. В марте 2023 года произошла утечка из-за ошибки в библиотеке Redis, когда 1,2% пользователей ChatGPT Plus могли видеть личные данные других пользователей, включая имена, email-адреса и платёжную информацию.

В 2023 году также вскрылась масштабная утечка более 100 000 учётных записей ChatGPT на чёрных рынках даркнета. Однако эта утечка была связана с вредоносным ПО на устройствах пользователей, а не с взломом серверов OpenAI.

Технические аспекты индексации

Поисковые системы индексируют контент ChatGPT по тем же принципам, что и обычные веб-страницы. Когда пользователь создаёт публичную ссылку и разрешает её обнаружение, она становится доступной для краулеров Google и других поисковиков.

OpenAI использует несколько типов ботов для разных целей:
- OAI-SearchBot — основной краулер для поиска
- ChatGPT-User — обработка запросов в реальном времени
- GPTBot — обучение моделей ИИ

Владельцы сайтов могут контролировать доступ этих ботов через файл robots.txt, но в случае с публичными ссылками ChatGPT такой контроль отсутствовал.

Меры защиты для пользователей

Для предотвращения подобных инцидентов эксперты рекомендуют:

  1. Проверить существующие ссылки**: в настройках ChatGPT → "Элементы управления данными" → "Общие ссылки"
  2. Удалить ненужные публичные ссылки** через интерфейс управления
  3. Избегать размещения конфиденциальной информации** в чатах с ИИ
  4. Внимательно изучать опции** при создании публичных ссылок

Случившееся подчеркнуло важность цифровой грамотности и понимания пользователями последствий своих действий в интернете. Даже добровольные функции обмена могут нести неожиданные риски для приватности, особенно когда интерфейс не даёт чёткого понимания возможных последствий.