Насколько безопасно загружать свои фотографии в ChatGPT?. ai.. ai. artificial intelligence.. ai. artificial intelligence. cybersecurity.. ai. artificial intelligence. cybersecurity. Блог компании Технократия.. ai. artificial intelligence. cybersecurity. Блог компании Технократия. ИИ.. ai. artificial intelligence. cybersecurity. Блог компании Технократия. ИИ. инфобез.. ai. artificial intelligence. cybersecurity. Блог компании Технократия. ИИ. инфобез. Информационная безопасность.. ai. artificial intelligence. cybersecurity. Блог компании Технократия. ИИ. инфобез. Информационная безопасность. искусственный интеллект.. ai. artificial intelligence. cybersecurity. Блог компании Технократия. ИИ. инфобез. Информационная безопасность. искусственный интеллект. персональные данные.
Насколько безопасно загружать свои фотографии в ChatGPT? - 1

Пользователи ИИ предполагают, что их данные защищены. Но это может оказаться опасным заблуждением.

Все больше людей обращаются к чат-ботам не только с текстовыми запросами, но и с визуальными — загружают фотографии, чтобы определить высыпания, узнать название растения во дворе или отредактировать портрет для LinkedIn.

Однако по мере того, как взаимодействие с искусственным интеллектом через изображения становится привычным, эксперты по приватности предупреждают: пользователи могут делиться куда большим, чем они осознают.

Дисклеймер: это вольная адаптция статьи издания The Wall Street Journal. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про AI, а также делимся полезными мастридами и актуальными событиями.

Если у вас стоит задача интеграции ИИ в бизнес-процессы, то напишите нам.

Компании-разработчики ИИ нередко представляют загрузку изображений как временный процесс. Но что происходит с фотографиями после завершения сессии — вопрос гораздо менее прозрачный. С этим связаны риски: технические уязвимости, непоследовательные и размытые политики компаний и неопределенные сценарии дальнейшего использования данных.

«Важно не загружать фотографии, которые вы не хотите показывать никому, кроме себя», — отмечает Джейкоб Хоффман-Эндрюс, старший технолог в правозащитной организации Electronic Frontier Foundation. Но на деле слишком многие пользователи ИИ (как и интернета в целом) полагаются на приватность, которой может и не быть.

Что на самом деле показывают ваши снимки

По словам Хоффмана-Эндрюса, чат-боты с ИИ следует воспринимать как еще одно хранилище для ваших снимков — наподобие iCloud или Google Photos, но с дополнительными рисками. Самый очевидный из них — безопасность: такие сервисы могут быть взломаны, а учетные записи пользователей — скомпрометированы.

Но дело не только в этом. Компании сами имеют доступ к пользовательским данным. Чтобы оценить эффективность работы моделей, они регулярно просматривают выборку взаимодействий — в том числе загруженные фотографии. Это называется «человеческий контроль в цикле». То есть даже если пользователь удаляет переписку, она и её элементы могли уже попасть на проверку.

Это может показаться безобидным, если речь идет о фото цветка или снимке руки с сыпью. Но изображения зачастую содержат больше, чем намеревался показать человек. В них есть метаданные — например, место и время съемки.

Кроме того, на фото высокого разрешения фон может непреднамеренно захватить документы или банковские карты на столе. На снимке могут оказаться детали дома или офиса, а также биометрические данные других людей.

Если компании не удаляют метаданные, они получают целый массив информации о ваших привычках, местоположении и образе жизни, отмечает Дженнифер Кинг, эксперт по политике приватности Стэнфордского института человеко-ориентированного ИИ.

Это означает, что пользователи иногда невольно предоставляют компаниям бесплатные тренировочные данные для их моделей — и вряд ли согласились бы на это, имей они выбор.

А что по поводу политики персональных данных?

Вместе с метаданными существуют и разные подходы компаний к самим изображениям. Исследование Кинг показало: Microsoft не использует фотографии для обучения Copilot. Аналогично поступает Anthropic, разработчик моделей Claude. OpenAI же, напротив, применяет все данные для обучения, если пользователь сам не отказался от этого. Meta*, по данным Кинг, не дает пользователям в США такой возможности вовсе.

Хотя обычные фотографии вроде снимка из отпуска растворяются в массиве данных, некоторые изображения несут повышенный риск быть «запомненными» системой. Хоффман-Эндрюс выделяет два типа: фото, часто встречающиеся в сети (например, знаменитый снимок «Афганской девочки»), и снимки с уникальными чертами, делающими их статистическими аутлайерами.

Для большинства пользователей вероятность увидеть точное воспроизведение личных фото минимальна. Но проблема в том, что системе не нужно идеально копировать изображение, чтобы создать риск. Достаточно повторить характерную родинку, заметное заболевание или набор признаков, по которым фото можно опознать.

В зону риска также попадают фотографии, используемые для создания аниме-персонажей, профессиональных портретов или «омоложения» лица. Такие приложения требуют четких изображений лица, содержащих уникальные биометрические данные.

Даже внимательные к приватности пользователи могут столкнуться с нежелательной оглаской из-за путаных настроек. Так, когда Meta* запустила свой чат-бот, оказалось, что часть разговоров с загруженными фото и реальными именами оказалась доступна в общем публичном ленте приложения.

Неожиданное использование

Долгосрочный риск, предупреждает Сара Майерс Уэст, сопредиректор AI Now Institute, в том, что сегодняшние загрузки могут однажды использоваться совсем иначе, чем задумывалось изначально.

Microsoft, Anthropic, Meta* и OpenAI утверждают, что не передают данные третьим лицам. Но компании могут сохранять фотографии, и пользователи не могут предсказать, каким образом они будут использоваться, когда технологии и стратегии бизнеса изменятся.

«Все, что вы загружаете, продолжает жить гораздо дольше того момента, когда вы взаимодействуете с системой», — говорит Уэст.

Что нужно проверить перед тем, как загружать фото в LLM

  • Ознакомьтесь с политикой использования данных и настройками обучения платформы

  • Отключите сохранение истории чатов

  • Не загружайте изображения с данными, которые могут вас идентифицировать, например с адресом

  • Не загружайте фотографии, которые вы не хотели бы, чтобы кто-то увидел или повторно использовал

*Meta признана экстремистской организацией и запрещена на территории РФ.

Автор: madballer34

Источник

Rambler's Top100