Мошенники могут получить личные данные людей через нейросети. Как себя обезопасить?
Вся информация, которую пользователи загружают в чаты с искусственным интеллектом, может утечь в общий доступ, а далее попасть в руки недобросовестных рекламщиков, спамеров и мошенников. Это касается фото, видео, документов и личных переписок, рассказал Readovka Лука Сафонов, эксперт рынка информационной безопасности, бизнес-партнер по инновационному развитию компании «Гарда». Еще более опасный вариант — дать нейросетям доступ к файлам на компьютере (например, через кнопку уведомления в браузере): они смогут извлечь ваши личные данные.
Подобные сливы данных через ИИ происходят достаточно часто из-за непроработанной архитектуры таких систем и хакерских атак на них. Помимо этого, конкретный сервис может оказаться не сильно защищенным, и доступ ко всем перепискам с нейросетями сможет получить любой желающий. Если же пользователь захочет удалить диалог, то чат с ИИ в любом случае останется на сервере нейросети, так как переписки находятся на облачных хранилищах таких сервисов или связанных с ними ботов.
Чем не стоит делиться с нейросетью:
— Паспортными данными, номерами документов;
— Банковскими реквизитами, номерами карт;
— Финансовыми документами;
— Медицинскими записями с персональными данными;
— Конфиденциальными документами;
— Личными переписками без согласия участников диалога;
— Адресами и телефонами третьих лиц;
— Фото и видео интимного характера.
Один из наиболее громких случаев утечки персональных данных пользователей — взлом чат-бота DeepSeek в 2025 году. Тогда злоумышленники получили доступ ко всем данным нейросети, и под угрозой оказались секретные ключи, незашифрованные чаты и логи. Позже китайский разработчик устранил уязвимость, ограничил публичный доступ к сервису и удалил базу данных из интернета. 20 января 2026 года произошла самая масштабная утечка данных из популярного ИИ-приложения Chat & Ask AI. В открытом доступе оказалось более 300 миллионов записей, включая полную историю переписок 25 миллионов человек. Эксперт напоминает: не стоит делиться личной информацией с нейросетями и доверять ее ответам.
Подписывайтесь на Readovka
#Readovka_новости #Мошенничество #Нейросети
Вся информация, которую пользователи загружают в чаты с искусственным интеллектом, может утечь в общий доступ, а далее попасть в руки недобросовестных рекламщиков, спамеров и мошенников. Это касается фото, видео, документов и личных переписок, рассказал Readovka Лука Сафонов, эксперт рынка информационной безопасности, бизнес-партнер по инновационному развитию компании «Гарда». Еще более опасный вариант — дать нейросетям доступ к файлам на компьютере (например, через кнопку уведомления в браузере): они смогут извлечь ваши личные данные.
Подобные сливы данных через ИИ происходят достаточно часто из-за непроработанной архитектуры таких систем и хакерских атак на них. Помимо этого, конкретный сервис может оказаться не сильно защищенным, и доступ ко всем перепискам с нейросетями сможет получить любой желающий. Если же пользователь захочет удалить диалог, то чат с ИИ в любом случае останется на сервере нейросети, так как переписки находятся на облачных хранилищах таких сервисов или связанных с ними ботов.
Чем не стоит делиться с нейросетью:
— Паспортными данными, номерами документов;
— Банковскими реквизитами, номерами карт;
— Финансовыми документами;
— Медицинскими записями с персональными данными;
— Конфиденциальными документами;
— Личными переписками без согласия участников диалога;
— Адресами и телефонами третьих лиц;
— Фото и видео интимного характера.
Один из наиболее громких случаев утечки персональных данных пользователей — взлом чат-бота DeepSeek в 2025 году. Тогда злоумышленники получили доступ ко всем данным нейросети, и под угрозой оказались секретные ключи, незашифрованные чаты и логи. Позже китайский разработчик устранил уязвимость, ограничил публичный доступ к сервису и удалил базу данных из интернета. 20 января 2026 года произошла самая масштабная утечка данных из популярного ИИ-приложения Chat & Ask AI. В открытом доступе оказалось более 300 миллионов записей, включая полную историю переписок 25 миллионов человек. Эксперт напоминает: не стоит делиться личной информацией с нейросетями и доверять ее ответам.
Подписывайтесь на Readovka
#Readovka_новости #Мошенничество #Нейросети

Комментарии к этому посту не найдены. Прокомментируйте первым!