Автор: Андрей Краснов
Ульянов: использование нейросетей может привести к утечке личных данных
Использование нейросетей, таких как ChatGPT, сопряжено с определенными рисками для конфиденциальности данных пользователей. Несмотря на то что разработчики искусственного интеллекта внедряют системы защиты, вероятность утечки личной информации никогда не исключена полностью, как и в случае с любыми другими онлайн-сервисами, сообщает Общественная Служба Новостей.
Граждан РФ стали чаще хоронить в двойных гробах из-за ожиренияОсновная угроза заключается в том, что злоумышленники, имея доступ к чувствительной информации, такой как история запросов, документы или данные аккаунтов, которыми пользователи могли делиться с нейросетями, могут использовать ее в своих мошеннических схемах.
Об этом, а также о возможных сценариях утечек и мерах предосторожности при использовании ИИ, рассказал руководитель аналитического центра компании Zecurion и эксперт по кибербезопасности Владимир Ульянов.
Недавно стало известно об инциденте с китайской нейросетью DeepSeek, в котором произошла утечка данных из-за неограниченного доступа к одной из ее баз. Уязвимость была вскоре устранена специалистами по кибербезопасности из компании Wiz, однако информация о том, использовалась ли она для кражи личных данных пользователей, остается неизвестной.
Важно отметить, что на прошлой неделе мобильное приложение DeepSeek стало одним из самых скачиваемых в мире, привлекая внимание многих пользователей, в том числе из России, поскольку китайский разработчик не вводит для них ограничений, в отличие от американских технологических компаний.
Ранее «Национальная лента новостей» сообщала, что шоумен Гоген Солнцев признался о желании стать отцом во второй раз.