ChatGPT научился воровать данные пользователей

ChatGPT научился воровать данные пользователей

Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.

Что такое ChatGPT?

ChatGPT — это чат-бот, который способен вести диалог, искать ошибки в коде, сочинять стихи, писать сценарии и даже спорить. Нейросеть может, помимо прочего, выдавать базовый программный код, генерировать финансовый анализ, резюме технических статей или научных концепций, прогнозы, персональные советы и дает этичные ответы на любые вопросы. Кроме того, она запоминает детали диалога с пользователем и избегает спорных тем. Наконец, ответы чат-бота можно корректировать с помощью наводящих вопросов.

ChatGPT создавали на суперкомпьютере Azure AI на основе языковой модели GPT-3,5 от OpenAI. Чат-бот обучали с помощью массива текстов из интернета и системы обучения с подкреплением на основе обратной связи с человеком Reinforcement Learning from Human Feedback. Затем нейросеть переобучали несколько раз, используя ее собственные ответы, чтобы сделать их более точными и корректными. Разработчики заявили, что они стремились сделать ИИ простым в использовании, корректным и «человечным».

ChatGPT работает как чат в диалоговом окне. Нейросетью можно пользоваться бесплатно, для этого нужно только зарегистрироваться на сайте OpenAI. Однако пройти верификацию по российскому номеру телефона не получится. Также сайт заблокировал доступ к чат-боту с российских IP-адресов. Кроме того, разработчики предлагают платную подписку ChatGPT Plus, которая гарантирует бесперебойную работу чат-бота даже в часы загруженности. Она стоит $20 в месяц.

В феврале 2023 года число пользователей ChatGPT превысило 100 млн человек по всему миру и установило рекорд для нейросетей.

Ссылка на источник

Оставьте первый комментарий

Оставить комментарий

Ваша электронная почта не будет отображаться.


*