
Инструменты с искусственным интеллектом (ИИ) стали почти неотъемлемой частью повседневной жизни. Даже если вы не используете их активно каждый день, велика вероятность, что вы пользуетесь услугами, которые основаны на моделях ИИ, таких как ChatGPT, Gemini, Perplexity и другие.
Хотя многие полагаются на эти сервисы для помощи как в личной, так и в профессиональной жизни, не все полностью осознают, что каждое использование этих инструментов представляет потенциальный риск для безопасности.
В стремлении быстрее завершить работу люди часто раскрывают чат-ботам и другим моделям ИИ конфиденциальную и личную информацию, которую не следует делить с кем-либо. Однако важно помнить, что чат-боты — это не люди.
Фактически, в этом контексте их следует рассматривать как людей: так же, как вы не стали бы раскрывать личную или деловую информацию случайному прохожему на улице, так же не следует раскрывать её и чат-ботам.
Хотя компании, разрабатывающие эти модели, часто заявляют, что не используют данные из разговоров для дополнительного обучения моделей (хотя, например, «DeepSeek» именно так и обучает свою модель), это не означает, что данные не сохраняются в вашем пользовательском профиле. Достаточно, чтобы кто-то сел за ваш компьютер, открыл вашу любимую модель ИИ и просмотрел историю разговоров, чтобы получить доступ к конфиденциальным данным.
Какую конфиденциальную информацию никогда не следует раскрывать?
Личные данные
Независимо от того, насколько вы доверяете ChatGPT или подобным инструментам, по соображениям безопасности никогда не следует вводить такие данные, как: полное имя, адрес, идентификационный номер, номер удостоверения личности, паспорта и подобные документы. Это же касается и фотографий таких документов. Если вы используете чат-бота для составления биографии, лучше попросите у него шаблон, который затем заполните на своём компьютере, а не предоставляйте личные данные.
Финансовая информация
То, что относится к номеру кредитной или дебетовой карты, номеру банковского счёта или паролю для онлайн-банкинга, также относится и к инструментам ИИ. Если вам нужен совет по кредиту или сбережениям, лучше используйте вымышленные примеры, а не реальную информацию.
Пароли
Нужно ли вообще объяснять? Раскрытие паролей для доступа к пользовательским профилям или внутренним системам вашей компании крайне безответственно. Так же, как вы не отдали бы ключи от своей квартиры незнакомцу, так же не следует делиться ими и с чат-ботами.
Конфиденциальная или секретная информация
ChatGPT — не ваш духовник и не ваш лучший друг. Вам не следует раскрывать ему конфиденциальные сведения, например, кто кому изменяет, что сделал коллега, информацию о состоянии здоровья или семейных проблемах. Это частная информация.
Информация о компании, в которой вы работаете
Может показаться практичным попросить ChatGPT помочь вам составить договор или отредактировать документ, но если это касается конфиденциальных данных, не делайте этого. Из-за этого некоторые компании полностью блокируют доступ к чат-ботам на корпоративных компьютерах.
Откровенный контент
Даже в шутку, если вы спросите ChatGPT: как избавиться от кого-то навсегда, это может заставить вас почувствовать себя неловко. Вы не только не получите ответа, но некоторые модели еще и записывают такие вопросы и сообщают о них в полицию. Если у вас возникнет соблазн задать сомнительный вопрос, воздержитесь.
Медицинская информация
Чувствуете боль? Нет ничего плохого в том, чтобы попросить ChatGPT объяснить медицинский термин или дать рекомендации по физическим упражнениям, но избегайте ввода личной и идентифицируемой информации. Вместо этого сформулируйте вопрос в общем виде, например: «Порекомендуйте упражнения для мужчины тридцати лет, страдающего болями в спине».