Известный профессор советует никогда не писать это в Chat-GPT

Известный профессор компьютерных наук

Когда речь заходит о Chat-GPT и других инструментах искусственного интеллекта, мнения пользователей часто делятся на две противоположные группы. Одни скептически настроены и никогда не поверят ни единому слову от «цифрового собеседника». Другие же используют его ежедневно — для работы, написания текстов, поиска идей, а иногда и для решения личных проблем.

Согласно последним исследованиям и многочисленным публикациям в социальных сетях, всё больше людей воспринимают Chat-GPT как своеобразного цифрового психолога или друга. К нему обращаются за советами, делятся личными переживаниями, надеются на понимание и поддержку. Однако эксперты предупреждают: такой подход может быть опасен — как с эмоциональной точки зрения, так и с точки зрения конфиденциальности.

ИИ не заменит эмпатию

Майк Вулдридж, профессор компьютерных наук Оксфордского университета, отмечает, что многие пользователи ошибочно воспринимают Chat-GPT как разумную систему, способную к эмпатии.

 Chat-GPT не обладает состраданием, он не знает, что такое настоящие эмоции. Это не человек, а программа, созданная для того, чтобы формировать наиболее правдоподобный ответ на основе текстовых данных. Он говорит то, что, как ему кажется, вы хотите услышать, но за этим не стоит подлинного опыта или понимания, — предупреждает профессор.

Человеческие отношения строятся на эмоциях, сочувствии, личных историях и взаимопонимании. Ни один алгоритм не способен воспроизвести весь этот спектр человеческих чувств. Поэтому доверять Chat-GPT как близкому другу или психотерапевту — это иллюзия, которая может привести к разочарованию.

Риски конфиденциальности и хранения данных

Помимо эмоциональных опасностей, есть серьёзные вопросы о конфиденциальности. Когда мы делимся с Chat-GPT личными переживаниями или важными данными, невозможно на 100% быть уверенными, как именно эти данные будут использованы. Некоторые сервисы ИИ сохраняют истории запросов и используют их для дальнейшего обучения модели.

В 2023 году Италия стала первой западной страной, временно запретившей Chat-GPT. Итальянское агентство по защите данных заявило, что модель собирает и использует пользовательскую информацию — включая историю чатов и платежные данные — для своего обучения, что потенциально нарушает законы о конфиденциальности. Этот случай вызвал оживлённые дискуссии о том, насколько безопасно доверять подобным инструментам.

Этическая сторона обучения ИИ

Мало кто задумывается, что создание подобных моделей сопровождается не только техническими, но и этическими проблемами. Во время разработки Chat-GPT часть работы была возложена на сотрудников из бедных стран, например, из Кении. Они должны были вручную отсортировать огромные массивы данных, в том числе материалы с насилием, расизмом, сексуальными оскорблениями.

Эти люди, получавшие крайне низкую зарплату, подвергались сильному психологическому стрессу. Их труд позволил «очистить» данные, чтобы модель могла давать адекватные ответы и не распространять травмирующий контент. Но цена этого процесса — реальное страдание и травмы реальных людей.

ИИ — инструмент, а не личность

Chat-GPT может быть крайне полезным: он помогает формулировать идеи, писать тексты, учить языки, создавать резюме, находить факты и даже развлекать. Но важно помнить, что это лишь инструмент. Он не понимает контекста в человеческом смысле, не переживает эмоций и не несёт ответственности за свои ответы.

Попытки «подружиться» с ИИ или воспринимать его как замену психотерапевту могут привести к искажённому восприятию реальности. Да, алгоритм способен сымитировать поддерживающий разговор, но не может предложить настоящей эмпатии, основанной на человеческом опыте.

Как безопасно использовать Chat-GPT

  1. Не делитесь личными данными. Никогда не отправляйте ИИ пароли, банковские реквизиты или интимные истории, если не хотите, чтобы они где-то сохранились.
  2. Не воспринимайте ответы как истину в последней инстанции. Chat-GPT может ошибаться, искажать факты или давать некорректные советы.
  3. Используйте ИИ как вспомогательный инструмент. Он может помочь собрать информацию, но окончательное решение всегда остаётся за человеком.
  4. Сохраняйте критическое мышление. Проверяйте источники, перепроверяйте факты и не доверяйте алгоритму слепо.
  5. Не заменяйте человеческое общение. Если нужна поддержка, лучше обратиться к друзьям, близким или профессиональному психологу.

Вывод

Искусственный интеллект — мощный и полезный инструмент, но он не является другом, терапевтом или человеком, которому можно безоговорочно доверять. Chat-GPT может понимать текст, но не понимает чувств. Он может хранить ваши данные, но вы не знаете, где они окажутся в будущем.

Прежде чем делиться с ИИ своими секретами, стоит хорошенько подумать. Умение использовать такие технологии ответственно — это важный навык XXI века.

Выбор редакции