Люди неформально общаются с чат-ботами, вводя искусственный интеллект в заблуждение

Исследования показывают, что люди

В последние годы искусственный интеллект всё глубже интегрируется в повседневное общение. Люди заказывают еду, решают рабочие задачи, консультируются и даже делятся эмоциями с чат-ботами, созданными на основе больших языковых моделей. Однако новые исследования показывают, что привычка к неформальному стилю общения с ИИ может неожиданным образом снижать качество взаимопонимания между человеком и машиной.

Учёные из Калифорнийского университета Фулей Чжан и Чжоу Юй выяснили, что способ, которым пользователи формулируют свои мысли, напрямую влияет на точность ответов чат-ботов. Их работа демонстрирует: если человек выбирает более простой, сокращённый и разговорный стиль, модель хуже улавливает истинные намерения собеседника.

Менее формально — значит менее понятно

Исследователи сравнили, как пользователи взаимодействуют с человеческими операторами и с искусственными агентами. В эксперименте использовались реальные записи диалогов, а также аналитические инструменты на базе модели Claude 3.5 Sonnet, разработанной компанией Anthropic. Модель оценивала три ключевых параметра: уровень вежливости, грамматическую беглость и разнообразие словарного запаса.

Результаты оказались весьма показательными. Пользователи в среднем общались с чат-ботами на 14,5% менее формально и вежливо, чем с живыми агентами. Их речь была на 5,3% менее беглой и на 1,4% беднее по словарю. Вместо сложных конструкций и подробных пояснений они чаще использовали короткие, прямые и упрощённые фразы.

По словам Чжан и Юй, такое поведение связано с тем, что люди воспринимают чат-ботов как безличных помощников, не требующих социальных условностей. Иными словами, с машиной можно говорить проще и прямее, не заботясь о тонкости выражений или вежливости. Однако именно эти «смягчающие» элементы языка помогают алгоритмам точнее улавливать контекст. Когда они исчезают, вероятность неправильного понимания запроса возрастает.

Когда ИИ не понимает человека

На втором этапе исследования команда проверила, как языковые модели справляются с реальными пользовательскими сообщениями. Для этого они обучили модель Mistral 7B на 13 000 диалогах между людьми, а затем протестировали её на 1357 взаимодействиях пользователей с чат-ботами. Оказалось, что ИИ, привыкший к «человеческому» стилю речи, часто ошибался при интерпретации коротких, обрывочных и неформальных запросов.

Модель пыталась искать скрытые значения там, где их не было, и ошибочно трактовала простые команды как сложные намерения. Иными словами, из-за разницы в стилистике общения машина теряла способность точно определять смысл, даже если грамматически сообщение было корректным.

Учёные сделали вывод, что основная трудность заключается не в недостатках алгоритма, а в несоответствии между тем, как люди говорят с ИИ, и тем, как его обучают понимать язык.

Попытки адаптировать стиль

Чтобы проверить, можно ли повысить точность, исследователи провели серию экспериментов по адаптации сообщений пользователей. Они использовали два подхода: «минимальную» обработку, при которой стиль немного приближался к разговорному человеческому, и «обогащённую», где сообщения становились более формальными и грамматически точными.

Результаты оказались неоднозначными. При «минимальной» адаптации точность ответов снизилась на 2,6%, при «обогащённой» — на 1,8%. Однако комбинированный метод, где стиль сообщений сбалансирован между человеческим и машинным, дал противоположный эффект: точность выросла на 2,9%.

Этот вывод стал ключевым: важно не просто улучшать модели, а создавать гибкие системы, способные адаптироваться к различным стилям общения. Подобный подход делает взаимодействие с ИИ более естественным и эффективным, особенно в повседневных и сервисных сценариях.

Социальная сторона цифрового общения

Не все эксперты считают неформальность в диалогах с ИИ проблемой. Профессор Ноа Джансиракус из Университета Бентли, который не участвовал в исследовании, отмечает, что сам факт различий в стиле — это положительное явление.

«Хорошо, когда люди понимают, что разговаривают с машиной, а не с человеком, и адаптируют своё поведение, — говорит он. — Это снижает ожидания и помогает использовать ИИ более прагматично. Главное — чтобы пользователи ясно осознавали границы возможностей таких систем».

По его мнению, чрезмерная формальность может даже мешать пользователям, создавая иллюзию, что ИИ «думает» как человек, тогда как на деле он всего лишь обрабатывает текстовые шаблоны.

Эволюция общения с ИИ

Исследование Чжан и Юй показывает, что взаимодействие человека и машины становится новым видом языкового поведения. Если раньше мы учились разговаривать с компьютером «на его языке», вводя команды и запросы, то теперь модели учатся понимать нас — со всеми ошибками, эмоциями и индивидуальными особенностями речи.

Будущее, вероятно, лежит в балансе: пользователи будут постепенно вырабатывать особый «гибридный стиль», сочетающий естественность человеческого общения с ясностью, необходимой для машинного понимания. В ответ ИИ будет развивать способность контекстуально интерпретировать даже неформальные или эмоциональные высказывания.

Что дальше?

Адаптация языковых моделей к повседневной речи открывает путь к более человечным технологиям. Компании-разработчики уже работают над системами, которые смогут корректировать и интерпретировать запросы без потери смысла, независимо от стиля, длины или эмоционального окраса сообщений.

С каждым поколением ИИ становится всё более «гибким» и «контекстным», но успех этого процесса во многом зависит от того, насколько пользователи осознают важность языка, который они используют. Ведь общение с искусственным интеллектом — это не просто обмен фразами, а взаимодействие двух систем мышления: человеческой и машинной.

Итог

Исследование Чжан и Юй показывает, что качество диалога с ИИ напрямую зависит от того, как мы говорим. Простые слова, короткие фразы и небрежный стиль снижают точность понимания. А значит, будущее искусственного интеллекта — это не только мощные алгоритмы, но и умение понимать человеческий язык во всём его многообразии.

Выбор редакции