С развитием технологий искусственного интеллекта, таких как Chat-GPT от OpenAI, появляется всё больше угроз, связанных с фальшивыми отзывами и рекомендациями. Эти инструменты позволяют мошенникам массово генерировать поддельные отзывы, что создает значительные проблемы как для потребителей, так и для производителей. Неразборчивость в вопросах подлинности контента приводит к снижению доверия со стороны пользователей, а также усложняет задачу для компаний, стремящихся поддерживать честность и прозрачность на онлайн-платформах.
Фальшивые отзывы стали актуальной проблемой ещё до появления искусственного интеллекта. Они активно распространялись через частные группы в социальных сетях или продавались в виде вознаграждений — например, в виде подарочных карт. С развитием технологий ИИ ситуация только ухудшилась. Сегодня мошенники могут использовать генеративные модели для создания поддельных отзывов в массовом порядке, что значительно ускоряет процесс и делает его более эффективным.
Мори Блэкман, консультант в области технологий, отметил, что инструменты искусственного интеллекта предоставляют мошенникам идеальные возможности для быстрого создания фальшивых оценок. И если раньше мошенники использовали обычные методы подделки, такие как заказ фальшивых отзывов или их покупку, то теперь с помощью ИИ они могут создавать целые наборы поддельных текстов, которые выглядят настолько правдоподобно, что у обычного пользователя не возникает сомнений.
Недавний анализ, проведённый исследовательской компанией Transparency, показал, что из 73 миллионов отзывов, оставленных пользователями по различным товарам и услугам, почти 14% могут быть фальшивыми, а около 2,3 миллиона явно созданы с помощью искусственного интеллекта. Эти данные являются тревожным сигналом, особенно в преддверии сезонных распродаж, когда потребители активно ориентируются на мнения других людей при принятии решений о покупке. Особенно важно то, что большая часть этих фальшивых отзывов касается товаров и услуг, которые люди выбирают на основании доверия к отзывам. Это могут быть как товары, так и медицинские, юридические или домашние услуги.
Не только обычные магазины сталкиваются с этим явлением — с фальшивыми отзывами теперь борются и в магазинах приложений. Например, компания Double Verify сообщает о росте использования ИИ для продвижения поддельных приложений. Такие приложения зачастую имеют высокие оценки, но на деле оказываются неэффективными или даже опасными для пользователей, поскольку могут красть личные данные или содержат навязчивую рекламу.
Проблема усугубляется тем, что платформы, такие как Amazon, сталкиваются с большими трудностями при выявлении фальшивых отзывов. Как отметил Макс Сперо, генеральный директор компании Pangram Labs, даже хорошо проработанные тексты, созданные ИИ, не всегда можно отличить от настоящих. Многие из таких комментариев кажутся подробными и правдоподобными, что затрудняет их распознавание как фальшивок.
Для борьбы с этим технологические компании начинают внедрять новые алгоритмы и механизмы для отслеживания и предотвращения использования искусственного интеллекта для создания поддельных мнений. Например, Amazon и Trustpile разработали систему, которая разрешает использование ИИ в обзорах, если они действительно отражают личный опыт пользователей. Однако другие платформы предпочитают более жесткие меры и требуют, чтобы каждый комментарий был оригинальным и написан человеком. Эти правила направлены на повышение прозрачности и уменьшение масштабов использования фальшивых отзывов.
Но, несмотря на все усилия по борьбе с мошенничеством, задача остаётся крайне сложной. Эксперты в области технологий рекомендуют пользователям быть осторожными при оценке мнений, особенно если они содержат чрезмерно восторженные или шаблонные фразы. Такие тексты часто создаются с использованием ИИ и могут содержать пустые, обтекаемые выражения, которые мало что говорят о реальном опыте с продуктом.
К сожалению, даже опытные пользователи все чаще сталкиваются с проблемой различения отзывов, созданных человеком и машиной. Исследования, например, работы профессора Балаша Ковача из Йельского университета, показывают, что несмотря на наличие некоторых признаков, таких как общие фразы или повторяющиеся термины, большинству людей сложно определить, является текст реальным или фальшивым. ИИ может имитировать стиль и структуру человеческой речи так, что отличить его от настоящих мнений становится всё сложнее.
В этом контексте пользователи и производители должны работать вместе, чтобы бороться с фальшивыми отзывами и поддерживать честность в интернете. Технологические компании также должны продолжать совершенствовать свои системы защиты и развивать инновационные методы для выявления и блокировки поддельных текстов, созданных искусственным интеллектом.