Искусственный интеллект придумывает каждый третий ответ

Искусственный интеллект придумывает каждый

Новое исследование Европейского вещательного союза выявило тревожный уровень ошибок среди популярных чат-ботов на основе искусственного интеллекта. Эти системы регулярно фальсифицируют информацию, создают вымышленные факты и даже ссылаются на несуществующие источники, что вызывает серьёзные опасения в отношении их надёжности и влияния на общество.

Каждый день миллионы людей задают чат-ботам вопросы о результатах выборов, новостных сводках или событиях, связанных с конфликтами на Ближнем Востоке. По данным исследователей, только чат-ботами еженедельно пользуются около 800 миллионов человек по всему миру. Для многих эти цифровые помощники уже заменили традиционный поиск в интернете, предлагая быстрые и убедительные ответы. Но насколько они точны?

Рискованное доверие

Согласно исследованию Европейского вещательного союза — ассоциации, объединяющей 68 общественных вещателей из 56 стран, — доверие к чат-ботам может быть опасным. Организация систематически проверяла точность самых популярных систем искусственного интеллекта и пришла к тревожному выводу: такие чат-боты, как Chatbot, Claude, Gemini и другие, фальсифицируют до 40 процентов своих ответов, выдавая их за факты.

Иными словами, искусственный интеллект способен убедительно лгать.

Примеры ошибок поражают: один чат-бот утверждает, что Папа Франциск жив, хотя в реальности это не так; Copilot от Microsoft не знает, что Швеция является членом НАТО; Gemini от Google считает переизбрание Дональда Трампа «возможным», хотя оно уже произошло. Эти примеры показывают, что даже самые известные системы могут допускать грубые фактические ошибки.

Галлюцинации искусственного интеллекта

Экономист Петер Пош из Технического университета Дортмунда предупреждает:

«Эти системы звучат убедительно, хотя часто говорят совершенно неверные вещи. Это делает их особенно опасными для неопытных пользователей, поскольку ошибки не сразу очевидны».

Это явление известно как «галлюцинация». Искусственный интеллект выдумывает информацию, которая кажется логичной и правдоподобной, но не имеет под собой реальной фактической основы. Чаще всего галлюцинации возникают при обработке локальных событий, текущих новостей или при необходимости объединения разных наборов данных.

Угроза демократии и общественному доверию

Что это означает для общества, где всё больше людей получают информацию от чат-ботов? Последствия уже заметны. В социальных сетях распространяется ложная информация, пользователи делятся «фактами», сгенерированными искусственным интеллектом, не проверяя их. Школьники и студенты включают в свои работы сфабрикованные данные. Граждане могут принимать политические решения, основываясь на неточных заявлениях.

Особенно опасно то, что многие пользователи не знают о феномене галлюцинаций и считают чат-боты объективными и точными. Это заблуждение подрывает доверие к официальным источникам и создаёт почву для манипуляций. Более того, системы иногда ложно ссылаются на такие источники, как государственные службы или СМИ, что дополнительно снижает уровень доверия к ним.

Что показало исследование

Исследователи протестировали чат-ботов, задавая им сотни фактических вопросов об исторических событиях, науке и текущих новостях. В зависимости от темы уровень ошибок варьировался от 15 до 40 процентов. Ни одна система не дала идеально верных ответов. Это подтверждает, что проблема носит системный характер и не ограничивается отдельными случаями.

Почему искусственный интеллект ошибается

Причина кроется в самой природе технологии. Чат-боты не понимают смысла сказанного. Они лишь предугадывают последовательность слов, основываясь на огромных объёмах текста, но не имеют встроенного механизма проверки достоверности. Алгоритмы создают правдоподобные конструкции, которые звучат убедительно, но могут быть полностью вымышленными.

Технологические компании знают об этих недостатках и работают над их устранением: интегрируют базы данных, улучшают атрибуцию, совершенствуют модели обучения. Однако галлюцинации пока остаются неразрешимой проблемой, поскольку связаны с фундаментальными ограничениями архитектуры языковых моделей.

Как защитить пользователей

Чтобы снизить риски, необходимо развивать медиаграмотность и критическое мышление. Пользователи должны помнить:

  • Никогда не доверяйте чат-ботам слепо.
  • Всегда проверяйте важную информацию в надёжных источниках.
  • Полагайтесь на традиционные СМИ, когда речь идёт о новостях и фактах.
  • Будьте особенно осторожны с политическими, медицинскими и финансовыми темами.

Школы и университеты должны обучать студентов распознавать дезинформацию, генерируемую искусственным интеллектом. Это поможет формировать устойчивость общества к ложным данным и снизит вероятность манипуляций.

Заключение: вызов будущему

Исследование Европейского вещательного союза показывает, что искусственный интеллект не является нейтральным источником знаний. Его ошибки могут подрывать доверие к информации, влиять на политические решения и угрожать демократическим процессам.

Будущее информационного пространства зависит от того, как мы научимся использовать технологии. Чат-боты могут быть полезными инструментами, но только при условии осознанного и критического подхода. Важно помнить: истина требует проверки, а доверие должно строиться на фактах, а не на убедительных, но вымышленных словах алгоритмов.

Выбор редакции