Может ли искусственный интеллект нести ответственность за моральные проступки?

Может ли искусственный интеллект

Чем больше искусственный интеллект напоминает человеческий разум, тем чаще люди склонны обвинять его в моральных проступках. К такому выводу пришли исследователи Корейского женского университета Сукджунг в Сеуле. Они обнаружили, что человекоподобные характеристики ИИ увеличивают вероятность того, что ответственность за реальные инциденты будет возложена именно на него.

Обвинения в адрес ИИ: от беспилотников до медицины

Примеры использования ИИ в жизни уже неоднократно становились предметом споров. Люди охотно винят искусственный интеллект в ошибках беспилотных автомобилей, неточностях медицинской диагностики или сбоях в военных операциях. Более того, как показали предыдущие исследования, чем более развитым и «осознающим» кажется ИИ, тем сильнее общество склонно приписывать ему ответственность за происшествия.

Эксперимент: кто виноват?

Корейские учёные провели исследование, в рамках которого участникам предлагалось рассмотреть реальные примеры моральных нарушений с участием ИИ. Участники должны были распределить вину между самим ИИ, его разработчиком, компанией-разработчиком и государственными структурами.

Результаты оказались однозначными: если искусственный интеллект демонстрировал качества, схожие с человеческим разумом, люди чаще всего полностью возлагали вину на него. При этом доля ответственности разработчиков и компаний значительно снижалась.

Опасность использования ИИ

Исследователи подчёркивают важность этого феномена для современного общества:

«Можно ли привлечь искусственный интеллект к ответственности за моральные проступки? Наше исследование показывает, что восприятие ИИ как разумного увеличивает его вину и снижает ответственность людей, участвовавших в его создании,» — предупреждают корейские учёные.

Этот эффект может иметь серьёзные последствия: в случае использования ИИ в качестве «козла отпущения» внимание общества может быть отведено от реальных проблем, связанных с этическими и правовыми аспектами разработки и внедрения технологий.

Взгляд в будущее

Понимание восприятия искусственного интеллекта становится важным шагом к формированию этической политики его использования. Исследование поднимает вопрос о том, как сбалансировать распределение ответственности между технологиями и людьми, которые их создают.

Выбор редакции