Виртуальные призраки могут влиять на психику живых людей.

Цифровые призраки: искусственный интеллект может создать иллюзию общения с умершими

22 октября, 20:13
Интернет наполнен личными артефактами, которые остаются в сети даже после смерти человека. Что, если эти артефакты будут использованы для создания иллюзии присутствия умершего близкого?

Специалисты по этике искусственного интеллекта предупреждают, что это может привести к появлению «мертвых ботов» — нового вида «цифровых призраков».

ИИ открывает возможность общаться с умершими через цифровые копии личности

На протяжении тысячелетий люди пытались общаться с умершими близкими с помощью религиозных обрядов, медиумов и даже псевдонаучных технологических подходов. Однако растущий интерес к генеративному искусственному интеллекту открывает совершенно новую возможность для скорбящих друзей и родственников — возможность взаимодействовать с аватарами чат-ботов, которые были созданы на основе онлайн-присутствия и данных умершего человека, включая его голос и внешность.

Хотя некоторые продукты, предлагаемые такими компаниями, как Replika, HereAfter и Persona, по-прежнему позиционируются как цифровые аналоги, их можно использовать (а в некоторых случаях уже используют) для имитации умерших людей.

Выросло число людей, которые делятся своими историями о том, как они использовали ChatGPT, чтобы попрощаться с близкими.
Майк Талли The Guardian. The Guardian

Некоторым может быть трудно принять эту новую реальность или даже воспринимать ее в серьез, важно помнить, что индустрия «цифрового загробного мира» — это не просто нишевый рынок, ограниченный небольшими стартапами. Только в прошлом году Amazon продемонстрировала потенциал своего голосового помощника Alexa, который может имитировать голос умершего близкого человека с помощью короткого аудиоклипа.

Специалисты по этике искусственного интеллекта и авторы научной фантастики десятилетиями изучали и предвосхищали потенциальные ситуации, связанные с этими технологиями. Однако для исследователей из Леверхульмского центра будущего интеллекта Кембриджского университета это нерегулируемое и неизведанное «этическое минное поле» уже существует. Чтобы лучше понять потенциальные проблемы, они представили три вымышленных сценария, которые могут произойти в любой день.

Этика ИИ: вымысел или реальность?

В новом исследовании, опубликованном в журнале «Философия и технологии», специалисты по этике ИИ Томаш Холланек и Катажина Новачик-Басинска использовали стратегию, известную как «дизайнерская фантастика». Это понятие, введенное автором научно-фантастических произведений Брюсом Стерлингом, означает «отказ от недоверия к изменениям, достигаемым с помощью дейгетических прототипов», описывая правдоподобные события с вымышленными визуальными подсказками.

Для своего исследования Холланек и Новачик-Басинска создали три гиперреалистичных сценария, в которых вымышленные персонажи сталкиваются с проблемами, связанными с компаниями, предоставляющими посмертное присутствие. Затем они разработали цифровой реквизит, например, поддельные веб-сайты и скриншоты с телефонов, сосредоточившись на трех отдельных демографических группах: донорах данных, получателях данных и пользователях сервисов.

«Доноры данных» — это люди, на основе данных которых создается программа ИИ, а «получатели данных» — компании или организации, которые могут владеть цифровой информацией. «Пользователи сервиса» — это родственники, друзья и все остальные, кто может использовать «мертвого бота» или «призрачного бота».

Три сценария общения с умершими

В одном из произведений научной фантастики взрослый пользователь впечатлен реалистичностью чат-бота своего умершего дедушки или бабушки, но вскоре получает «премиум-пробную версию» и рекламу службы доставки еды в стиле голоса своего родственника.

Вымышленная реклама в ненастоящей соцсети.
Томаш Холланек. link.springer.com

В другом произведении неизлечимо больная мать создает чат-бота для своего восьмилетнего сына, чтобы помочь ему пережить горе. Однако, подстраиваясь под ответы ребёнка, ИИ начинает предлагать личные встречи, тем самым причиняя психологический вред.

В последнем сценарии пожилой клиент оформляет 20-летнюю подписку на программу ИИ в надежде, что это утешит его семью. Однако из-за условий предоставления услуг компании его дети и внуки не могут приостановить подписку, даже если не хотят пользоваться сервисом.

Вымышленный экран блокировки телефона с уведомлениями из приложения Stay
визуализация Т. Холланека. link.springer.com

Быстрый прогресс в области генеративного ИИ позволяет оживлять умерших близких, что может быть как способом справиться с горем, так и потенциальным источником стресса из-за нежелательных цифровых призраков, созданных с пугающей точностью.

— Эти сервисы могут стать причиной сильного стресса для людей, если они столкнутся с нежелательными цифровыми образами, созданными искусственным интеллектом с пугающей точностью. Потенциальный психологический эффект, особенно в условиях текущей неопределённости, может быть разрушительным, — отметил Холланек.

Эксперты по этике предлагают внедрить меры предосторожности: компании должны разработать процедуры для удаления аватаров, обеспечить прозрачность работы сервисов и ограничить доступ к услугам воссоздания только для взрослых пользователей с соблюдением взаимного согласия. Необходимо задуматься о снижении социальных и психологических рисков цифрового бессмертия.

#Наука #Открытие #Психология #Ученые #Виртуальная реальность #Психологическое здоровье #Николай Бледных #КЦ
Подпишитесь