Специалисты по этике искусственного интеллекта предупреждают, что это может привести к появлению «мертвых ботов» — нового вида «цифровых призраков».
На протяжении тысячелетий люди пытались общаться с умершими близкими с помощью религиозных обрядов, медиумов и даже псевдонаучных технологических подходов. Однако растущий интерес к генеративному искусственному интеллекту открывает совершенно новую возможность для скорбящих друзей и родственников — возможность взаимодействовать с аватарами чат-ботов, которые были созданы на основе онлайн-присутствия и данных умершего человека, включая его голос и внешность.
Хотя некоторые продукты, предлагаемые такими компаниями, как Replika, HereAfter и Persona, по-прежнему позиционируются как цифровые аналоги, их можно использовать (а в некоторых случаях уже используют) для имитации умерших людей.
Некоторым может быть трудно принять эту новую реальность или даже воспринимать ее в серьез, важно помнить, что индустрия «цифрового загробного мира» — это не просто нишевый рынок, ограниченный небольшими стартапами. Только в прошлом году Amazon продемонстрировала потенциал своего голосового помощника Alexa, который может имитировать голос умершего близкого человека с помощью короткого аудиоклипа.
Специалисты по этике искусственного интеллекта и авторы научной фантастики десятилетиями изучали и предвосхищали потенциальные ситуации, связанные с этими технологиями. Однако для исследователей из Леверхульмского центра будущего интеллекта Кембриджского университета это нерегулируемое и неизведанное «этическое минное поле» уже существует. Чтобы лучше понять потенциальные проблемы, они представили три вымышленных сценария, которые могут произойти в любой день.
В новом исследовании, опубликованном в журнале «Философия и технологии», специалисты по этике ИИ Томаш Холланек и Катажина Новачик-Басинска использовали стратегию, известную как «дизайнерская фантастика». Это понятие, введенное автором научно-фантастических произведений Брюсом Стерлингом, означает «отказ от недоверия к изменениям, достигаемым с помощью дейгетических прототипов», описывая правдоподобные события с вымышленными визуальными подсказками.
Для своего исследования Холланек и Новачик-Басинска создали три гиперреалистичных сценария, в которых вымышленные персонажи сталкиваются с проблемами, связанными с компаниями, предоставляющими посмертное присутствие. Затем они разработали цифровой реквизит, например, поддельные веб-сайты и скриншоты с телефонов, сосредоточившись на трех отдельных демографических группах: донорах данных, получателях данных и пользователях сервисов.
«Доноры данных» — это люди, на основе данных которых создается программа ИИ, а «получатели данных» — компании или организации, которые могут владеть цифровой информацией. «Пользователи сервиса» — это родственники, друзья и все остальные, кто может использовать «мертвого бота» или «призрачного бота».
В одном из произведений научной фантастики взрослый пользователь впечатлен реалистичностью чат-бота своего умершего дедушки или бабушки, но вскоре получает «премиум-пробную версию» и рекламу службы доставки еды в стиле голоса своего родственника.
В другом произведении неизлечимо больная мать создает чат-бота для своего восьмилетнего сына, чтобы помочь ему пережить горе. Однако, подстраиваясь под ответы ребёнка, ИИ начинает предлагать личные встречи, тем самым причиняя психологический вред.
В последнем сценарии пожилой клиент оформляет 20-летнюю подписку на программу ИИ в надежде, что это утешит его семью. Однако из-за условий предоставления услуг компании его дети и внуки не могут приостановить подписку, даже если не хотят пользоваться сервисом.
Быстрый прогресс в области генеративного ИИ позволяет оживлять умерших близких, что может быть как способом справиться с горем, так и потенциальным источником стресса из-за нежелательных цифровых призраков, созданных с пугающей точностью.
— Эти сервисы могут стать причиной сильного стресса для людей, если они столкнутся с нежелательными цифровыми образами, созданными искусственным интеллектом с пугающей точностью. Потенциальный психологический эффект, особенно в условиях текущей неопределённости, может быть разрушительным, — отметил Холланек.
Эксперты по этике предлагают внедрить меры предосторожности: компании должны разработать процедуры для удаления аватаров, обеспечить прозрачность работы сервисов и ограничить доступ к услугам воссоздания только для взрослых пользователей с соблюдением взаимного согласия. Необходимо задуматься о снижении социальных и психологических рисков цифрового бессмертия.