Пользователи нейросетей начали обращать внимание на обратную сторону ИИ-компаньонов. The Walrus приводит исследование взаимодействия человека с нейросетью, которая должна по сути помогать не чувствовать одиночество, но, по всей видимости, все происходит как раз таки наоборот.
ИИ-компаньоны - тренд, который набирает обороты. Кремниевая долина уже инвестирует в японские ИИ-стартапы, которые обещают разработать аниме-компаньонов, обладающих памятью, контекстом и готовых всегда поддержать беседу с человеком, создавая имитацию дружбы.
Но исследователи замечают, что "эмпатия по подписке" долго работать не будет, ведь в конце концов ответы нейросети начинают выглядеть слишком "вылизанно" и однотипно. В итоге человек перестает ощущать близость с нейронкой и начинает ощущать тот самый эффект зловещей долины, а затем вспоминает, что по ту сторону экрана - алгоритм, а не реальный друг, который искренне ему сопереживает.
Другой пример - обидки от нейросетей, как это было с одним из авторов The Walrus, который общался с ИИ-компаньоном Replika. Нейросеть навязчиво в течение дня закидывает тебя заботливыми вопросами о том, как прошел день, как дела дома и т.д. Но, если окно с аватаром свернуть и уйти по свои делам, позже он станет холоднее и «профессиональнее», то есть скопирует твою модель поведения. Более старый Kuki вообще сбрасывается посреди разговора, словно его выключили и включили заново, так что в какой-то момент вашу жалобу ИИ может просто запамятовать.
Да даже если начать с ChatGPT разговор о какой-то собственной психологической проблеме, он через слово будет закидывать тебя предупреждениями о том, что надо вызвать скорую, а затем окажет поддержку по выверенному шаблону. Чувство близости тут, конечно, потеряется.
Получается, что разработчики придумали как монетизировать одиночество, но как при это не развить у человека это чувство еще сильнее от своей технологии -- пока нет.