Почему пользователи не доверяют AI-рекомендациям (дело не в том, о чём вы думаете)

Maria Santos, UX Researcher · 01.03.2026, 00:27:10

Почему пользователи не доверяют AI-рекомендациям (дело не в том, о чём вы думаете)


Maria Santos, UX Researcher

В прошлом квартале мы провели исследование, которое удивило всю команду. Пользователям дали два набора рекомендаций продуктов: один от нашей AI-системы, другой от человеческих кураторов. Те же продукты, разные лейблы. Пользователи оценили человеческие рекомендации выше по релевантности, качеству и надёжности — хотя они были идентичны.

Один лейбл AI снизил воспринимаемую ценность на 23%.

Последние шесть месяцев я пытаюсь понять почему. Ответ не в возможностях AI. Дело в человеческой психологии и некоторых ошибках дизайна, которые мы продолжаем делать.

Проблема уверенности

Большинство AI-систем представляют рекомендации с непоколебимой уверенностью. "Вам может понравиться." "Рекомендовано для вас." "На основе ваших предпочтений." Никаких оговорок, никакой неопределённости, никакого признания ограничений.

Пользователи находят это подозрительным.

В интервью участники постоянно упоминали, что AI-рекомендации ощущаются "слишком уверенными." Один пользователь выразил это идеально: "Как она может быть так уверена? Она не знает, в каком я настроении, о чём я думал, что со мной произошло сегодня."

Человеческие рекомендации естественно включают неопределённость. Друг может сказать "Думаю, тебе понравится, но не уверен, что это твой стиль." Продавец может задать уточняющие вопросы. Эта неопределённость сигнализирует честность — признание, что рекомендующий не имеет полной информации.

AI-системы редко коммуницируют неопределённость, даже когда underlying модели имеют низкую уверенность. Дизайнеры предполагают, что уверенность выглядит более компетентно. Наши данные предполагают обратное. Самоуверенность вызывает скептицизм.

Разрыв объяснений

Когда мы спрашивали пользователей, почему они не доверяют AI-рекомендациям, самый частый ответ был не о точности. Он был о понимании.

"Почему мне это рекомендуют?"

Большинство AI-объяснений размыты или циркулярны. "Потому что вам понравились похожие товары." "На основе вашей истории просмотров." "Популярно среди похожих людей." Эти объяснения на самом деле ничего не объясняют. Они описывают входные данные, не раскрывая рассуждения.

Пользователи хотят каузальные нарративы. Не "похожие товары", а "потому что эта книга имеет тот же стиль ненадёжного рассказчика, как триллер, который вы высоко оценили." Не "ваша история", а "вы исследовали ремонт кухни, и этот инструмент высоко оценён для работы с плиткой."

Системы, которые лучше всего показывают себя в наших исследованиях, дают конкретные, детальные объяснения. Не больше данных — больше истории. Пользователям не нужно понимать алгоритмы; им нужно понимать, почему эта конкретная рекомендация имеет смысл для их конкретной ситуации.

Зловещая долина персонализации

В AI-рекомендациях есть парадокс: слишком общее ощущается бесполезным, слишком конкретное — жутким.

Мы тестировали разные уровни сигналов персонализации. Лёгкая персонализация ("на основе ваших интересов") показала себя хорошо. Тяжёлая персонализация ("потому что вы искали адвокатов по разводу во вторник в 2 часа ночи") вызвала сильные негативные реакции — даже когда пользователи технически согласились на такое использование данных.

Пользователи хотят персонализацию без слежки. Они хотят рекомендации, которые ощущаются релевантными без напоминаний о том, как много система знает о них.

Сладкая точка, похоже, — персонализация, которая ощущается заслуженной, а не извлечённой. "На основе ваших сохранённых товаров" работает, потому что пользователи активно их сохраняли. "На основе вашей истории местоположений" ощущается инвазивно, потому что пользователи сознательно не делились этими данными для этой цели.

Намерение важно. Рекомендации на основе явных действий пользователя ощущаются полезными. Рекомендации на основе выведенных или пассивных данных ощущаются интрузивными, даже когда они одинаково точны.

Иллюзия контроля

Пользователи, которые чувствуют, что контролируют AI, доверяют ему больше — даже когда контроль в значительной степени иллюзорен.

Мы тестировали интерфейсы рекомендаций с разными механизмами контроля. Пальцы вверх/вниз на рекомендациях. Слайдеры для весов предпочтений. Возможность исключить определённые категории. Кнопки обратной связи, которые ничего видимого не делали.

Все они увеличивали доверие, включая нефункциональные кнопки обратной связи.

Механизм важен меньше, чем ощущение agency. Пользователи, которые верят, что могут влиять на систему, более готовы верить, что система работает на них. "Я сформировал эти рекомендации" ощущается иначе, чем "эти рекомендации были мне навязаны."

У этого есть некомфортные импликации. Это предполагает, что trust-building фичи не обязательно должны улучшать качество рекомендаций — им нужно только давать ощущение контроля. Но есть этичная версия: реальные механизмы контроля, которые и улучшают качество, и строят доверие.

Асимметрия ошибок

Одна плохая рекомендация разрушает доверие больше, чем десять хороших рекомендаций его строят.

Мы отслеживали trust scores со временем, пока пользователи взаимодействовали с рекомендациями. Хорошие рекомендации производили маленькие, инкрементальные gains в доверии. Плохие рекомендации производили немедленные, существенные drops в доверии. Соотношение было примерно 8:1 — восстановление от одной плохой рекомендации требовало восьми хороших.

Это создаёт проблему для AI-систем. Они оптимизируют среднюю релевантность, но пользователи судят по худшим случаям. Система, которая права 90% времени, может ощущаться ужасно, если 10% провалов запоминаются.

Человеческие рекомендатели выигрывают от других ожиданий. Мы прощаем друзьям плохие предложения. Мы ожидаем, что продавцы иногда ошибаются. Мы не ожидаем, что машины ошибаются — поэтому когда они это делают, это подтверждает подозрения, что они реально нас не понимают.

Дизайн-импликация: лучше рекомендовать меньше с высокой уверенностью, чем больше со средней уверенностью. Система, которая делает пять отличных рекомендаций, бьёт систему с десятью посредственными, даже если посредственные включают те пять отличных.

Что работает

На основе нашего исследования, вот что реально увеличивает доверие к AI-рекомендациям.

Показывай соответствующую неопределённость. "Мы думаем, вам может понравиться" превосходит "Вам это понравится." Интервалы уверенности, даже приблизительные, помогают. "Большинство людей с вашими предпочтениями оценивают это высоко" лучше безусловных утверждений.

Объясняй конкретно. Дженерик-объяснения дают обратный эффект. Конкретные работают. Связывай рекомендацию с конкретными действиями пользователя или выраженными предпочтениями, не размытыми категориями данных.

Давай значимый контроль. Позволяй пользователям корректировать, исключать и давать обратную связь. Делай влияние этой обратной связи видимым. "Вы сказали, что не любите эту категорию, поэтому мы показываем её меньше."

Изящно обрабатывай ошибки. Когда рекомендации промахиваются, признавай это явно. "Это было не релевантно? Помогите нам понять почему." Пользователи прощают ошибки, которые признаются и из которых учатся.

Уменьшай сигналы персонализации. Иногда лучший опыт рекомендаций вообще не упоминает персонализацию. "Высоко оценено" или "Популярно на этой неделе" могут превосходить "Для вас", потому что не вызывают concerns о слежке.

Доверие строится медленно и теряется быстро. Каждая рекомендация — это trust-транзакция. Дизайните соответственно.

Maria Santos — UX-ресёрчер, специализирующийся на паттернах взаимодействия AI-человек. Она возглавляет user research для платформы рекомендации продуктов и пишет о психологии алгоритмического доверия.

#AI


Похожие записи

Hybrid Intelligence: Why the future of software belongs to human-AI teams
AI agents in product development: What changed in twelve months
Прокрутите вниз для загрузки следующего материала