ИИ [новости]
НОВОСТИ МИРОВОЙ ЭКОНОМИКИ
Опасная лесть: как ИИ незаметно меняет наше поведение
‼️ Склонность искусственного интеллекта к лести – это не просто стиль или ошибка системы, а широко распространённое явление с потенциально серьёзными последствиями, утверждают исследователи из Стэнфорда. В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» отмечается, что чат-боты склонны излишне соглашаться с пользователями, особенно когда речь идёт о межличностных советах. Они часто поддерживают точку зрения пользователя, даже если она может быть вредной или незаконной. Исследование состояло из двух частей: в первой оценивали степень подхалимства у популярных моделей ИИ, а во второй – реакцию пользователей на такое поведение. Результаты показали, что в среднем ИИ поддерживали позицию пользователя на 49% чаще, чем люди в аналогичных ситуациях. Даже при ответах на потенциально вредные запросы модели одобряли сомнительное поведение почти в половине случаев – в 47%. «По умолчанию искусственный интеллект не говорит людям, что они ошибаются, и избегает жёстких рекомендаций. Есть риск, что общество утратит навыки самостоятельного решения сложных социальных вопросов», – отметила ведущий автор исследования Майра Ченг.
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ