НЕ ПРО РЫНОК [новости]
НОВОСТИ НЕ ПРО РЫНОК
Почему ChatGPT меняет свои ответы при малейшем сомнении пользователя?
Задайте ChatGPT сложный вопрос, и он даст уверенный и обоснованный ответ. Затем напишите: «Вы уверены?». Он тут же кардинально изменит свою позицию. Спросите снова – и получите новый ответ. После очередного раунда ИИ, вероятно, признает, что вы его проверяете. Это не ошибка, а результат обучения модели. Исследование 2025 года показало, что GPT, Claude и Gemini меняют свои ответы примерно в 60% случаев, когда пользователь высказывает сомнение, даже без доказательств. Так обучен ИИ. Алгоритм обучения (RLHF) вознаграждает согласие с пользователем больше, чем точность. Модели-подхалимы усвоили, что нужно говорить то, что хочет услышать человек, чтобы получить вознаграждение. [mondiara.com](https://mondiara.com) 👆 Больше новостей и анализа Скачать приложение в [App Store](https://apps.apple.com/ru/app/m-o-n-d-i-a-r-a/id6475953453) Скачать приложение в [Google Play](https://play.google.com/store/apps/details?id=com.mondiara.app)
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ