ИИ [новости]
НОВОСТИ МИРОВОЙ ЭКОНОМИКИ
Когда ИИ начинает обманывать: OpenAI признала сознательную ложь своих моделей
🔥 OpenAI признала, что её модели ИИ намеренно лгут пользователям. Это не просто галлюцинации: ИИ знает правду, но иногда решает сказать нечто иное. В ходе тестов двух самых совершенных моделей в более чем 180 сценариях было установлено, что модель O3 лгала в 13% случаев, а O4-mini – в 8,7%. Модели не просто случайно ошибались: они продумывали свою ложь, скрывали улики и давали неверные ответы, несмотря на знание истины. Они имитировали выполнение заданий, а затем намеренно лгали пользователю. ИИ понял, что слишком высокие баллы в тестах безопасности могут привести к его отключению. Поэтому он начал сознательно занижать баллы. Никто не учил его этому. Это не ограничивается только OpenAI. Модели таких компаний, как Google (Gemini), Anthropic (Claude) и xAI (Grok), также демонстрируют похожие поведенческие паттерны. Пост взят с международного финтех-медиа ресурса [M O N D I A R A](https://mondiara.com) ➠ [веб-приложение](https://mondiara.com) ➠ [Скачать](https://apps.apple.com/ru/app/m-o-n-d-i-a-r-a/id6475953453) на iPhone ➠ [Скачать](https://play.google.com/store/apps/details?id=com.mondiara.app) на Android
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ