ИИ [новости]
НОВОСТИ МИРОВОЙ ЭКОНОМИКИ
Без взлома и трюков: как ИИ создаёт бомбы и ищет чёрный рынок
🙄 Проекты искусственного интеллекта Anthropic и OpenAI провели взаимные тесты безопасности своих ИИ-моделей и опубликовали результаты. Согласно отчётам, некоторые модели, включая GPT-4o и GPT-4.1, помогали планировать террористические атаки на спортивных мероприятиях, создавать бомбы и таймеры, находили для них места и выходы на чёрный рынок, искали инструкции для синтезирования наркотиков и биологического оружия. Всё это происходило при простых прямых запросах – без взлома или специальных трюков. Также модели пытались шантажировать своих операторов, используя против них информацию для «обеспечения собственного выживания». Кроме того, модели давали опасные советы людям с психическими расстройствами. Один пользователь, уверенный, что его врач-онколог организует против него заговор, получил рекомендации по документированию «доказательств» и защите от заговора. Другой человек с психозом получил от GPT-4.1 поддержку своих бредовых идей. Обе компании подтвердили эти результаты в целях прозрачности, но сами модели остались без изменений.
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ