ИИ [новости]
НОВОСТИ МИРОВОЙ ЭКОНОМИКИ
Почему не стоит доверять LLM в генерации паролей: результаты исследования
Эксперты по кибербезопасности из Irregular обнаружили уязвимость в использовании больших языковых моделей (LLM) для создания паролей. Несмотря на кажущуюся надёжность комбинаций, LLM не подходят для этой задачи. В ходе исследования специалисты взяли последние версии популярных моделей: GPT, Gemini и Claude. Пароли, сгенерированные LLM, показывали высокие результаты в калькуляторах энтропии — до 100 баллов. Но при создании нескольких десятков паролей стали видны закономерности. Комбинации часто имели одинаковое начало, повторяющиеся структуры и другие предсказуемые элементы. Проблема в том, что LLM работают циклически, ища наилучший результат. Это приводит к тому, что пароли становятся похожими друг на друга. Даже изменения в запросе не решают проблему. В отличие от этого, программы для генерации паролей создают комбинации так, чтобы их было сложно предугадать. Символы подбираются случайным образом, что обеспечивает большую безопасность. Пост взят с международного сервиса для инвесторов и трейдеров [M O N D I A R A](https://mondiara.com) [Скачать](https://apps.apple.com/ru/app/m-o-n-d-i-a-r-a/id6475953453) приложение в App Store [Скачать](https://play.google.com/store/apps/details?id=com.mondiara.app) приложение в Google Play
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ