Лаборатория EQTY, компании Intel и NVIDIA предлагают инновационное решение — «проверяемые вычисления», которое гарантирует безопасность и надёжность искусственного интеллекта
Лаборатория EQTY, компании Intel и NVIDIA предлагают инновационное решение — «проверяемые вычисления», которое гарантирует безопасность и надёжность искусственного интеллекта. Сегодня компании EQTY Lab, Intel (NASDAQ: INTC) и NVIDIA (NASDAQ: NVDA) объявили о выпуске Verifiable Compute AI — инновационного решения для управления и аудита процессов искусственного интеллекта. Verifiable Compute AI представляет собой значительный шаг вперёд в обеспечении прозрачности, подотчётности и безопасности систем искусственного интеллекта в процессе их работы. Это решение даёт пользователям и компаниям уверенность в том, что искусственный интеллект можно использовать безопасно и эффективно. «С появлением автономных агентов искусственного интеллекта мы должны развивать доверие к системам искусственного интеллекта, — сказал Джонатан Дотан, основатель EQTY Lab. — Verifiable Compute AI защищает и контролирует данные, модели и агенты искусственного интеллекта с помощью передовых криптографических технологий. Она преобразует то, как организации управляют искусственным интеллектом, автоматизируют аудит и сотрудничают для создания более безопасного и ценного искусственного интеллекта». Verifiable Compute AI — это запатентованная аппаратная система, основанная на криптографических принципах нотариата и сертификации искусственного интеллекта. Она изолирует конфиденциальные операции искусственного интеллекта и нотариально заверяет их, сохраняя защищённую от несанкционированного доступа запись каждого объекта данных и кода, полученного в процессе обучения и вывода искусственного интеллекта. Verifiable Compute AI также обеспечивает возможность проверки соответствия в реальном времени и соблюдение политик искусственного интеллекта, установленных компаниями, а также новых суверенных правил в области искусственного интеллекта, таких как Закон ЕС об искусственном интеллекте. Verifiable Compute AI — это новый уровень доверия, основанный на использовании оборудования от NVIDIA и Intel. Он задаёт темп для нового стандарта безопасности и инноваций в области искусственного интеллекта. Технический документ Verifiable Compute AI доступен для скачивания по адресу eqtylab.io/verifiablecompute. «Intel расширяет границы конфиденциального искусственного интеллекта от периферии до облака, а EQTY Lab обеспечивает ещё один уровень доверия к экосистеме конфиденциальных вычислений», — сказал Ананд Пашупати, вице-президент и генеральный менеджер подразделения программного обеспечения и услуг безопасности корпорации Intel. «Добавление проверяемых вычислений к конфиденциальному искусственному интеллекту помогает компаниям повысить безопасность, конфиденциальность и подотчётность своих решений в области искусственного интеллекта». «Истинный потенциал искусственного интеллекта не будет полностью реализован, пока мы не сможем обеспечить конфиденциальные вычисления для проверки каждого компонента в стеке», — сказал Майкл О'Коннор, главный архитектор NVIDIA по конфиденциальным вычислениям. «Защита границы доверия в процессоре устанавливает стандарт для рабочих нагрузок искусственного интеллекта следующего поколения, чтобы быть криптографически безопасными и проверяемыми». Verifiable Compute Framework и Notary System открывают новые возможности для Trusted Execution Environments (TEE), доступных на процессорах Intel® Xeon® 5-го поколения с Intel® Trust Domain Extensions (Intel® TDX). Они расширяют зону доверия через конфиденциальные виртуальные машины на графических процессорах NVIDIA H100/H200 и будущую архитектуру графических процессоров NVIDIA Blackwell. Спрос на конфиденциальные вычисления резко вырос в этом году из-за требований по соблюдению законов о суверенитете данных и новых правил в области искусственного интеллекта. По прогнозам, к 2032 году рынок достигнет объёма продаж в размере 184,5 миллиардов долларов США. Verifable Compute решает уникальные и растущие риски для цепочек поставок искусственного интеллекта, включая атаки на модели и извлечение информации, а также проблемы конфиденциальности и «отказ в обслуживании». Согласно последним исследованиям, 91% организаций столкнулись с атаками на цепочки поставок традиционных программных систем. Эта проблема становится ещё более выраженной в контексте агентов искусственного интеллекта, которые автоматизируют задачи с меньшим контролем. Verifiable Compute демонстрирует, как инновации могут препятствовать атакам с помощью доказуемой аутентификации, безопасности и гарантий, укоренённых в кремнии. Verifiable Compute также позволяет получать доказуемые записи соответствия нормативным базам, которые могут сохранять артефакты искусственного интеллекта даже спустя годы после выдачи результатов. Если обязательные элементы управления не выполняются, проверяемый шлюз управления останавливает систему искусственного интеллекта и может уведомить или интегрироваться в инструментарий предприятия с собственными коннекторами для ServiceNow, Databricks и Palantir. Если система соответствует требованиям, она может выдать сертификат аудита и происхождения искусственного интеллекта, который мгновенно проверяется в браузере или может быть независимо проверен в любой момент в будущем. Эти расширенные возможности устраняют серьёзный пробел в доверии для предприятий, позволяя им ответственно внедрять инновации в области искусственного интеллекта и готовиться к выполнению нового обещания автономных систем агентов искусственного интеллекта. Источник: www.businesswire.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ