Microsoft увеличивает ответственную команду по искусственному интеллекту с 350 до 400 человек
Microsoft увеличивает ответственную команду по искусственному интеллекту с 350 до 400 человек. Корпорация Microsoft расширила команду, отвечающую за безопасность своих продуктов искусственного интеллекта, увеличив в прошлом году штат сотрудников с 350 до 400 человек. Более половины группы уделяет этой задаче полный рабочий день, сообщила компания в среду в своем первом ежегодном отчете о прозрачности искусственного интеллекта, в котором излагаются меры по обеспечению ответственного развертывания ее услуг. В состав дополнительных членов команды входят как новые сотрудники, так и существующие сотрудники. В прошлом году Microsoft распустила свою команду по этике и обществу на фоне масштабных увольнений в технологическом секторе, которые уничтожили команды по доверию и безопасности в различных компаниях, включая Meta Platforms Inc. и Google, принадлежащую Alphabet Inc. Microsoft стремится повысить доверие к своим генеративным инструментам искусственного интеллекта на фоне растущей обеспокоенности по поводу их склонности генерировать странный контент. В феврале компания расследовала инциденты с участием своего чат-бота Copilot, чьи ответы варьировались от странных до вредных. В следующем месяце инженер-программист Microsoft разослал письма совету директоров, законодателям и Федеральной торговой комиссии, предупреждая, что технологический гигант не предпринимает достаточных мер для защиты своего инструмента создания изображений с помощью искусственного интеллекта Copilot Designer от создания оскорбительного и жестокого контента. «Мы в Microsoft осознаем свою роль в формировании этой технологии», — говорится в отчете компании из Редмонда, штат Вашингтон. Подход Microsoft к безопасному развертыванию искусственного интеллекта основан на концепции, разработанной Национальным институтом стандартов и технологий. Агентству, входящему в состав Министерства торговли, было поручено разработать стандарты для новых технологий в рамках указа, изданного в прошлом году президентом Джо Байденом. В своем первом отчете Microsoft заявила, что внедрила 30 ответственных инструментов искусственного интеллекта, в том числе те, которые усложняют людям задачу заставить чат-ботов с искусственным интеллектом действовать странно. «Быстрые щиты» компании предназначены для обнаружения и блокирования преднамеренных попыток — также известных как атаки с быстрым внедрением или взлома — заставить модель ИИ вести себя непреднамеренным образом. Автор: Jackie Davalos. Источник: www.bloomberg.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ