Как с вами связаться

Введите сообщение

Как с вами связаться

Введите сообщение

Аватар сообщества ALPHABET [новости]

ALPHABET [новости]

НОВОСТИ АКЦИЙ

Компания Google утверждает, что клиенты могут применять искусственный интеллект в «рискованных» сферах, но только под контролем человека

19
Компания Google утверждает, что клиенты могут применять искусственный интеллект в «рискованных» сферах, но только под контролем человека

Компания Google утверждает, что клиенты могут применять искусственный интеллект в «рискованных» сферах, но только под контролем человека. Компания Google внесла изменения в свои правила использования искусственного интеллекта, чтобы уточнить, что клиенты могут применять инструменты генеративного ИИ для принятия автоматизированных решений в областях с высоким уровнем риска, таких как здравоохранение. Однако это возможно только при условии участия человека в процессе. В новой редакции Политики запрещённого использования генеративного ИИ, опубликованной во вторник, компания Google сообщает, что клиенты могут использовать генеративный ИИ для принятия автоматизированных решений, которые могут оказать значительное негативное влияние на права личности. Однако при этом необходимо, чтобы человек контролировал процесс. В контексте ИИ автоматизированные решения — это решения, которые принимаются системой на основе как фактических, так и предполагаемых данных. Например, система может принять автоматизированное решение о выдаче кредита или проверке кандидата на работу. Ранее Google полностью запрещал использование генеративного ИИ для автоматизированного принятия решений в областях с высоким уровнем риска. Однако теперь компания сообщает TechCrunch, что клиенты могут использовать генеративный ИИ для автоматизированного принятия решений даже в областях с высоким уровнем риска, но при условии, что за процессом будет следить человек. «Требование человеческого контроля всегда было частью нашей политики для всех областей с высоким уровнем риска», — заявил представитель Google в ответ на запрос TechCrunch. «Мы пересмотрели некоторые пункты в наших правилах и сделали их более понятными для пользователей, добавив больше примеров». Основные конкуренты Google в области искусственного интеллекта, такие как OpenAI и Anthropic, имеют более строгие правила использования ИИ в автоматизированном принятии решений с высоким уровнем риска. Например, OpenAI запрещает использование своих сервисов для автоматизированного принятия решений, связанных с кредитованием, занятостью, жильём, образованием, социальным скорингом и страхованием. Anthropic позволяет использовать свой ИИ в юриспруденции, страховании, здравоохранении и других областях с высоким уровнем риска для автоматизированного принятия решений, но только под наблюдением «квалифицированного специалиста» и требует от клиентов сообщать о том, что они используют ИИ для этой цели. Использование ИИ для принятия решений, влияющих на отдельных лиц, привлекло внимание регулирующих органов, которые выразили обеспокоенность по поводу потенциального искажения результатов. Исследования показывают, что ИИ, используемый для принятия решений, таких как одобрение заявок на кредиты и ипотеку, может увековечить историческую дискриминацию. Некоммерческая организация Human Rights Watch призвала запретить, в частности, системы «социального скоринга», которые, по мнению организации, могут ограничить доступ людей к социальной поддержке, поставить под угрозу их конфиденциальность и создать предвзятую картину их личности. Согласно Закону об искусственном интеллекте в Европейском союзе, системы ИИ с высоким уровнем риска, включая те, которые принимают индивидуальные решения о кредитовании и трудоустройстве, подвергаются наиболее строгому контролю. Поставщики таких систем должны регистрироваться в базе данных, управлять качеством и рисками, нанимать руководителей-людей и сообщать о происшествиях в соответствующие органы, среди прочих требований. В США, в штате Колорадо, недавно был принят закон, который обязывает разработчиков ИИ раскрывать информацию о «высокорисковых» системах и публиковать заявления, обобщающие возможности и ограничения систем. В то же время в Нью-Йорке работодателям запрещено использовать автоматизированные инструменты для проверки кандидатов на работу, если только инструмент не проходил проверку на предвзятость в течение последнего года. Источник: techcrunch.com

Войти

Войдите, чтобы оставлять комментарии

Другие новости сообщества / НОВОСТИ АКЦИЙ

Вы уверены, что хотите выйти из аккаунта?