Как с вами связаться

Введите сообщение

Как с вами связаться

Введите сообщение

Аватар сообщества ЭКОНОМИКА МИРА [новости]

ЭКОНОМИКА МИРА [новости]

МИРОВАЯ ЭКОНОМИКА

Сотрудники OpenAI хотят, чтобы средства защиты говорили о «серьезных рисках» ИИ

2
Сотрудники OpenAI хотят, чтобы средства защиты говорили о «серьезных рисках» ИИ

Сотрудники OpenAI хотят, чтобы средства защиты говорили о «серьезных рисках» ИИ Группа нынешних и бывших сотрудников OpenAI и Google DeepMind призывают к защите от возмездия за то, что они делятся опасениями по поводу «серьезных рисков» технологий, которые создают эти и другие компании. «Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед обществом», — говорится в публичном письме , которое подписали 13 человек, работавших в компании, семь из которых указали свои названия. «Однако широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения, за исключением тех самых компаний, которые, возможно, не решают эти проблемы». В последние недели OpenAI столкнулась с разногласиями по поводу своего подхода к защите искусственного интеллекта после роспуска одной из самых высокопоставленных команд безопасности и серии увольнений сотрудников. Сотрудники OpenAI также выразили обеспокоенность тем, что сотрудников просили подписать соглашения о неущемлении прав, связанных с их акциями в компании, что потенциально может привести к тому, что они потеряют прибыльные сделки с акциями, если они выступят против ИИ-стартапа. После некоторого сопротивления OpenAI заявила, что освободит бывших сотрудников от соглашений. Джейкоб Хилтон, один из бывших сотрудников OpenAI, подписавших письмо во вторник, написал на X, что компания заслуживает похвалы за изменение политики недопущения унижения, «но сотрудники все еще могут опасаться других форм возмездия за раскрытие информации, таких как увольнение и судебный иск о возмещении ущерба». ». В заявлении, отправленном в Bloomberg, представитель OpenAI заявил, что компания гордится своим «послужным списком в предоставлении наиболее эффективных и безопасных систем искусственного интеллекта и верит в наш научный подход к устранению рисков». Представитель добавил: «Мы согласны с тем, что тщательные дебаты имеют решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру». В письме, озаглавленном «Право предупреждать о передовом искусственном интеллекте», сотрудники заявили, что они обеспокоены тем, что ведущие компании, занимающиеся искусственным интеллектом, «имеют сильные финансовые стимулы избегать эффективного надзора». С другой стороны, по их словам, у компаний есть «лишь слабые обязательства» делиться с общественностью истинными опасностями своих систем искусственного интеллекта. В письме утверждается, что обычные меры защиты информаторов недостаточны, поскольку они сосредоточены на незаконной деятельности, тогда как многие риски, которые беспокоят сотрудников, еще не регулируются. В своем пакете предложений сотрудники просят компании, занимающиеся искусственным интеллектом, взять на себя обязательство запретить соглашения о недопущении унижения в отношении проблем, связанных с рисками, и создать поддающийся проверке анонимный процесс, позволяющий сотрудникам поднимать вопросы перед советами директоров компании, а также регулирующими органами. Предложения также призывают компании воздерживаться от ответных мер в отношении нынешних и бывших сотрудников, которые публично делятся информацией о рисках после исчерпания других внутренних процессов. OpenAI заявила, что регулярно проводит сессии вопросов и ответов с советом директоров, а также проводит рабочие часы для руководителей, чтобы сотрудники могли выразить свои опасения. Компания также заявила, что у нее есть анонимная «горячая линия по вопросам честности» для сотрудников и подрядчиков. Дэниел Кокотайло, бывший сотрудник OpenAI, уволившийся в начале этого года, сказал, что он обеспокоен тем, готовы ли компании к последствиям общего искусственного интеллекта, гипотетической версии ИИ, которая может превосходить людей во многих задачах. Кокотайло заявил, что, по его мнению, вероятность достижения AGI к 2027 году составляет 50%. «Ничто на самом деле не мешает компаниям создавать AGI и использовать его для различных целей, и прозрачности здесь мало», — сказал Кокотайло, который рисковал отказаться от своего капитала, чтобы избежать подписания соглашения о неущемлении прав. «Я ушел, потому что чувствовал, что мы не готовы. Мы не были готовы как компания, и мы не были готовы как общество к этому, и нам нужно было действительно вкладывать гораздо больше средств в подготовку и размышление о последствиях». Автор: Shirin Ghaffary Источник: www.bloomberg.com

Войти

Войдите, чтобы оставлять комментарии

Другие новости сообщества / МИРОВАЯ ЭКОНОМИКА

Вы уверены, что хотите выйти из аккаунта?