Аватар сообщества ALPHABET [новости]

ALPHABET [новости]

НОВОСТИ АКЦИЙ

OpenAI, Google и Anthropic активно работают над разработкой более совершенных систем искусственного интеллекта

9
OpenAI, Google и Anthropic активно работают над разработкой более совершенных систем искусственного интеллекта

OpenAI, Google и Anthropic активно работают над разработкой более совершенных систем искусственного интеллекта. В сентябре стартап OpenAI завершил начальную стадию обучения новой масштабной модели искусственного интеллекта. Компания надеялась, что эта модель значительно превзойдёт предыдущие версии технологии, лежащей в основе ChatGPT, и приблизится к своей цели — созданию мощного искусственного интеллекта, превосходящего человеческий. Однако модель, известная внутри компании как Orion, не достигла желаемой производительности, по словам двух источников, знакомых с ситуацией и пожелавших остаться анонимными для обсуждения дел компании. Например, в конце лета Orion не смог ответить на вопросы по кодированию, на которых он не был обучен. В целом, Orion пока не считается таким большим шагом вперёд по сравнению с существующими моделями OpenAI, как GPT-4 по сравнению с GPT-3.5, системой, которая изначально поддерживала флагманский чат-бот компании, говорят источники. OpenAI не одинока в своих недавних трудностях. После многих лет стремительного выпуска всё более сложных продуктов ИИ три ведущие компании в этой области теперь видят уменьшение отдачи от своих дорогостоящих усилий по созданию новых моделей. По словам трёх осведомлённых источников, в Google Alphabet Inc. (GOOG, GOOGL) предстоящая итерация программного обеспечения Gemini не оправдывает внутренних ожиданий. Тем временем Anthropic столкнулась с отставанием графика выпуска своей долгожданной модели Claude под названием 3.5 Opus. Компании сталкиваются с несколькими проблемами. Становится всё труднее находить новые, неиспользованные источники высококачественных данных для обучения, созданных человеком, которые можно использовать для создания более продвинутых систем ИИ. Неудовлетворительная производительность кодирования Orion была частично обусловлена отсутствием достаточных данных для обучения, сообщили два источника. В то же время даже скромные улучшения могут быть недостаточными для оправдания огромных затрат, связанных с созданием и эксплуатацией новых моделей, или для того, чтобы оправдать ожидания, которые возникают при брендинге продукта как серьёзного обновления. Потенциал для улучшения этих моделей огромен. По словам одного из источников, OpenAI проводит Orion через многомесячный процесс, который часто называют пост-обучением. Эта процедура, которая является обычной перед тем, как компания публично выпускает новое программное обеспечение ИИ, включает в себя включение человеческой обратной связи для улучшения ответов и уточнение тона того, как модель должна взаимодействовать с пользователями, среди прочего. Но Orion всё ещё не на том уровне, который OpenAI хотела бы выпустить для пользователей, и компания вряд ли выпустит систему до начала следующего года, сообщил один источник. Эти проблемы бросают вызов евангелию, которое укоренилось в Кремниевой долине в последние годы, особенно с тех пор, как OpenAI выпустила ChatGPT два года назад. Большая часть технологической индустрии сделала ставку на так называемые законы масштабирования, которые гласят, что большая вычислительная мощность, данные и более крупные модели неизбежно проложат путь для больших скачков вперёд в силе ИИ. Недавние неудачи также вызывают сомнения относительно крупных инвестиций в ИИ и осуществимости достижения всеобъемлющей цели, которую эти компании агрессивно преследуют: искусственного интеллекта общего назначения. Этот термин обычно относится к гипотетическим системам ИИ, которые будут соответствовать или превосходить людей во многих интеллектуальных задачах. Руководители OpenAI и Anthropic ранее заявляли, что AGI может появиться всего через несколько лет. «Пузырь AGI немного лопается», — сказала Маргарет Митчелл, главный этический учёный в стартапе ИИ Hugging Face. По её словам, стало ясно, что для того, чтобы модели ИИ работали действительно хорошо с различными задачами, могут потребоваться «различные подходы к обучению» — идея, которую поддержали Bloomberg News несколько экспертов в области искусственного интеллекта. Представитель Google DeepMind в своём заявлении сказал, что компания «довольна прогрессом, который мы видим на Gemini, и мы поделимся больше, когда будем готовы». OpenAI отказалась от комментариев. Anthropic отказалась от комментариев, но сослалась на Bloomberg News с пятичасовым подкастом с участием генерального директора Дарио Амодеи, который был выпущен в понедельник. «Люди называют их законами масштабирования. Это неправильное название», — сказал он в подкасте. «Это не законы вселенной. Это эмпирические закономерности. Я собираюсь поспорить, что они продолжат действовать, но я в этом не уверен». Амодей сказал, что есть «множество вещей», которые могут «сорвать» процесс достижения более мощного ИИ в ближайшие несколько лет, включая вероятность того, что «у нас могут закончиться данные». Но Амодей сказал, что он оптимистично настроен и что компании, занимающиеся ИИ, найдут способ преодолеть любые препятствия. Источник: www.bloomberg.com

Войти

Войдите, чтобы оставлять комментарии

Другие новости категории

Вы уверены, что хотите выйти из аккаунта?