Аватар сообщества ALPHABET [новости]

ALPHABET [новости]

НОВОСТИ АКЦИЙ

Компания Google заявляет, что её новые разработки в области искусственного интеллекта способны определять эмоции, и это вызывает опасения у специалистов

4
Компания Google заявляет, что её новые разработки в области искусственного интеллекта способны определять эмоции, и это вызывает опасения у специалистов

Компания Google заявляет, что её новые разработки в области искусственного интеллекта способны определять эмоции, и это вызывает опасения у специалистов. Компания Google заявила, что её новое семейство моделей искусственного интеллекта обладает уникальной способностью «распознавать» эмоции. В четверг было анонсировано семейство моделей PaliGemma 2, которое может анализировать изображения. Благодаря этому искусственный интеллект может генерировать подписи и отвечать на вопросы о людях на фотографиях. «PaliGemma 2 создаёт подробные, контекстно-зависимые подписи к изображениям», — говорится в сообщении Google в блоге, предоставленном TechCrunch. «Она выходит за рамки простого распознавания объектов, описывая действия, эмоции и общий смысл сцены». Распознавание эмоций — это не базовая функция, и PaliGemma 2 нужно настроить для этой задачи. Однако эксперты, с которыми общался TechCrunch, выразили обеспокоенность появлением общедоступного детектора эмоций. «Меня это очень беспокоит», — сказала Сандра Вахтер, профессор этики данных и искусственного интеллекта в Оксфордском институте Интернета, в интервью TechCrunch. «Я считаю, что предположение о том, что мы можем «читать» эмоции людей, вызывает вопросы. Это похоже на попытку получить совет у магического шара». В течение многих лет стартапы и технологические гиганты пытались создать искусственный интеллект, который мог бы определять эмоции для различных целей, от обучения продажам до предотвращения несчастных случаев. Некоторые утверждают, что они достигли успеха, но наука всё ещё находится на стадии разработки. Большинство детекторов эмоций основаны на ранних работах Пола Экмана, психолога, который предположил, что у людей есть шесть основных эмоций: гнев, удивление, отвращение, радость, страх и грусть. Однако последующие исследования поставили под сомнение гипотезу Экмана, показав, что в разных культурах люди выражают свои чувства по-разному. «В общем случае распознавание эмоций невозможно, потому что люди испытывают эмоции сложным образом», — сказал Майк Кук, исследователь в области искусственного интеллекта из Университета королевы Марии, в интервью TechCrunch. «Конечно, мы думаем, что можем определить, что чувствуют другие люди, глядя на них, и многие люди пытались это сделать, например, шпионские агентства или маркетинговые компании. Я уверен, что в некоторых случаях можно обнаружить некоторые общие признаки, но это не то, что мы когда-либо сможем полностью понять». Неудивительно, что системы обнаружения эмоций часто оказываются ненадёжными и предвзятыми из-за предположений их создателей. В исследовании MIT 2020 года было показано, что модели анализа лиц могут вырабатывать непреднамеренные предпочтения для определённых выражений, таких как улыбка. Более поздние работы показывают, что модели анализа эмоций приписывают больше негативных эмоций лицам чернокожих людей, чем лицам белых людей. Google утверждает, что провела «обширное тестирование» для оценки демографических предубеждений в PaliGemma 2 и обнаружила «низкий уровень токсичности и ненормативной лексики» по сравнению с отраслевыми стандартами. Однако компания не предоставила полный список стандартов, которые она использовала, и не уточнила, какие типы тестов были проведены. Единственный стандарт, который раскрыла Google, — это FairFace, набор из десятков тысяч изображений людей. Компания утверждает, что PaliGemma 2 показала хорошие результаты на этом наборе. Однако некоторые исследователи раскритиковали этот стандарт как инструмент для оценки предвзятости, отметив, что он представляет лишь несколько расовых групп. «Интерпретация эмоций — это довольно субъективный вопрос, который выходит за рамки использования визуальных средств и тесно связан с личным и культурным контекстом», — говорит Хайди Кхлааф, главный научный сотрудник по искусственному интеллекту в AI Now Institute, некоммерческой организации, которая изучает социальные последствия искусственного интеллекта. «Оставляя искусственный интеллект в стороне, исследования показали, что мы не можем делать выводы об эмоциях только по чертам лица». Системы обнаружения эмоций вызвали недовольство регулирующих органов за рубежом, которые пытаются ограничить использование этой технологии в ситуациях с высоким риском. Закон об искусственном интеллекте, основной законодательный акт ЕС в области искусственного интеллекта, запрещает школам и работодателям использовать детекторы эмоций (но не правоохранительным органам). Наибольшую обеспокоенность вызывают открытые модели, такие как PaliGemma 2, которые доступны на различных платформах, включая платформу разработки искусственного интеллекта Hugging Face. Существует риск того, что они будут использоваться не по назначению или для вредоносных целей, что может привести к реальному ущербу. Источник: www.techcrunch.com

Войти

Войдите, чтобы оставлять комментарии

Другие новости категории

Вы уверены, что хотите выйти из аккаунта?