Google заявляет, что её новые разработки в области искусственного интеллекта способны определять эмоции, и это вызывает опасения у специалистов
Google заявляет, что её новые разработки в области искусственного интеллекта способны определять эмоции, и это вызывает опасения у специалистов. Компания Google сообщает, что её новое семейство моделей искусственного интеллекта обладает уникальной способностью «распознавать» эмоции. В четверг было анонсировано семейство моделей PaliGemma 2, которое может анализировать изображения. Это позволяет искусственному интеллекту создавать подписи и отвечать на вопросы о людях, которых он «видит» на фотографиях. «PaliGemma 2 генерирует подробные, контекстно-зависимые подписи к изображениям», — говорится в сообщении Google, опубликованном в блоге для TechCrunch. «Искусственный интеллект выходит за рамки простого определения объекта и описывает действия, эмоции и общее содержание сцены». Однако распознавание эмоций не является стандартной функцией PaliGemma 2, и для её активации требуется настройка. Тем не менее, эксперты, с которыми общался TechCrunch, выразили обеспокоенность по поводу появления общедоступного детектора эмоций. «Меня это очень беспокоит», — сказала Сандра Вахтер, профессор этики данных и искусственного интеллекта в Оксфордском институте Интернета, в интервью TechCrunch. «Я считаю, что предположение о том, что мы можем «читать» эмоции людей, вызывает опасения. Это похоже на обращение к магическому шару». В течение многих лет стартапы и технологические гиганты пытаются создать искусственный интеллект, который может определять эмоции в различных областях, от обучения продажам до предотвращения несчастных случаев. Некоторые утверждают, что уже достигли этого, но наука пока не имеет прочной эмпирической основы для таких заявлений. Большинство детекторов эмоций основаны на ранних работах Пола Экмана, психолога, который предположил, что у людей есть шесть основных эмоций: гнев, удивление, отвращение, радость, страх и грусть. Однако последующие исследования поставили под сомнение гипотезу Экмана, показав, что существуют значительные различия в том, как люди из разных слоёв общества выражают свои чувства. «Определение эмоций в общем случае невозможно, поскольку люди испытывают их сложным образом», — сказал Майк Кук, научный сотрудник Королевского колледжа Лондона, специализирующийся на искусственном интеллекте, в интервью TechCrunch. «Конечно, мы думаем, что можем определить, что чувствуют другие люди, наблюдая за ними, и многие люди на протяжении многих лет пытались сделать то же самое, например, шпионские агентства или маркетинговые компании. Я уверен, что в некоторых случаях можно обнаружить некоторые общие признаки, но это не то, что мы когда-либо сможем полностью «решить». Неудивительно, что системы обнаружения эмоций, как правило, ненадёжны и предвзяты из-за предположений их разработчиков. В исследовании MIT 2020 года исследователи показали, что модели анализа лиц могут вырабатывать непреднамеренные предпочтения для определённых выражений, таких как улыбка. Более поздние работы показывают, что модели анализа эмоций приписывают больше негативных эмоций лицам чернокожих людей, чем лицам белых людей. Google заявляет, что провела «обширное тестирование» для оценки демографических предубеждений в PaliGemma 2 и обнаружила «низкий уровень токсичности и ненормативной лексики» по сравнению с отраслевыми стандартами. Однако компания не предоставила полный список стандартов, которые она использовала, и не указала, какие типы тестов были проведены. Единственный стандарт, который раскрыла Google, — это FairFace, набор из десятков тысяч изображений людей. Компания утверждает, что PaliGemma 2 показала хорошие результаты на FairFace. Однако некоторые исследователи раскритиковали этот стандарт как показатель предвзятости, отметив, что FairFace представляет лишь несколько расовых групп. «Интерпретация эмоций — это довольно субъективный вопрос, который выходит за рамки использования визуальных средств и тесно связан с личным и культурным контекстом», — говорит Хайди Кхлааф, главный научный сотрудник по искусственному интеллекту в AI Now Institute, некоммерческой организации, изучающей социальные последствия искусственного интеллекта. «Оставляя искусственный интеллект в стороне, исследования показали, что мы не можем определять эмоции только по чертам лица». Системы обнаружения эмоций вызвали гнев регулирующих органов в некоторых странах, которые пытаются ограничить использование этой технологии в ситуациях с высоким риском. Закон об искусственном интеллекте, основной законодательный акт Европейского союза в области искусственного интеллекта, запрещает школам и работодателям использовать детекторы эмоций (но не правоохранительным органам). Наибольшие опасения вызывают открытые модели, такие как PaliGemma 2, которые доступны на некоторых хостингах, включая платформу для разработки искусственного интеллекта Hugging Face. Существует риск их неправильного использования, что может привести к негативным последствиям. Кхлааф отметил, что если эмоциональная идентификация, основанная на псевдонаучных предположениях, будет реализована, это может иметь серьёзные последствия. Например, такая возможность может быть использована для дальнейшей дискриминации маргинализированных групп, таких как представители правоохранительных органов, кадровых служб, пограничного управления и т. д. Представитель Google, отвечая на вопрос об опасностях публичного выпуска PaliGemma 2, заявил, что компания поддерживает свои тесты на «репрезентативный вред», поскольку они касаются визуальных ответов на вопросы и субтитров. Они также добавили, что провели надёжные оценки моделей PaliGemma 2 с точки зрения этики и безопасности, включая безопасность детей и безопасность контента. Однако Вахтер выразил сомнения в том, что этого достаточно. «Ответственные инновации подразумевают, что вы думаете о последствиях с самого начала работы в лаборатории и продолжаете это делать на протяжении всего жизненного цикла продукта», — сказала она. «Я могу представить множество потенциальных проблем, которые могут привести к антиутопическому будущему, где ваши эмоции будут определять, получите ли вы работу, кредит или поступите ли в университет». Источник: www.techcrunch.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ