Крупное краудсорсинговое исследование показало, что искусственный интеллект YouTube по-прежнему рекомендует большинство видео, о просмотре которых пользователи сожалеют.

Mozilla запустила исследование с использованием краудсорсинговой армии добровольцев и обнаружила, что из контента, о просмотре которого пользователи сожалели, 71% были рекомендациями от ИИ YouTube.

На протяжении многих лет высказывались опасения, что алгоритмы YouTube продвигают видео, которые варьируются от глупых, но в остальном безобидных, до разжигания ненависти, заговоров, злоупотреблений, дезинформации и политического/религиозного экстремизма. Чем больше таких видео смотрят, тем больше их рекомендуют, и образуются опасные пузыри, где взгляды застывают, а другие перспективы недопустимы.

“Теперь мы знаем, что YouTube рекомендует видео, которые нарушают их собственную политику содержания и вредят людям по всему миру, и это должно быть прекращено”, — говорит представитель Mozilla.

Поскольку это продукт Google, одного из мировых лидеров в области искусственного интеллекта, кажется шокирующим, что YouTube все еще предлагает такие рекомендации. Это заставляет многих людей задаться вопросом, есть ли небольшой стимул изменить его, поскольку такой clickbait держит пользователей вовлеченными в платформу, к лучшему или худшему.

YouTube — крупнейший онлайн-провайдер видео, охватывающий более двух миллиардов зрителей в месяц и предоставляющий более миллиарда часов просмотра каждый день. Имея это в виду, Google несет огромную ответственность за то, чтобы контент, который он рекомендует, был подходящим.

Это не обязательно легкая задача, но Google должен быть в состоянии справиться с ней. Таким вещам, как ненавистнические высказывания и экстремизм, нет места на YouTube, но Google действительно должен идти по тонкой линии, когда речь заходит о том, чтобы избежать таких вещей, как политические предубеждения, которые могут быть расценены как манипуляция выборами.

Около девяти процентов видео, после которых участники исследования Mozilla сожалели о просмотре, были позже удалены с YouTube.

Google предпринимает шаги в течение многих лет, чтобы попытаться решить некоторые проблемы контента на своей платформе, и утверждает, что сделал 30 изменений в своих алгоритмах за последний год, чтобы уменьшить рекомендации вредных видео. Хотя это, возможно, не зашло достаточно далеко, это заслуживает некоторой похвалы. Однако, как представляется, эти усилия оказались более эффективными для англоязычных стран.

Согласно исследованию Mozilla, рекомендации YouTube по просмотру видео, которые пользователям не понравились, на 60 процентов выше в странах, где английский не является основным языком. Особенно это касалось Бразилии, Германии и Франции.

В докладе содержится целый ряд рекомендаций, которые помогут YouTube и его пользователям решить эту проблему.

Для пользователей Mozilla рекомендует проверять ваши истории “просмотра” и “поиска”, чтобы исключить все, чем вы не хотите влиять на обслуживаемый вами контент.

Mozilla также рекомендует YouTube провести независимый аудит своих рекомендательных систем, быть более прозрачным в отношении пограничного контента и предоставить возможность полностью отказаться от персонализации.

Законодатели должны поручить некоторые из этих обязанностей Google, предлагает Mozilla. Это включает в себя выпуск информации и создание инструментов для внешних исследователей для тщательного изучения алгоритмов YouTube.

Вы можете найти полную копию отчета Mozilla здесь

Источник: https://artificialintelligence-news.com/2021/07/07/study-finds-youtubes-ai-serves-most-content-users-regret-viewing/  

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *