Плохое обучение ИИ на YouTube привело к росту скандальных видеороликов для детей

30.12.2017 0:44 24

Плохое обучение ИИ на YouTube привело к росту скандальных видеороликов для детей

YouTube использует алгоритмы и человеческих модераторов, но это все еще не могло помешать росту тревожных, уязвимых для детей видео на платформе. Зачем? Вероятно, это связано с различными причинами - одна из них, согласно отчету BuzzFeed, представляет собой запутанный набор рекомендаций, которые компания предоставляет своим контрактникам для оценки контента. В публикации были опрошены специалисты по оценке качества поиска, которые помогают обучать поисковую ИИ платформу, чтобы получить наилучшие результаты для запросов, оценивая видео. Они обнаружили, что рабочим обычно поручают давать высокие оценки видео, основанные главным образом на производственных ценностях.

Как сказал один из работников:

«Даже если видео вызывает беспокойство или жестоко, мы можем отметить его, но все же должны сказать, что это высокое качество [если задача требует его]».
Это означает, что оценщики должны отмечать видео как «высокое качество», даже если у них есть тревожный контент, что может дать этим ссылкам толчок в результатах поиска. Проблема? Обнаруженные на платформе видеоролики, полученные на платформе, обычно имеют хорошие производственные ценности: они, как правило, требуют некоторых усилий для создания и профессионального редактирования.

После того, как средства массовой информации поставили в центр внимания наличие тревожных видеороликов, нацеленных на детей, YouTube начала просить оценщиков решить, подходит ли видео для 9-12-летних зрителей, даже если они не контролируются. Им сказали, чтобы они отмечали видео как «ОК», если они думают, что ребенок может смотреть его или «НЕ ОК», если оно содержит сексуально откровенный контент, насилие, грубый язык, употребление наркотиков или действия, которые способствуют плохому поведению.

Тем не менее, опрошенные BuzzFeed нашли примеры, которые YouTube дал в лучшем случае. Тейлор Свифт и ее музыкальное видео Bad Blood, например, НЕ ОК, основанное на примерах, предоставленных платформой. Но видео, содержащее умеренное животное насилие, по-видимому, нормально.

Барт Селман, профессор искусственного интеллекта Корнеллского университета, сказал BuzzFeed:

«Это пример того, что я называю« несоосность значения ». Это несоответствие ценности с точки зрения того, что лучше всего подходит для доходов компании по сравнению с тем, что лучше всего подходит для более широкого общественного блага общества. Спорный и экстремальный контент - видео, текст или новости - распространяется лучше и, следовательно, приводит к большим просмотрам, большему использованию платформы и увеличения доходов».
YouTube должен будет выработать более конкретный набор руководящих принципов и сделать рейтинг менее запутанным для своих работников, если захочет очистить свою платформу. В противном случае привлечение 10 000 сотрудников для помощи в просмотре видео не окажет существенного влияния.