Правительство Великобритании создало свой собственный ИИ для обнаружения экстремистских видеороликов
Ослабление экстремистского онлайн-контента в последнее время стало основным направлением для высокотехнологичных гигантов, но, несмотря на их усилия, парламент Великобритании осудил такие компании, как Facebook, YouTube и Twitter, за то, что «сознательно не смогли» предпринять достаточно решительные действия. Чтобы смягчить эту проблему, Министерство внутренних дел разработало свою собственную программу ИИ, которая может выявлять пропаганду исламского государства(ИГИЛ)в Интернете с коэффициентом успеха 99,99 процента.
Технология работает, анализируя видеоконтент во время процесса загрузки, не позволяя ему в первую очередь проникнуть в Интернет. По данным министерства внутренних дел, она автоматически обнаруживает 94 процента пропаганды ИГИЛ с точностью 99,99 процента и будет доступна для всех интернет-платформ, особенно небольших сайтов. По данным министерства внутренних дел, сторонники ИГИЛ использовали более 400 уникальных онлайн-платформ для распространения пропаганды в 2017 году.
Развитие инструмента является следствием нетерпимости правительства к технологическим компаниям - оно продемонстрировало, что может предложить сильным компаниям принять важные меры и помочь небольшим компаниям, у которых нет ресурсов, необходимых для решения этой проблемы. И министр внутренних дел Амбер Радд говорит, что она не исключает принуждения компаний использовать эту технологию. Выступая перед Би-би-си, она сказала: «Мы не собираемся исключать принятие законодательных мер, если нам это нужно, но я по-прежнему убеждена, что лучший способ принять реальные меры, добиться лучших результатов - это иметь промышленный форум, который у нас есть. Однако это должно быть связано с более крупными компаниями, работающими с небольшими компаниями».
Тем не менее, технология была встречена критикой с некоторых сторон. Например, группа Open Rights Group поднимает вопрос о юридической ответственности за удаление контента. В своем блоге представитель кампании Джим Киллок пишет: «Нам нужно беспокоиться о нежелательных последствиях отказа машины. Во-первых, мы подталкиваем компании к судьям законных и незаконных. Во-вторых, все системы допускают ошибки и требуемые от них подотчетности ошибки должны быть сведены к минимуму, но также исправлены».
Министерство внутренних дел не публично подробно изложило методологию оценки видео, но говорит, что из миллиона случайно выбранных видеороликов только 50 потребует дополнительного обзора человеком. Принимая во внимание, что Facebook имеет около двух миллиардов пользователей, это может добавить к значительным объемам (потенциально несправедливо) помеченного контента каждый день, что является еще одним фактором, который технологические гиганты учитывали в своих собственных автоматизированных системах. В прошлом году Глобальный интернет-форум по борьбе с терроризмом видел, как Google, Twitter и Facebook собираются вместе, чтобы обсудить методы классификации, технические решения и отчетность с учетом этих ложных срабатываний.
В заявлении TechCrunch, представитель Facebook сказал, что он разделяет цели министерства внутренних дел и что его нынешний подход работает, «но нет простого технического решения для борьбы с онлайн-экстремизмом». Однако разработка этого нового инструмента предполагает, что министерство внутренних дел не соглашается с этим, и что технические компании должны делать больше для борьбы с этим вопросом или столкнутся с риском принуждения к принятию мер.