Теперь YouTube просит зрителей определять небрежность генеративного ИИ при оценке видеороликов

YouTube у него сложное отношение к генеративному искусственному интеллекту. Он позволяет размещать на платформе некоторые видео, созданные с помощью машинного обучения, и даже поощряет его использование. Тем не менее, компания также поклялась пресекать небрежное отношение к ИИ. Появилась новая система рейтинга, которая просит зрителей выявлять этот нежелательный контент.
VidIQ является одним из нескольких аккаунтов в социальных сетях, которые заметили всплывающие окна в приложении Приложении YouTube. Она прямо спрашивает: "Чувствуется ли здесь искусственный интеллект?" или, в качестве альтернативы, был ли "низкокачественный искусственный интеллект" фактором. Возможные ответы варьируются от "Совсем нет" до "Очень" На данный момент, судя по всему, новая стратегия находится на стадии ограниченного тестирования.
Создатели контента могут свободно использовать инструменты генеративного ИИ для улучшения видео. Они не обязаны записывать закадровый голос, вносить правки или создавать графику. К сожалению, все большее количество загружаемых материалов создается без достаточного человеческого контроля. Но даже в этом случае они часто разрешаются, если не считаются некачественными. В противном случае владельцы каналов рискуют потерять монетизации.
Как YouTube отсеивает некачественный ИИ?
Чтобы определить, соответствует ли кандидат основным стандартам, YouTube полагается как на автоматические, так и на человеческие обзоры. Ни тот, ни другой способ не оправдали себя: одно из недавних исследований показало, что более 20% Шорт на YouTube были плохо сделаны, повторялись или вводили в заблуждение. Возможно, именно поэтому компания добавляет новый элемент к традиционным опциям "нравится/не нравится".
Опора на зрителей имеет свои недостатки, так как некоторые из них недостаточно проницательны, чтобы заметить умные deepfakes. Существует также субъективный элемент, когда сторонники канала могут колебаться, отмечать ли видео.
Некоторые критики считают, что новая система рейтингов приведет к большему количеству нечистот в ИИа не к уменьшению. Если изменения получат широкое распространение, пользователи будут предоставлять огромное количество данных. TukiFromKL считает, что платформа обучает свои собственные модели, чтобы генерировать контент, который труднее обнаружить. Поскольку некоторые результаты будут более убедительными, чем другие, она может научиться эффективно обманывать аудиторию.





















