Название базовой системы (платформы): | Искусственный интеллект (ИИ, Artificial intelligence, AI) |
Разработчики: | Санкт-Петербургский федеральный исследовательский центр РАН (СПб ФИЦ РАН) |
Основные статьи:
2024: Ученые создали нейросеть для выявления дипфейков
Ученые Санкт-Петербургского Федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) разработали метод автоматического определения дипфейков через выявление манипуляций по улучшению качества сгенерированного видео для его убедительности (апскейлинга). На основе этого метода была обучена нейросеть, которая анализирует видео и фото и помогает выявить дипфейки. Об этом 2 августа 2024 года сообщила пресс-служба члена комитета ГосДумы РФ по информационной политике, информационным технологиям и связи Антона Немкина.
Практически все современные смартфоны используют нейросети для улучшения фотографий. Однако при создании дипфейков фотографии изменяются гораздо сильнее, в этом и состоит отличие. Наш алгоритм научился выявлять апскейлинг, то есть искусственное улучшение качества изображения за счет повышения его разрешения, — рассказал ТАСС ведущий эксперт Международного центра цифровой криминалистики СПб ФИЦ РАН Дмитрий Левшун. |
Чаще всего качественные дипфейки, которые создаются в мошеннических или политических целях, не обходятся без апскейлинга, поэтому подготовленная учеными нейросеть обеспечивает высокую эффективность выявления искусственно созданного контента. Далее специалисты также планируют создать базу данных и обучить нейросети выявлять дипфейки и по другим признакам.Чекап для искусственного интеллекта: зачем и как тестировать ИИ-решения?
При помощи искусственного интеллекта создаются до 10% всех фейков в сети, напомнила член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
При этом в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. Граждане уже выказывают обеспокоенность этой ситуацией – как показали результаты свежего исследования факультета права Высшей школы экономики (ВШЭ), опасения по поводу дипфейков, которые позволяют мошенникам создавать фальшивые видео и аудио, имитирующие голоса и внешность людей, разделяют 30% россиян. Нельзя допустить такого варианта развития событий, когда созданные при помощи ИИ фейки и дипфейки буквально заполонили наше цифровое пространство. Граждане должны четко понимать, с каким контентом они имеют дело, был ли он сгенерирован искусственно или уже создан человеком. В этом плане важна маркировка продуктов деятельности ИИ, о которой я уже говорил ранее. А предложенный петербуржскими учеными метод однозначно будет для выявления тех дипфейков, которые будут распространяться без соответствующей маркировки и скорее всего в противоправных целях, - отметил депутат. |
Кроме того, критически важно определиться в целом со стратегией работы с дипфейками и искусственным интеллектом, а также борьбы с их противоправным использованием, подчеркнул Немкин.
Соотвествующие положения обязательно войдут в разрабатываемый в России Цифровой кодекс. А пока я советую гражданам пользоваться простыми правилами, которые могут помочь самостоятельно выявить дипфейк. Например, видеосообщение, созданное при помощи технологии «дипфейк», можно выявить по движению глаз человека на видео, цвету кожи и волос, контуру овала лица — зачастую они могут быть размытыми, странными. В случае голосовых подделок стоит всегда внимательно оценивать интонации и четкость речи. Ну и, конечно, всегда в целом критически относиться к любым просьбам, которые поступают вам в сети, если это касается ваших личных данных или финансовых средств, - заключил парламентарий. |