КОНТАКТЫ

МЕНЮ

Cистемный интегратор

решений комплексной

информационной безопасности

(351) 734-95-00
Заказать обратный звонок

Представлен алгоритм, изменяющий пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков.

Дипфейк – это реалистичная манипуляция аудио- и видеоматериалами с помощью искусственного интеллекта. Эта технология опасна тем, что заставляет говорить человека то, что он не произносил, и делать то, что он никогда не делал.

В эпоху непрерывного технологичного прогресса, определить достоверность той или иной информации, представленной в интернете становится все сложнее. Чтобы уменьшить вероятность распространения фейковых публикаций, группа ученых из Бостонского университета разработала алгоритм, при помощи которого можно защитить изображения от использования в качестве основы дипфейков.

Алгоритм накладывает на изображение или видео невидимый фильтр, и если кто-то попытается использовать нейронную сеть для модификации этих файлов, они либо останутся без изменений, либо станут полностью искаженными - фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков.

Технический директор компании ИТ Энигма Александр Метальников прокомментировал: «Бурное развитие нейросетей и в том числе их использования для создания дипфейков уже стало достаточно серьёзной угрозой. Зафиксированы случаи, когда голос, изменённый с помощью нейросети, применялся для совершения мошеннических действий, а дипфейк-видео использовались для шантажа.

Поэтому появление технологий, которые могут затруднить создание дипфейков, можно только приветствовать. И всё же есть вопросы практического применения описанной технологии. В первую очередь, как описанные фильтры применить ко всем фотографиям и видеозаписям, где присутствует человек? Все мы отлично понимаем, что наши фотографии и видео хранятся не только на собственных смартфонах/фотоаппаратах, но и фигурируют на снимках, которые делали другие люди, на записях множества камер, и как быть с ними? Ответы на эти вопросы, скорее всего, мы получим только в ходе практического использования технологии защиты от дипфейков».

Поделиться: