Существует общий консенсус, даже среди тех, кто выступает в пользу безопасности через неясность, что принцип «безопасность через неясность» никогда не должен использоваться в качестве основной меры безопасности. Это в лучшем случае вторичная мера, и раскрытие информации о неясности не должно приводить к компрометации.
Есть у этого принципа и «сводные братья» – такие используемые в шифровании методы защиты данных, как обфускация и стеганография. Рассмотрим и их как родственные принципы.
Термин «обфускация», как правило, используется в программировании, но применяется и в защите данных. Причем само шифрование методом обфускации подразумевает не использование криптографии, а «загрязнение» содержимого файлов произвольным набором символов и букв, среди которых, зная шифр, можно вычислить главное. Примерный принцип дешифрования каждый читатель мог видеть в приключенческих фильмах – когда главный герой, накладывая трафарет-матрицу на абсолютно бессмысленный текст, читал подсказки или целые предложения.
Стеганография, в свою очередь, шифрует не сами данные, а факт их передачи – то есть шифруются каналы связи, адресат и адресант, но текст при этом может быть незашифрованным. Однако стеганографию тоже нельзя воспринимать как отдельный полноценный способ защиты данных – сообщение или данные никогда не передаются открытым способом, соответственно, имеет место комбинирование методов защиты данных. Отличным примером применения стеганографии может послужить практически каждый шпионский роман или фильм – радиограммы передаются от агента Х агенту У, а текст зашифрован при помощи число-буквенного кода. Но есть и понятие глубокой стеганографии – когда адресат и адресант не контактируют между собой напрямую, а все общение происходит путем передачи сообщений через определенную точку во времени и пространстве (как известный пример можно привести форму общения через третьих лиц и формулировки в письмах Владимира Дубровского к Марии Троекуровой в романе «Дубровский» авторства золота поэзии и нашего всего А. С. Пушкина). Но мы ведь рассматриваем применение этого алгоритма в цифровой среде – он несколько отличается от того, что я упомянул в этом абзаце.
В цифровой среде можно выделить три типа стеганографии.
– Цифровая стеганография – направление стеганографии, в котором сокрытие необходимой информации производится при помощи внедрения в медиафайлы незначительных искажений, «белого шума», знакомого профессиональным оцифровщикам аналоговых медиафайлов, или же различных графических искажений (которые при отфильтровывании шумов составляют некий массив графической или цифровой информации). Таким образом, каждая «битая» фотография в Сети может представлять собой шифрограмму, предназначенную для узкого круга людей.
– Компьютерная стеганография – направление классической стеганографии, основанное на «тайных ходах» операционных систем. Как классический пример выделяют файловую систему StegFS, которая используется в семействе операционных систем Linux. В компьютерной стеганографии файлы могут «прятаться» в отдельных закрытых разделах жестких и гибких дисков, а также для этих целей используются «теневые» форматы файлов. Но есть у этого метода серьезный недостаток: согласно Писанию, «ищите и обрящете» – значит, тот, кто слышал об этом методе сокрытия данных, знает, где в первую очередь искать данные.
– Сетевая стеганография в последнее время набирает популярность – предложенный в 2003 году алгоритм шифрования данных использует особенности протоколов передачи данных. Безопасность в данном методе обеспечивается по криптографическому принципу – вместе с открытыми байтами данных отправляется дополнительный «секретный пакет», принимаемый только в том случае, если у получающей стороны есть определенный ключ-идентификатор. Во всех остальных случаях прикрепленный пакет попросту теряется (в идеале) – хотя опытный хакер может перехватить его, но благодаря шифрованию данных вскрыть его в скором времени не получится.
Таким образом, принцип «безопасность через неясность» хоть и является одним из распространенных алгоритмов шифрования данных, одновременно считается слишком слабым для самостоятельного использования. Тем не менее этот принцип – один из главных антагонистов математически доказуемой безопасности в Сети, и несмотря на его слабость перед определенными (и к сожалению, распространенными) типами атак, на нем построены механизмы защиты коммерческих тайн, а также режимы секретности на предприятиях различного толка. Хотя если взять в отдельности, каждый алгоритм шифрования будет уязвимым без дополнительного применения сторонних компонентов защиты и шифрования данных, и именно поэтому для безопасности файлов часто используется именно целый комплекс защитных мероприятий. Тем не менее принцип «безопасность через неясность» при должном умении представляет собой отличный инструмент, обеспечивающий необходимый уровень анонимности в Сети.
Дипфейк
Дипфейк (англ. deep fake) – что первое всплывает в памяти, когда вы слышите или видите это слово? Чаще всего это некие картинки, публикуемые пользователями в социальных сетях, видео развлекательного или откровенного характера. Но задумывались ли вы о том, что подобные медиафайлы могут использовать в преступных целях? Ведь глубина проникновения технологий искусственного интеллекта (а дипфейки создают именно через эти технологии) в цифровой сети уже достаточно обширна.
Пандемия COVID-19 и период жестких карантинных ограничений стали своеобразной отправной точкой, с которой началась кампания по усиленному продвижению цифровых технологий. В ходе этой кампании были сформированы некоторые обновления технологий социальной инженерии, помогающие злоумышленникам различного уровня находить людей, которым легко внушить необходимую информацию. С той поры дипфейк-технологии все чаще стали применяться в «грязных» целях, как правило, область применения дипфейков лежит в криминальной плоскости.
Что же следует понимать под дипфейк-технологиями? Обыватель поймет этот термин как «глубокая подделка» (именно так переводится название технологии), однако будет не совсем прав. В создании таких медиа участвует искусственный интеллект, а следовательно, здесь будет более уместным термин «глубокое машинное обучение», ведь каждый из результатов, согласно заложенным в процесс алгоритмам, не является финальным. Из этого следует, что компьютер, производящий вычисления, на самом деле подготовил несколько финальных вариантов, сопоставив их на выходе в один – именно так работает представление конечного результата с точки зрения машины.
Именно благодаря такому устройству алгоритма дипфейк-фото- или видеоматериалы получаются максимально достоверными – и лишь малая часть смотрящих на результат сможет определить подделку. Достаточно вспомнить недавнюю «прямую линию» с Владимиром Владимировичем Путиным – в один из моментов на экране появился сам президент, который задал вопрос президенту. С высокой точностью было смоделировано и видео, и голос – если бы настоящий президент не находился в зале, мало кто из присутствующих определил бы, где находится поддельный, а где настоящий гарант.
Однако нельзя говорить о новизне этих технологий – за последние годы они лишь набрали популярность, хотя существовали много раньше. Например, еще в 1997 году компания Video Rewrite представила программную технологию, которая позволяла формировать видеозапись, где мимика лицевых мышц на экране совпадала с аудиодорожкой, загруженной в память компьютера. Но даже на тот момент синтезированная картинка выглядела настолько топорно, что никак не могла быть использована как подмена. И раз уж начало было положено, разработчики стали непрерывно работать над улучшением анимации. Потребовалось на это почти двадцать пять лет, но сегодня мы имеем результат, который довольно сложно отличить от оригинала. И наилучшие результаты в генерировании поддельных видео достигаются с помощью технологий искусственного интеллекта.
Настоящий рывок популярности таких систем случился после премьеры кинофильма «Аватар» – в его создании главную работу провел суперкомпьютер компании Weta FX с загруженным в него программным алгоритмом MASSIVE. И если физика движений киноперсонажей была внедрена с помощью CGI-технологий захвата движения, то их визуальная составляющая была сгенерирована именно нейросетевым алгоритмом MASSIVE – его аналоги работают в составе современных нейросетей по генерации изображений и видео. Но если нейросети задумывались как универсальное средство для помощи людям, то на эту уловку очень быстро обратили внимание преступники цифровой среды. В Сети стали массово появляться ролики различного содержания, в которых многие известные лица преподносили сомнительного содержания информацию, таким образом напрямую влияя на сознание людей. Вспомните знаменитого «лекаря» Анатолия Кашпировского – заряжать банки энергией через телевизор, лечить наложением рук и т. д. Примерно так же действуют преступники в цифровой среде – нужно продвинуть какой-то продукт? Его рекламирует некий бизнесмен или звезда эстрады, при этом сам бизнесмен или звезда эстрады и вовсе не в курсе, что участвуют в рекламе, ведь злоумышленникам достаточно одной фотографии, чтобы сгенерировать видео, на котором даже голос знаменитости будет звучать как настоящий.
Но не знаменитостями едиными – в полноценный дипфейк может быть вовлечен каждый из нас, злоумышленникам достаточно лишь вашей фотографии, и даже неважно, что она сделана 10–15 лет назад. Хотели бы вы стать одним из звеньев преступной цепочки? Или же сделаться жертвой интернет-шантажистов? Не думаю.
Итак, как же определить, фейковое ли перед вами видео? Для этого вам потребуется мобилизовать всю свою внимательность, усидчивость и зрение – первым делом попробуйте самостоятельно определить, насколько видео реально. Обратите внимание на поведение лица на видеозаписи – нейросети старых поколений часто приводят различные неточности, а именно: неправильную мимику, огрехи в поведении лицевых мышц (моргание, подергивания губ, бровей и т. д.), несовпадение речи на видео с движениями губ и так далее. В общем, ищите все несовпадения в поведении реальных людей вплоть до манеры произношения слов – она так же уникальна, как, скажем, внешность человека (ведь двух абсолютно одинаковых внешне людей не существует).