дип трот что это
Наивные вопросы
Дип… что?
Глубокие (состоящие из многих слоёв) нейросети позволяют строить многоэтапные алгоритмы обработки информации. В результате развития этой технологии машины обрели способность к самообучению.
Как эта штука работает?
Кто создал первый дипфейк?
Считается, что эра дипфейков началась в конце 2017 года, когда пользователь с ником DeepFakes выложил на Reddit несколько видео с контентом 18+. На них актрисам из видео для взрослых были «приделаны» лица голливудских звёзд. Технология быстро разошлась в интернете и запустила волну по созданию похожего контента. В недавнем исследовании нидерландская компания по кибербезопасности Deeptrace выявила, что ролики 18+ составляют 96% от общего числа дипфейков: на момент исследования их было около 15 тысяч во всей Сети.
Как простому человеку сделать дипфейк?
Дипфейки опасны?
Кажется, уже да. Первые подобные видеоролики были плохого качества, и подделки легко распознавались, но технология быстро эволюционирует.
По мере совершенствования дипфейков расширялось их применение в криминальной сфере. Теперь мошенники генерируют голос для звонков по телефону и создают компрометирующие видеоролики для шантажа. А в будущем? По прогнозам экспертов, дипфейки могут стать угрозой национальной безопасности. Повсеместный сбор биометрических данных создаёт дополнительные риски: фейковое изображение можно будет использовать вместе с фейковыми отпечатками пальцев или следами ДНК.
Кто же нас спасёт?
GAN: самоучитель для нейросетей
Как была создана и где применяется важнейшая из новых технологий машинного обучения
Однажды вечером докторант Монреальского университета Ян Гудфеллоу поспорил с друзьями за кружкой пива. Приятели поделились с ним идеей: они хотели создать нейросеть, которая будет придумывать лица никогда не существовавших людей. Получалось не очень. На сгенерированных изображениях не хватало то ухо, то носа, а чаще все детали были на месте, но портрет больше походил на шизоидную аппликацию из вырезанных частей лица со странными пропорциями, чем на нормальную физиономию. Разработчики планировали исправить болезненный творческий стиль нейросети, заставив её анализировать огромное число реальных фотографий. Но Гудфеллоу их высмеял. Для этого потребовались бы такие вычислительные мощности, которых у его приятелей просто не было. Так что у них ничего не получится, если только… Если только не создать вторую нейронную сеть, которая будет критиковать первую, а потом не стравить их, заставляя спорить, пока они не станут выдавать изображения нужного качества.
На этот раз снисходительно улыбнулись уже друзья Гудфеллоу: какая только чушь не приходит в голову к концу вечера в знаменитом монреальском кабаке «Три пивовара»! На том и разошлись.
Но вместо того чтобы лечь спать и наутро забыть своё пьяное озарение, Ян Гудфеллоу пришёл домой и уселся за компьютер.
Новый алгоритм освободил человека от необходимости быть наставником для машин: благодаря соперничеству между двумя нейросетями система учится сама у себя. Это диалог антагонистов, работающих в одной команде, как если бы фальшивомонетчик всё более искусно подделывал купюры, а полицейский выискивал всё более тонкие способы опознать подделку. Обучение продолжается, пока алгоритм не начнёт путаться, где фальшивка, а где оригинал. Это означает, что машина научилась создавать нечто уникальное, но при этом неотличимое от реальности. Например, лицо никогда не существовавшего человека, которое вы не отличите от фото реальных людей. Разве не это называют творчеством?
Детище Гудфеллоу помогло заработать не только художникам, но и специалистам по компьютерным спецэффектам. Раньше, чтобы создать вымышленную реальность, им требовались миллионы долларов, 3D-сканирование актёров и большие компьютерные мощности. Но чтобы поменять местами лица каскадёра и актёра, довольно ноутбука.
С помощью GAN можно серьёзно улучшить качество изображения: нейросеть «додумывает» недостающие фрагменты, благодаря чему мы смотрим старые мультфильмы в HD-качестве, а медики могут во всех деталях разглядеть снимок, сделанный в плохом разрешении.
GAN умеет работать в том числе с голосом: нейросетям достаточно послушать несколько минут записи, чтобы максимально достоверно подделать речь человека. Так мы и попали в дивный мир deepfake, в котором ничему нельзя верить. Пока ещё нейросеть оставляет массу цифровых следов, и специальные фильтры могут отличить оригинал от подделки. Но с каждым днём алгоритмы совершенствуются.
Фальшивые звёзды
Когда: 2018.
Автор: Пользователи YouTube.
Сюжет: Любители подделок поместили актёра в фильмы, в которых он никогда не снимался. Дон Корлеоне из «Крёстного отца», Нео из «Матрицы», Мария из «Звуков музыки»… Для Кейджа нет невозможного!
Последствия: Другие актёры тоже стали появляться в нетипичных для них ролях. Джим Керри попал в «Сияние» и «Джокера», Сильвестр Сталлоне отметился в «Терминаторе», а Арнольд Шварценеггер перевоплотился сразу во всех персонажей трилогии «Властелин колец». Список продолжает пополняться.
Когда: 2019.
Автор: Портал Politics WatchDogs.
Сюжет: Пелоси, спикер палаты представителей конгресса США, произносит речь, но плохо выговаривает слова. Пользователи даже посчитали, что оппонентка президента Дональда Трампа (тогда между ними было личное противостояние) пьяна.
Последствия: Пелоси назвала видео «сексистским мусором». По её требованию YouTube удалил ролик, но в интернете остались его многочисленные копии.
Досталось и самим Трампу с Обамой: в 2017-м Барак назвал Дональда «засранцем» (deep shit), а «помогли» ему в этом режиссёр Джордан Пил и издание BuzzFeed.
Когда: 2019.
Автор: Билл Постерс (известный мастер дипфейков).
Сюжет: В тизере вымышленного телевизионного проекта глава Amazon пытается привлечь внимание к горящим лесам Амазонии. Мнимый Безос делает акцент на том, что «одолжил название лесов для своей компании». Именно это, говорит двойник миллиардера, позволило ему «стать самым богатым человеком на Земле».
Когда: 2019 (к 115-му дню рождения).
Автор: Музей Дали во Флориде и компания Goodby Silverstein & Partners из Сан-Франциско.
Сюжет: Дали приветствует гостей на специальном экране в одном из залов. Модель создавали на основе архивных материалов и видео с современными актёрами, похожими на художника. Голос Дали подарил артист с характерным испанским акцентом.
Последствия: Виртуальный Дали сопровождал посетителей музея на выставке Dali Lives. Мэтр жестикулировал, рисовал, шутил, рассказывал истории, общался со всеми желающими и делал с ними селфи. Чтобы добиться такого результата, создателям понадобилось более 6000 кадров с изображением художника и 1000 часов машинного обучения.
Когда: 2020.
Автор: Некоммерческая организация Change the Ref.
Последствия: За несколько дней ролик набрал миллионы просмотров, но это не помешало пользователем назвать видео «неэтичным» и «пугающим», обвинив его создателей в «цифровой некромантии».
Когда: 2020.
Автор: Lucasfilm.
Сюжет: В финальном эпизоде второго сезона сериала «Мандалорец» появляется молодой Люк, который забирает с собой Малыша Йоду.
Последствия: Известный в YouTube дипфейкер Shamook решил посоревноваться с Disney и создал более правдоподобную версию помолодевшего Люка. Студия оценила его талант и предложила сотрудничество. С помощью умельца в очередной части «Звёздных войн» вернули к жизни и нестареющую принцессу Лею.
Когда: 2021.
Авторы: Майлз Фишер (имитатор актёра) и Крис Юме (специалист по визуальным эффектам).
Сюжет: В серии роликов в TikTok Круз здоровается с пользователями, ударяет по мячу на поле для гольфа, рассказывает о встрече с Горбачёвым и показывает фокус с монеткой.
Последствия: Видео набрали 8 миллионов просмотров, а алгоритмы не опознали их как подделки. Впрочем, до этого Майлз успешно копировал Круза и без технологических ухищрений. Например, в 2019 году он записал шуточное обращение от лица актёра на выборах.
101 Стимулятор Deep Throat Одноразовый
Цены на 101 Стимулятор Deep Throat Одноразовый в аптеках в Москвы и МО
Товар дня
Витамин С таблетки шипучие 900 мг 3,5 г 20 шт.
Циклоферон таблетки покрытые кишечнорастворимой оболочкой 150 мг 20 шт.
Гербион сироп плюща флакон 150 мл
Ринза таблетки 10 шт.
ТераФлю порошок для приготовления раствора для приема внутрь пакетики 10 шт. Лимон
Описание
Сертификаты и лицензии
Отзывы
Доставка
Call-центр работает с 6:00 утра до 1:00 ночи
Ежедневно с 09:00 до 21:00
Лицензия аптеки ЛО-77-02-010329 от 18 июня 2019 г.
ОГРН 1197746311916 ИНН 7743301096
Старейшая интернет-аптека в России. Работаем для вас eжедневно с 2000 года.
Информация о товаре носит ознакомительный характер и не является публичной офертой согласно ст.437 ГК РФ.
© 2000–2021 ООО «ВЕРФАРМ». Любая информация, размещенная на сайте, не является публичной офертой
Дипфейки: что это за технология и почему она опасна
Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). Технология дипфейков заключается в синтезе ИИ человеческих изображений: алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.
С распространением дипфейков появились случаи «дискредитации» публичных личностей, чьих изображений много в открытом доступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.
Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Со временем дипфейки будут становиться все более реалистичными, пишет американское издание Forbes. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной безопасности.