Главное
Истории
Как спасались в холода?

Как спасались в холода?

Мужчина-антидепрессант

Мужчина-антидепрессант

Цены на масло

Цены на масло

Почему в СССР красили стены наполовину?

Почему в СССР красили стены наполовину?

Талисманы известных людей

Талисманы известных людей

Итоги выборов в США

Итоги выборов в США

Экранизация Преступления и наказания

Экранизация Преступления и наказания

Успех после 70

Успех после 70

Что происходит в жизни Глюкозы?

Что происходит в жизни Глюкозы?

Личная жизнь Дурова

Личная жизнь Дурова

Другие голос и лицо: как нейросети меняют известных людей и создают дипфейки

Сюжет: 

Эксклюзивы ВМ
Технологии
Другие голос и лицо: как нейросети меняют известных людей и создают дипфейки
Фото: ТНТ, нейросеть Midjourney, eldagsen.com, russian.rt.com, kinopoisk.ru

В Госдуме предложили ввести уголовную ответственность за создание дипфейков — так называют технологию искусственного интеллекта, которая заменяет лица и голоса людей. Причем делает это настолько реалистично, что можно только ахнуть! Эксперт цифровой экономики Рустам Рафиков рассказал «Вечерней Москве», в чем преимущества и опасность технологии.

В сети существуют платные сервисы, где нейросеть способна сделать дипфейк на любого человека. Достаточно просто загрузить в нее нужные данные. Существуют и дипфейки, которые копируют голос человека. Что в совокупности с изображением может быть очень опасно. Во-первых, при создании такого видео нарушаются права на использование изображения человека. Вообще, дипфейки могут использоваться не только в кино и рекламе, но и в политических целях. Например, когда от лица главы государства или другого политика делают громкие заявления. И причем люди, которые никогда не сталкивались с дипфейками, даже не поймут, что что-то не так.

Это может привести к тому, что начнут распространяться фейковые новости. А еще дипфейки используют в мошеннических целях, чтобы похитить деньги с банковских счетов. Еще сейчас никак не урегулирован вопрос с использованием лиц умерших граждан, можно ли это делать, не нарушая прав наследников? Да и в целом в России работа ИИ пока регулируется в экспериментальном режиме. Были предложения, чтобы видео с дипфейками отмечали опознавательными знаками. Но пока этого не сделали. И в какую сторону с юридической точки зрения это все будет развиваться, тоже непонятно. Пока вопросов больше, чем ответов.

*Дипфейк — глубокая подделка (от англ. deepfake).

Майков аж помолодел

В отечественном кино дипфейки используются нередко. Так, в сериале «Контакт» 2021 года актер Павел Майков играет роль сотрудника полиции, у которого дочь-подросток. В одном из эпизодов — воспоминании из юности — Майков «молодеет» на целых 15 лет благодаря технологии дипфейка.

Лавров лично позвал на выборы

Пару лет назад в сети появился ролик «Выборы 2021». По сюжету, зритель критикует вслух телевизионное выступление Сергея Лаврова, которого создали с помощью дипфейка. Министр слышит критику, выходит из телевизора и предлагает зрителю самому принимать важные для страны решения. Тот, естественно, оказался не готов.

Ди Каприо заговорил по-русски

В ноябре 2021 года в сети появился ролик: Ди Каприо танцует на Красной площади в Москве, на русском языке передает привет своей маме и рекламирует напитки российского производства. Видео набрало почти 3 миллиона просмотров, многие предположили, что Лео приехал в Россию отметить день рождения.

Королевские танцы

В декабре 2020 года британский телеканал Channel 4 опубликовал ролик, в котором королева Елизавета II в стиле рождественского поздравления подводит итоги года, шутит про принца Гарри и в ироничной форме обсуждает самые противоречивые истории 2020 года, связанные с королевской семьей. А затем Елизавета танцует в стиле популярных трендов соцсети TikTok. На самом деле это был дипфейк, озвученный актрисой Деброй Стефенсон. Сам ролик вызвал бурную реакцию британцев, шутку оценили далеко не все. Многие посчитали, что создание такого видео — неуважение к королеве.

Папа Римский утеплился

В сети появилось фото Папы Римского Франциска в супермодном объемном пуховике. Несколько кадров впервые опубликовали на портале Reddit. Глава католической церкви предстал в стильных солнечных очках, пилеолусе (головной убор). Поверх пуховика на Франциске был крест внушительных размеров. Оказалось, что кадры сгенерировала нейросеть Midjourney. Многие решили, что папа и правда примоднился. Но внимательные пользователи портала заметили, что папа не отбрасывает тени, и быстро вычислили, что фото — фейк.

Обаму тоже клонировали

В 2017 году создали цифровую копию экс-президента США Барака Обамы. Да такую похожую, что не отличить от настоящего. В кадре Обама несколько минут рассуждает о политике. А в конце признается в том, что представленный образ не имеет ничего общего с настоящим Обамой и цифровой экс-президент просто пошутил.

Трамп стал журналистом

В 2020 году в эфире RT появился шуточный ролик о том, что проигрыш на президентских выборах вынудит Дональда Трампа искать новую работу. И он устраивается редактором на канале RT в Москве. И так цифровая копия Трампа выпускает новости, обедает в столовой борщом и котлетой, гуляет по Красной площади и говорит, что он любит Россию.

Победила в фотоконкурсе!

20 апреля завершился крупный международный фотоконкурс Sony World Photography Award. Впервые в истории победил снимок, созданный нейросетью. Автор работы — фотограф из Берлина Борис Эльдагсен, и он не стал присваивать себе лавры победы и подчеркнул, что это эксперимент, которым он хотел привлечь внимание общества к проблеме использования ИИ.

Фейковый сериал

В 2022 году в России сняли первый в мире дипфейк-сериал «ПМЖейсон». Главные герои — голливудские актеры Киану Ривз и Джейсон Стэйтем. Действие сериала происходит в 2027 году. По сюжету Стэйтем остается жить в русской деревне после пяти лет съемок в России. Ему исполняется 60 лет, на юбилей приезжают его друзья: Марго Робби и Киану Ривз. Они отдыхают в деревне, жарят шашлыки и катаются на жигулях, пьют водку с соседями и ведут типичную жизнь российской глубинки.

Федот, да не тот

Екатерина Рощина, обозреватель:

— Казалось бы: дипфейки — это весело и интересно! Где-то на стыке развлекухи с провокацией. Самые примитивные дипфейки создавали когда-то мы сами, вырезая с фотографии лицо подружки и приклеивая его на тулово, скажем, Синди Кроуфорд.

Суть дипфейка не изменилась со времен царя Гороха. Только вместо ножниц, канцелярского клея и кривоватых ручонок теперь — искусственный интеллект. Который, проанализировав сотни фото и видео конкретного человека, сможет создать точную копию человека со всей его пластикой, мимикой. И заставит делать — на видео, конечно, — самые невообразимые вещи. Популярный политик и актер, да что там, любой мало-мальски известный человек может попасть в большую бесславную историю с фальсификацией собственного образа. Вбросить провокационное видео в сеть, а дальше все сделают пользователи многотысячными перепостами. Да, потом, конечно, можно будет что-то там долго и нудно доказывать, и ложечки найдутся, а осадок в виде погубленной репутации останется.

Первые дипфейки с помощью нейросети были созданы в 2017 году. То есть явление это еще очень юное. Но только поглядите, как лихо развивается институт дипфейков! Правда, пока человечество все же склонно с помощью новейших технологий «развлекаться». Генри Аждер, эксперт по технологии, говорит, что 96 процентов дипфейков в сети — это порнография. Еще, конечно, киношники и рекламщики сразу подумали о том, как бы сэкономить на артисте. Я, наивная, даже не предположила поначалу, что Брюс Уиллис в рекламе «Мегафона» ненастоящий! Удивилась — как же удалось уговорить голливудскую звезду в съемке. Оказалось потом, что Федот, да не тот. Царь — ненастоящий!

Хотя при этом «настоящему» заокеанскому Уиллису заплатили много денег за использование образа. А в продолжении «Диверсанта» появился сгенерированный нейросетью Владислав Галкин. Пока еще это все первые ласточки-дипфейки, еще где-то не совершенные и подвергаемые ожесточенной критике. Но самому явлению чуть больше пяти лет! Учитывая поистине космическую скорость развития всего связанного с искусственным интеллектом, можно смело предположить, что скоро кино будет сплошь и рядом состоять из киборгов. Ну зачем приглашать на главную роль какого-нибудь звездного Пуськина, который будет требовать космических заработков да еще этот, как его, райдер? Когда можно «воскресить» любимого актера прошлого.

Запомните этот момент. Пока еще человечество с интересом наблюдает за тем, как ИИ идет вразнос. Большинство из нас наивно предполагает, что он, этот загадочный ИИ, будет выполнять какие-то технические задачи, которые будет ставить перед ним человек, венец творения. Но если не мы, то поколение наших детей столкнется с огромной проблемой собственной ненужности и беспомощности. Искусственный интеллект вытеснит человека из творческих сфер деятельности. Писательство, актерство, рисование — везде «робот» сможет с успехом заменить хомо сапиенс. А что останется человеку? Только смотреть в сети созданное компьютерным разумом.

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.

  • 1) Нажмите на иконку поделиться Поделиться
  • 2) Нажмите “На экран «Домой»”

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.