»Имя: »Пароль:   Запомнить? 
Форум M-rNagiev.ru / Разное / Разное о... разном / БолтАлогиЯ / Техническая болталка
Написано:  23 Jun 2013 13:36


Ребята!
Если вы захотите разместить на форум страницы газет или журнала, то размещайте их пожалуйста сразу в большом формате через любой сайт хостинг картинок, через ссылки. Чтобы был виден текст.
Спасибо
Написано:  27 Jun 2013 14:55


"...а я его услышала, я поняла..."

Спасибо
Написано:  04 Oct 2014 03:37


Форум по-поему ночью сбил время...
Написано:  04 Oct 2014 03:48


И ещё по-моему посты в некоторых темах местами поменялись за ночь.... такое может быть?
Написано:  04 Oct 2014 07:19


Ну время здесь давно сбилось, у меня ни часы ни минуты не совпадают, сайт живёт в каком-то параллельном измерении))))
А про посты я тоже заметила, но, по-моему, сместились только те, которые в последствии были подправлены и отсортировались по времени правки.
Написано:  30 Oct 2016 11:36


http://kysya.ru/ - "был да сплыл..." а жаль,идея была хорошая.
Написано:  04 Nov 2016 17:33


Кризис ,видимо...овес нынче дорог.
Написано:  24 Dec 2016 17:33


Уже Кыся сайт снова работает )))))
Написано:  24 Dec 2016 17:48


серьезно? Пойду, посмотрю..
Написано:  07 Aug 2019 14:41


Дипфейк с Нагиевым нашли в интернете. Видео настоящее, но это не помеха мошенникам

Мошенники распространили в соцсетях видео с Дмитрием Нагиевым. Людям предлагают кликнуть на ссылку, чтобы поучаствовать в розыгрыше, и приводят на фишинговый сайт. Специалисты по безопасности называют ролик хорошо проработанным дипфейком: то есть лицо артиста «прикрутили» к чужому телу. Вот только Нагиев действительно снялся в таком видео — для других целей. Проблемы дипфейков и мошенничества это, впрочем, не отменяет.

Эксперты компании «Инфостистемы Джет», работающей в сфере защиты информации, сообщили РИА «Новости», что обнаружили в интернете дипфейк с Дмитрием Нагиевым. В ролике артист якобы предлагал зрителям поучаствовать в розыгрыше ценного приза. Для этого нужно было перейти на сайт, посетители которого теряли деньги. Через несколько дней такие мошеннические ресурсы, как правило, блокируют, но злоумышленники регистрируют новые.

«Спектр зловредного применения deep fake (мы для удобства читателей будем писать по-русски и склонять это название — прим. ред.) и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике», — отметила специалист компании по нейросетям Анна Олейникова.



upload/1528_1565181540.jpg

Бороться с мошенниками будут их же оружием: специалисты обучат нейросети искать и распознавать дипфейки. Обычный пользователь тоже может заметить разницу между подделкой и реальным видео: герои таких роликов не моргают, глаза все время открыты или полузакрыты. При поворотах головы или смене освещения вокруг фигуры появляется странный шлейф.

Технология Deep Learning позволяет менять речь человека и движения его губ на видео. В компании опасаются, что инновация будет пользоваться спросом у мошенников и провокаторов.

В свою очередь, глава компании «Нейросети Ашманова» Станислав Ашманов сообщил «360», что очень трудно создать правдоподобный дипфейк. Для этого необходимо множество разных данных и сложный алгоритм. Пока все, что появляется в Сети, страдает от недостатка качества и выглядит довольно неправдоподобно.

«Может быть, есть фейки, про которые мы даже не знаем, что это фейки. А в других случаях замечаем, что это подделки. По-моему, пока технология еще не созрела, чтобы делать неотличимые от реальности видео дешево и легко», — добавил он.

В этом можно убедиться и самим. Взять хотя бы недавнее видео с Александром Невским, которое вставили в фильм «Терминатор 2».

Настолько хорошо, что реально
Вот только видео с Нагиевым — плохой пример, чтобы говорить о мошенничестве. Директор артиста Елена Шайкина заявила «360», что ролик, о котором идет речь, реальный, просто старый. Акция, показанная в нем, проходила больше года назад, и шоумен принимал участие в рекламе.

«Просто кто-то вспомнил старое видео. Ни о каких фейковых видео речи не идет, — подчеркнула Шайкина. — Информация эта, по ее словам, появилась потому, что «эксперты компании („Инфостистемы Джет“ — прим. ред.) хотят с нами работать, а мы не хотим и не работаем».

Специалист «Инфостистем Джет» Анна Олейникова объяснила «360», что сотрудники компании звонили представителю Нагиева, но тот ответил, что ничего о видео не знает, и предположил, что это мошенничество. По ее словам, цели сотрудничать с артистами и другими деятелями шоу-бизнеса у компании нет.

«Мы, научные исследователи, научные деятели, развиваемся в области искусственного интеллекта, нейронных сетей, разрабатываем продукты. Нам интересны <…> не какие-то публичные деятели культуры, [наша задача] предупредить пользователей», — добавила она.

Дорога в суд

Качественные, практически неотличимые от реальности дипфейки с иностранными актерами активно начали появляться около года назад — в основном для привлечения подписчиков в блогах. Так, например, Джека Николсона в «Сиянии» заменили на Джима Керри, а Тома Круза поместили в «Американского психопата».

Со случаем мошенничества с использованием российских звезд в «Инфосистемах Джет» столкнулись впервые на Facebook. В ролике, по словам представителя компании, фигурировали певец Григорий Лепс и еще одна знаменитость.

Отследить мошенников трудно. Google быстро блокирует фишинговые сайты, а злоумышленники открывают новые.

Юрист Андрей Лухин пояснил «360», что если сведения о видеоролике как-то затрагивают честь, достоинство, деловую репутацию артиста или правообладателя контента, то они могут обратиться в суд. Если этот факт будет доказан, можно требовать опровержения или удаления данных либо взыскание морального ущерба.

«Но нужно доказать, что данная информация не является достоверной, например, утратила актуальность. Либо, если пишут, что видео является фальшивкой, то в соответствии с пленумом Верховного суда истец должен доказать, что комментарий размещен в публичном доступе — интернете, является порочащим честь и достоинство и ложным», — добавил Лухин.

Размещение же реальных дипфейков со знаменитостями, призывающими что-либо сделать, наказывается по 159 статье УК РФ «Мошенничество». Либо, если обмана не было, но голос или изображение использовались без разрешения, можно просто обратиться в суд с требованием взыскать компенсацию.



https://360tv.ru/news/tekst/dipfejk-s-nagievym/