https://radiosputnik.ru/20221102/izobrazhenie-1828612454.html
"Оживление" изображений людей через нейросети предложили защитить законом
"Оживление" изображений людей через нейросети предложили защитить законом
"Оживление" изображений людей через нейросети предложили защитить законом
Использование технологии дипфейка требует законодательного регулирования, считают депутаты Госдумы, опрошенные "Парламентской газетой". Радио Sputnik, 02.11.2022
2022-11-02T11:56
2022-11-02T11:56
2022-11-02T11:56
в россии
борис галкин
россия
госдума рф
антон горелкин
павел крашенинников
технологии
подкасты – радио sputnik
https://cdn.radiosputnik.ru/images/148182/29/1481822929_0:19:4200:2382_1920x0_80_0_0_7a74b1923fa7ef990deccc806ebe3c94.jpg
Подмена реальности: какая польза от дипфейков?
Технологией создания правдоподобных изображений искусственным интеллектом могут пользоваться не только хакеры, дипфейки могут быть полезны и в других областях. Например, в образовании. Авторам дистанционных курсов не нужно будет платить людям для того, чтобы они рассказывали материал, а деятели кино смогут удешевить производство фильмов. Правда, для начала этого технологии тоже не мешало бы стать дешевле. В особенностях нейронных сетей и пользы от них разбираемся в эфире радио Sputnik.
Илья Самоненко: технологии имеют будущее во многих сферах, в частности в маркетинге или в образовании.
Илья Самоненко: несмотря на развитие технологий, ИИ в чистом виде пока нет и в ближайшее время не предвидится. Системы решают отдельные задачи, для которых они предназначены, быть полностью похожими на людей они не могут.
Сергей Москалев: психологическая особенность человека в том, что все человекоподобное вызывает отторжение, в том числе и роботы, и 3D-модели.
Сергей Москалев: сегодня уже есть технологии, которые позволяют анимировать, оживить человека по фотографии.
audio/mpeg
МОСКВА, 2 ноября/ Радио Sputnik. Использование технологии дипфейка требует законодательного регулирования, считают депутаты Госдумы, опрошенные "Парламентской газетой".Технология дипфейк позволяет "воскресить" на экране умерших людей. Для этого специалисты собирают весь доступный массив видео и фото данных человека, которого хотят оживить. Затем выбирают максимально похожего на него двойника, который и сыграет нужную роль, а затем на его изображение нейросеть накладывает аватар.Примером использования дипфейка является появление Владислав Галкин, умершего 12 лет назад, в сериале "Диверсант. Идеальный штурм".Отец актера Борис Галкин заявил, что использование образа его сына с ним никто не согласовывал и обещал посоветоваться с юристом, как поступить в этой ситуации.Ситуацию с актерами можно рассматривать с позиции законодательства о персональных данных и об авторском праве, рассказал "Парламентской газете" замглавы думского комитета по информационной политике Антон Горелкин. Кроме того, по его мнению, дипфейки следует маркировать."Зритель должен понимать, что на экране не реальная персона, а ее синтетическая модель", – подчеркнул депутат.Глава думского комитета по госстроительству Павел Крашенинников считает, что в отсутствие общих правил каждую ситуацию следует рассматривать отдельно."Есть общие истории, есть частные. Если ушел известный человек, публичное лицо, то что же его, не показывать? Что же, Сталина или Ленина, Брежнева не показывать? Нет, конечно", – отметил депутат.Депутат Антон Немкин, входящий в состав думского комитета по информационной политике, отметил, что поддельные изображения уже вовсю используют для разного рода мошенничества."Поэтому необходимо законодательно регулировать именно те случаи, когда использование таких технологий может нанести ущерб людям", – заявил Немкин.Ранее радио Sputnik сообщило, что в РФ предложили ужесточить ответственность за нарушения работы с биометрией.Коротко и по делу. Только отборные цитаты в нашем Телеграм-канале.
https://radiosputnik.ru/20221101/troyka-1828453303.html
в россии
россия
Радио Спутник
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2022
Радио Спутник
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://radiosputnik.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
Радио Спутник
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdn.radiosputnik.ru/images/148182/29/1481822929_500:0:3700:2400_1920x0_80_0_0_e4ad0b2339be3e35784fc0007c4003bc.jpgРадио Спутник
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Радио Спутник
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
борис галкин, россия, госдума рф, антон горелкин, павел крашенинников, технологии, подкасты – радио sputnik, общество – радио sputnik
В России, Борис Галкин, Россия, Госдума РФ, Антон Горелкин, Павел Крашенинников, Технологии, Подкасты – Радио Sputnik, Общество – Радио Sputnik
"Оживление" изображений людей через нейросети предложили защитить законом
СМИ: использование технологии дипфейка требует законодательного регулирования
МОСКВА, 2 ноября/ Радио Sputnik. Использование технологии дипфейка требует законодательного регулирования, считают депутаты Госдумы,
опрошенные "Парламентской газетой".
Технология дипфейк позволяет "воскресить" на экране умерших людей. Для этого специалисты собирают весь доступный массив видео и фото данных человека, которого хотят оживить. Затем выбирают максимально похожего на него двойника, который и сыграет нужную роль, а затем на его изображение нейросеть накладывает аватар.
Примером использования дипфейка является появление Владислав Галкин, умершего 12 лет назад, в сериале "Диверсант. Идеальный штурм".
Отец актера Борис Галкин заявил, что использование образа его сына с ним никто не согласовывал и обещал посоветоваться с юристом, как поступить в этой ситуации.
Ситуацию с актерами можно рассматривать с позиции законодательства о персональных данных и об авторском праве, рассказал "Парламентской газете" замглавы думского комитета по информационной политике Антон Горелкин. Кроме того, по его мнению, дипфейки следует маркировать.
«
"Зритель должен понимать, что на экране не реальная персона, а ее синтетическая модель", – подчеркнул депутат.
Глава думского комитета по госстроительству Павел Крашенинников считает, что в отсутствие общих правил каждую ситуацию следует рассматривать отдельно.
«
"Есть общие истории, есть частные. Если ушел известный человек, публичное лицо, то что же его, не показывать? Что же, Сталина или Ленина, Брежнева не показывать? Нет, конечно", – отметил депутат.
Депутат Антон Немкин, входящий в состав думского комитета по информационной политике, отметил, что поддельные изображения уже вовсю используют для разного рода мошенничества.
"Поэтому необходимо законодательно регулировать именно те случаи, когда использование таких технологий может нанести ущерб людям", – заявил Немкин.
Ранее радио Sputnik
сообщило, что в РФ предложили ужесточить ответственность за нарушения работы с биометрией.
Коротко и по делу. Только отборные цитаты в нашем Телеграм-канале.