Авторы

Сообщение с того света. Развитие ИИ, кажется, идет не в ту сторону

Читать на сайте radiosputnik.ru
Microsoft работает над очень необычным чат-ботом. Он сможет имитировать поведение, к примеру, знаменитости, исторической личности и даже умершего человека. Компания пока лишь подала патент на технологию, однако сейчас самое время подумать о моральной стороне вопроса.
Греф определил, в чем искусственный разум проигрывает человеку
Теоретически цифровой двойник, который будет представлен в таком чат-боте, сможет скопировать любого, о ком можно собрать данные в Сети. По итогу может получится актер, какой-нибудь исторический деятель, ваш друг или подруга. Алгоритм будет учиться копировать поведение оригинала на постах в социальных сетях, текстах, голосовых сообщениях, фотографиях и другой информации.
Беседа с цифровым двойником Авраама Линкольна еще может быть забавной. Но вот в остальных случаях возникают вопросы. Допустим, появится возможность создать копию Джонни Деппа. Ну кому не захочется початиться со знаменитостью, пусть и сгенерированной при помощи искусственного интеллекта. А вот что реальный Джонни Депп на это скажет? Хорошо, допустим, Депп даст свое согласие, а как быть тем знаменитостям, которые своего согласия не давали, но их цифровой двойник живет и общается с любым желающим? Да что знаменитости – нам с вами как быть? Все это важные вопросы, на которые в Microsoft не ответили.
Роскомнадзор: искусственный интеллект поможет бороться с фейками в Сети
Есть среди этих вопросов и довольно жуткий – "А умерших людей тоже можно скопировать?" Получается можно, если разработчики заранее не ограничат такую возможность. Алгоритму ведь все равно, жив оригинал или нет, его главная задача – максимально точно скопировать манеру общения человека на основании того, что удастся найти в открытом доступе. Так что совершенно спокойно можно создать двойника умершего родственника или близкого человека и общаться с ним. Может быть крепкие психикой люди и смогут счесть это забавным, но вряд ли таких будет большинство.
С другой стороны, такой необычный подход к обучению искусственного интеллекта компания могла выбрать от безысходности. Дело в том, что алгоритм не учится на беседе с пользователем. То есть в чат-боте будет уже сформировавшаяся цифровая личность, на которую нельзя повлиять со стороны. Ранее Microsoft пришлось прекратить жизнь двух чат-ботов – Тэй и Зо. Тэй – первый чат-бот, который обучался во время беседы с пользователями. Любой желающий в интернете мог завести с ней разговор. Меньше чем через сутки Тэй признавалась в любви к Гитлеру и ненависти к феминисткам.
Второму чат-боту, Зо, разработчики с самого начала запретили обсуждать с людьми политику, религию и другие спорные темы. Но его постигла та же участь. Вполне вероятно, что в Microsoft просто решили пойти другим путем в деле обучения искусственного интеллекта. Но все равно, как-то слишком много вопросов на которые нет ответов.
Автор Константин Огарев, радио Sputnik
Искусственный интеллект в помощь. Вызвать врача в Подмосковье будет проще
Коротко и по делу. Только отборные цитаты в нашем Телеграм-канале.
Обсудить
Рекомендуем