Чем больше лжи в новостных лентах, тем легче возникают ложные воспоминания. Не у всех, но у многих, как выяснила группа европейских исследователей. Когда к новостям об известных событиях подмешали пару фальшивых подробностей, половина участников эксперимента не только "вспомнила" их, но и украсила собственными деталями: "Да-да, я сам видел".
Лживые воспоминания
Ложные воспоминания – это диагноз. Называется парамнезия. До ее эпидемии еще далеко, но сколько интернет-источников ее приближают! В том числе "образовательных" сайтов. Как сказал один интеллектуал, "я регулярно читаю изречения знаменитых людей, которые этим знаменитостям и во сне не могли присниться". Однако они уже отложились в памяти многих без проверки цитат на подлинность. Да и как проверишь? Не в библиотеке же сидеть. А потом человек говорит в компании: "Помню, у такого-то философа я прочитал, что…". И ему самому уже кажется, что он действительно читал философскую литературу. Еще труднее – с как бы документальными фотографиями. Как возразить тому, что ты видишь собственными глазами и что сопровождает комментарий свидетеля происшествия?
Фейковые новости
К ложным воспоминаниям первым склонен тот, кто не способен критически оценивать информацию. Или верит всему, что ему "подходит" – отвечает его убеждениям, вкусам или просто настроению в данный момент. Но дело не только в этом. У психики есть особенности, которые могут сыграть с человеком злую шутку. При этом фейковые новости работают, как бикфордов шнур.
Только без паники!
Главная фишка памяти – ее избирательность. Каждый хоть раз в жизни переживал что-то вроде: "А ты помнишь, как на Новый год… – Не помню". У пяти участников вечеринки "отфильтровались" пять ее вариантов. Еще "страшнее" – память эмоциональная, на уровне физических ощущений. Если сложить первое и второе, то тогда, по мнению психотерапевта Александра Федоровича, поглощение фейковых новостей грозит не просто парамнезией, оно может довести человека до "потери пульса".
«
"Фейк – это всегда если не эмоционально заряженная, то обязательно эмоционально включающая новость. И чрезмерно эмоциональный человек формирует о ней память как гормональные переживания – просто потому, что его эндокринная система реагирует на все остро. В таком случае фейки могут по-настоящему засорять и саму память, и эмоции и стать причиной тяжелой болезни. У человека начинается так называемое тревожное развитие личности. Апогей этого процесса – паническое состояние. А паника – мощнейшее физическое ощущение, которое сопряжено с очень яркими ассоциациями и переживанием прямо сейчас текущей собственной смерти".
© Depositphotos.com / Vectorfusionart
Фейк - это, в первую очередь, эмоции
Попытаться успокоиться и проверить новость на фейковость – совет хороший, но следовать ему все труднее. Искусственный интеллект делает предложение, от которого трудно отказаться.
Глубокая фальшивка
Многие уже поиграли с DeepFake-приложением Zao, которое позволяет почти мгновенно заменить одно лицо на другое в любом видео. Веселее всего сделать селфи и после 10 секунд обработки фрагмента из любимого фильма появиться в кадре вместо кинозвезды. Программа DeepFake использует технологию искусственного интеллекта, с ней можно от нуля и под ключ создать реалистичное "все что угодно": видео, фото, звуковые файлы. Нейросети – великая вещь. Говорят, они по одной или паре предложенных фото создадут неотличимый от оригинала движущийся объект, который даже заговорит своим собственным голосом. Хотите скомпрометировать человека – воспроизведите его в DeepFake-видео хоть голым: нейросети умеют автоматически раздевать. DeepFake – новинка, и многое еще несовершенно. Например, моделирование голоса "один в один" не получается, но это лишь вопрос времени.
© Depositphotos.com / sdecoret
Нейросеть
Искусственный интеллект открывает перед фейк-ньюс огромные перспективы. По оценке сотрудника компании "Нейроботикс" Александра Зонова, о защите против "глубокой фальшивки" надо думать сейчас, пока программа используется только для игр или ролевых чатов.
«
"Пока это развлечение, но в дальнейшем оно повлечет за собой опасность, ведь мы задаем любой образ и производим любые махинации. Это может быть знаменитая личность, политик, президент любой страны, который на видео вдруг сделает, например, важное заявление. Программа обещает серьезные проблемы уже в ближайшие несколько лет: как только она наберет нужные обороты, тот, кто уже сейчас хочет воспользоваться ею в корыстных целях, обязательно это сделает. В качестве защиты необходимо создавать специальные фильтры, через которые будет прогоняться любая визуальная информация, чтобы распознать, нейронная это сеть или нет, то есть это искусственный интеллект или на видео настоящий человек. Простым глазом отличить реального человека от программы будет уже невозможно".
© Инфографика
Нейроинтерфейс: как законнектиться с искусственным интеллектом
Те, кто поставляют фейковые новости или компьютерные программы по их производству, вряд ли от этого откажутся. И не только в деньгах дело. Как выяснили ученые (это показало сканирование мозга), человек испытывает удовольствие от получения всякой информации: на ее "приход" реагирует так называемая система вознаграждения. Поэтому новостей должно быть как можно больше. Самых разных. И особенно – удивительных.
Автор Ольга Бугрова, радио Sputnik