Сказано в эфире

"Панцирь", Mamba, Су-57. К чему может привести использование ИИ военными?

Читать на сайте radiosputnik.ru
Как используется искусственный интеллект в системах ПВО, авиации и танковых войсках, рассказал военный эксперт Юрий Кнутов. В эфире радио Sputnik он прокомментировал слова Илона Маска, назвавшего ИИ главной угрозой человечеству.
В России корректируют планы разработки ИИ
Скорость баллистической ракеты такова, что человек не в состоянии вовремя принять решение и привести в действие систему, предназначенную для ее перехвата, отметил в эфире радио Sputnik военный эксперт, директор Музея войск противовоздушной обороны (ПВО) Юрий Кнутов.
«
"Системы противоракетной обороны все основаны на искусственном интеллекте (ИИ), потому что скорость баллистической ракеты гигантская, и скорость противоракеты тоже гигантская. Мы только начали думать, а ракета уже улетела. Поэтому только ИИ может принять соответствующее решение. И наши, и французские, и американские зенитно-ракетные комплексы строятся с этим расчетом. Тот же ЗРПК "Панцирь" – там оператор ничего не успевает сделать, все делает ИИ: определяет цель и открывает огонь. Такая же система в комплексах Mamba (системы ПВО Samp/T-Mamba, – ред.), которые Франция и Италия планируют поставить на Украину", – уточнил он.
Что касается авиации, то даже летчик высочайшего класса не может соперничать с искусственным интеллектом, уверен военный эксперт.
«
"В нашем Су-57 только один летчик, а вообще-то должно быть два. Вместо второго летчика вполне успешно используется ИИ. Но там есть контроль со стороны человека, который находится в кабине. Такая же история и у американцев. Год назад проводились интересные испытания: взяли летчика морской пехоты США и составили для него определенную программу, сделали симулятор, а рядом – такой же симулятор, только для ИИ. В первом бою летчик, профессионал высочайшего уровня, продержался несколько секунд. Когда с ИИ провели боев десять, примерно в десятом бою человек смог продержаться секунд двадцать", – сказал Юрий Кнутов.
Эксперт: будущее – за нейросетями и искусственным интеллектом
Однако ИИ может совершать ошибки, которые приводят к опасным последствиям, продолжил он.
«
"Есть такое понятие, как машинное зрение. Допустим, в машину закладываются фотографии танка зимой, летом, осенью, весной, на природе, в городе и так далее. И когда происходят военные действия, ИИ, исходя из той информации, которая у него находится в памяти, определяет, что это – Т-72 или Abrams. Если это американский ИИ, он по Т-72 должен открыть огонь, а по Abrams – не должен. Но, естественно, может произойти ошибка. Такие ошибки были у американцев несколько раз. Были ситуации, когда на полигонах проводились испытания, все шло хорошо, а потом ИИ все-таки давал сбой, и техника, например, пулемет, который установлен на бронетранспортере, начинал открывать огонь по своим", – добавил Юрий Кнутов.
Американский миллиардер Илон Маск, выступая в среду по видеосвязи на Всемирном правительственном саммите в Дубае, назвал ИИ главной угрозой человечеству.
По мнению Юрия Кнутова, заложенная в ИИ способность к самообучению действительно может сделать суперкомпьютеры опасными для людей.
«
"Когда будет создан ИИ довольно высокого уровня, в процессе самообучения он может решить, что он умнее, он более передовой, и у него есть право находиться на земле, а люди – лишние существа. Вероятность этого очень велика. Есть какие-то правила Айзека Азимова (американский писатель-фантаст, который сформулировал "три закона робототехники", – ред.), в соответствии с которыми ИИ никогда не должен действовать против человека. Но, во-первых, это всего лишь утверждение. А во-вторых, в процессе самообучения ИИ могут накапливаться определенные ошибки, которые могут носить системный характер. В результате мы будем считать, что ИИ действует по одному сценарию, а у него могут накопиться программные ошибки, которые приведут к тому, что он будет враждебно смотреть на людей или решит, что он Бог", – заключил военный эксперт.
Такого Telegram-канала, как у нас, нет ни у кого. Он для тех, кто хочет делать выводы сам.
Обсудить
Рекомендуем