В России хотят запретить ИИ с "угрожающим уровнем риска"
Эксперт – о понятии "неприемлемый риск" в ИИ
© iStock.com / gorodenkoffВрачи работают с использованием искусственного интеллекта

© iStock.com / gorodenkoff
Читать в
"Неприемлемый уровень риска" от ИИ можно трактовать как риск, связанный с жизнью и здоровьем граждан, национальной безопасностью, объяснил в интервью радио Sputnik руководитель образовательный программы "Искусственный интеллект и моделирование когнитивных процессов" МИФИ.
В России эксперты и депутаты обсуждают проект госрегулирования ИИ, пишет РБК, ссылаясь на пять источников, знакомых с инициативой, которая запрещает системы с "неприемлемым уровнем риска", вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями. Руководитель образовательный программы "Искусственный интеллект и моделирование когнитивных процессов" МИФИ рассказал радио Sputnik, что означает "неприемлемый уровень риска" от нейросетей для России.
«
"Под неприемлемым уровнем риска, скорее всего, понимается использование разнообразных моделей искусственного интеллекта при разработке информационных систем или автоматизированных систем в критических областях, то есть это области, которые связаны с жизнью и здоровьем граждан, с неприемлемым экономическим риском, риском нацбезопасности и так далее", – объяснил Роман Душкин.
Также под "неприемлемым риском" можно понять, что генеративная модель, не должна советовать пользователю противоправные действия или нанесение вреда самому себе, добавил эксперт.
«
"Как минимум это должно маркироваться с другой стороны, инженеры работают над тем, чтобы повышать уровень точности, и чтобы пользователю отдавался выровненный контент, значит, приведённый в соответствие с местным законодательством", – заключил Роман Душкин.
Такого Telegram-канала, как у нас, нет ни у кого. Он для тех, кто хочет делать выводы сам.