В России разработают технологии безопасного использования искусственного интеллекта
Их планируют создать на базе Исследовательского центра доверенного искусственного интеллекта
Использование искусственного интеллекта (ИИ) на объектах критической инфраструктуры очень рискованно из-за возникновения потенциально новых угроз, поэтому в России будут разрабатывать системы контроля за его внедрением, заявил ТАСС директор Института системного программирования Российской академии наук (ИСП РАН), академик РАН Арутюн Аветисян.
"Мне кажется, главное, что сейчас надо понять: с ИИ связаны серьезные риски. Про это обязательно надо помнить - в частности, если использовать ИИ в критической инфраструктуре. Возникают принципиально новые угрозы. Для борьбы с такими угрозами нужны специальные инструменты. А их пока не существует. Чтобы решить эту проблему, как раз и создан наш Исследовательский центр доверенного ИИ. Без соответствующих доверенных технологий внедрение ИИ будет ограничено. Это касается и России, и всего мира в целом", - сказал он.
Академик отметил, что технологии ИИ связаны не с алгоритмическим описанием в виде кода, а с решением задач по аналогии.
"Есть данные, мы обучаем модель, она пытается вывести какие-то закономерности из этих данных, а потом пытается найти эти закономерности в новых данных, которые она до этого не видела. Например, можно немного поменять входные данные, и человеку будет казаться, что это одно и то же, а для автоматической системы это будет другое. Если система, внедренная в беспилотный автомобиль, увидит знак, который загрязнен или на него нанесены какие-то метки, то для автомобиля это может быть уже другой знак или отсутствие знака, что, очевидно, может привести к аварии", - пояснил ученый.
Исследовательский центр доверенного искусственного интеллекта работает с 2021 года на базе ИСП РАН. Специалисты центра создали так называемые доверенные версии популярных фреймворков машинного обучения TensorFlow и PyTorch. Центр активно развивает разработку технологий доверенного ИИ.
Согласно "Руководству по этике для надежного ИИ" группы экспертов высокого уровня по искусственному интеллекту Еврокомиссии, доверенный, то есть заслуживающий доверия ИИ, должен соответствовать законодательству, этическим принципам и ценностям, быть надежным с технической точки зрения и разработанным с учетом актуального социального контекста.