На искусственный интеллект ищут управу

Его предлагают исключить из ряда сфер деятельности
13.04.2021
Валерий Кодачигов

Ассоциация юристов России (АЮР) обратилась к чиновникам и депутатам с призывом ограничить использование искусственного интеллекта (ИИ). Сейчас его внедрение неконтролируемо, что создает риски дискриминации граждан, связанные с применением ИИ, считают юристы

Российский рынок ИИ сейчас никак не отрегулирован законодательно, что уже создает проблемы для граждан, - об этом предупреждает в своем заключении комиссия по правовому обеспечению цифровой экономики московского отделения (МО) АЮР. Письма с предложением отрегулировать рынок ИИ направлены в Совет Федерации, Госдуму, Минцифры, Роскомнадзор, перечислил представитель ассоциации.

По мнению авторов обращения, риски дискриминации ИИ граждан и организаций возникают из-за возможного наличия предубеждений в алгоритмах, умышленно или бессознательно привнесенных разработчиками, некачественных или неполных данных, используемых для обучения системы или принятия решений в конкретной ситуации. При этом выявить ошибки ИИ и обжаловать их сейчас крайне затруднительно, из-за того что доступ сторонних экспертов к ИИ-системам закрыт, говорится в заключении.

«В сфере госуправления системы алгоритмического принятия решений используются для привлечения к административной ответственности на основе данных видео- или фотофиксации, а также на основе иных технических данных - например, от сотовых операторов, - отмечает представитель МО АЮР. - Такого рода системы применялись для привлечения к ответственности весной прошлого года в Москве за нарушение режима самоизоляции. В СМИ фигурировало много курьезных случаев ошибочного привлечения к ответственности, например, парализованных граждан».

Зачастую ИИ отклоняет заявки на кредиты, поданные вполне добросовестными заемщиками, на основании неверно интерпретированных данных и сырых алгоритмов, приводит пример специалист, знакомый с работой крупных компаний, использующих ИИ: «При решении этого вопроса человеком оно могло бы быть иным».

Дорожная карта развития нейросетей и ИИ, разработанная Минкомсвязи (ныне Минцифры) в 2019 г., предполагает, что в 2021 г. объем этой сферы рынка должен составить 48 млрд руб. К 2024 г. он должен увеличиться до 160 млрд руб.

«Такого рода решения следует начать регулировать с госорганов, а не коммерческих компаний, ведь именно решения, принимаемые государством, имеют значительное влияние и последствия для человека. После апробирования такого регулирования на государственных информационных системах следует рассмотреть возможность формирования законодательства для коммерческих компаний», - говорится в заключении МО АЮР.

Юристы предлагают урегулировать использование ИИ в сферах, где его использование может иметь юридически значимые последствия. В пример авторы заключения приводят Францию, где ввели запрет на анализ и прогнозирование методами ИИ действий судей в ходе разбирательств - он касается всех, кто может повлиять на исход суда.

По словам Бориса Едидина, зампредседателя комиссии по правовому обеспечению цифровой экономики МО АЮР, радикального изменения действующего законодательства для реализации инициатив не потребуется - например, можно дополнить закон «О персональных данных»: «В нем можно прописать необходимость оценки ИИ-систем независимыми экспертами, предусмотреть на сайтах госструктур предупреждения о том, что на них используется ИИ, потребовать от внедряющих ИИ-системы предусматривать наличие запасного плана на случай сбоев и иных непредвиденных ситуаций».

Минцифры изучает предложения АЮР, отметил его представитель. Получение заключения подтвердил председатель комитета по информполитике, информтехнологиям и связи Госдумы Александр Хинштейн: «Рассматриваем предложения ассоциации. Мы, безусловно, будем интегрировать лучшие практики в свою работу».

В компаниях, занимающихся внедрением ИИ (среди них - Сбербанк и «Яндекс»), не ответили на запросы или отказались от комментариев.

«Разработчики будут сопротивляться определению ИИ как объекта права изо всех сил - ведь в этом случае всю ответственность за его ошибки будут нести они, - не сомневается руководитель Content-Review Сергей Половников. - А в случае признания такой ответственности неизбежно встанет вопрос о компенсации убытков, связанных с некорректными решениями, принятыми ИИ».

Регулирование технических процессов в сфере ИИ на уровне законов и нормативных актов может негативно повлиять на развитие рынка, при этом защита граждан и организаций от негативных последствий его использования не усилится, считает директор по стратегическим проектам Института исследований интернета Ирина Левова: «Надо усиливать саморегулирование. Например, у Ассоциации больших данных есть Кодекс этики и «Белая книга», т. е. набор лучших практик, который регулярно обновляется и добавляется новыми рекомендациями для проектов в области данных. Рекомендации МО АЮР можно включить в качестве еще одного кейса в «Белую книгу».

Определенные риски перегибов в связи с реализацией предложений АЮР есть, согласен руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле: «Самые высокие связаны с административным согласованием и регламентацией использования персональных данных при их обработке ИИ. Если речь идет про инструменты, используемые в публично-правовых отношениях, например камеры, анализирующие дорожное движение и автоматические выписывающие штрафы, то регламентация обоснованна, поскольку при использовании такого инструмента граждане будут подвержены мерам административного воздействия». А если речь идет про программные продукты, например, банков, которые используют нейросеть для проверки заявок на выдачу кредита, то излишняя регламентация может заблокировать возможность использования такого инструмента в принципе, резюмирует Шицле.

Источник: Ведомости

Читайте другие наши материалы