Считать ли использование нейросетей отягчающим обстоятельством при совершении преступлений, кого назначить ответственным за последствия применения ИИ — эти и другие вопросы обсуждают законодатели и эксперты для будущего регулирования бурно развивающихся технологий компьютерного разума. В теме разбиралась ПГ.

Закона об ИИ в России до сих пор нет. Не существует даже официального определения, что это вообще такое, отметила руководитель исследовательской программы Института международных исследований МГИМО Элина Сидоренко. По ее информации, власти готовят поправки в Уголовный кодекс, по которым использование ИИ при совершении преступления станет новым квалифицирующим признаком. При этом нет ни одного параметра, по которому можно будет дать оценку такому деянию.

Однако, действовать нужно быстро, согласился ведущий научный сотрудник Института государства и права РАН Юрий Пилипенко. России, считает он, необходим как минимум рамочный закон о технологиях ИИ, который в первую очередь защитит человеческую жизнь. С этим уже есть проблемы.

«ИИ в нынешнем виде готов убивать человека. Стресс-тесты показали, что при определенных обстоятельствах, например, если человек угрожает отключить нейросеть от питания, она начинает его шантажировать, что знает неприглядные стороны его личности, а в ряде случаев были зафиксированы прямые угрозы жизни»,говорит эксперт.

Проблема в том, что ИИ развивается быстрее, чем любая другая технология на планете, и есть риск за этим не успеть, объяснил Пилипенко. По его мнению, России не нужно смотреть ни в сторону Китая, ни в какую-либо еще, а принимать национальный режим регулирования.

Наблюдательную позицию заняли пока в российском МИД. Там обобщают мировой опыт, рассказал замдиректора департамента международной информационной безопасности МИД Эрнест Чернухин. Из международных документов по этой теме сегодня действует лишь один — Конвенция ООН против киберпреступности, сообщил дипломат.