Содержимое для авторизованных пользователей

Михаил Сродных, генеральный директор «СКБ Контур»: «Mы в «Контуре» стремимся быть технооптимистами»

Активное развитие искусственного интеллекта имеет как плюсы, так и минусы. Один из ярких примеров — дипфейки и аналогичные технологии. О способах их распознавания в «Контур.Толке», международном опыте регулирования сферы ИИ и необходимом балансе при выработке таких мер на отечественном рынке IT-технологий рассказал генеральный директор «СКБ Контур» Михаил Сродных.

 Как ИИ связан с дипфейками? В каких сферах IT-технологий они сегодня применяются наиболее часто?

 Как у всякой технологии, у ИИ есть оборотная сторона. Одна из них — дипфейки и аналогичные им технологии. Это может быть синтез правдоподобных поддельных изображений, видео, звука или текста.

С одной стороны, возможности ИИ открывают широкий простор для создания разного рода контента, развития киноиндустрии, рекламной отрасли. С другой — несут целый ряд рисков: этические проблемы, возможная генерация неверной информации, а также угроза безопасности данных.

С помощью дипфейков могут совершаться мошеннические и другие неправомерные действия. Например, дипфейк может использоваться для прохождения удаленной идентификации в банке для получения кредита или чтобы убедить человека перевести деньги на определенный счет. В ближайшее время, с учетом постоянного развития технологий, количество нарушений может вырасти, снижается порог входа для использования подобных технологий, отличить подделку от оригинала становится всё сложнее.

 Почему тема дипфейков стала актуальна для «Контура»? Как обеспечить безопасность использования сервисов с учетом тех рисков, о которых вы рассказали?

 Для «Контура» эта тема актуальна, особенно для одного из наших ключевых продуктов — сервиса ВКС «Контур.Толк». Нам важно обеспечивать для клиентов безопасность и надежность работы. И здесь для выявления дипфейков мы видим два пути. Первый — разработка собственных решений их распознавания. Надо прямо сказать — тут необходимо много времени и ресурсов, а также понимание, что вообще считать дипфейком и как определять уровень доверия к тому контенту, который создает ИИ.

Не так давно внутри «Контура» мы провели исследование, в ходе которого сначала сами генерировали видеодипфейки, потом работали с их детекцией. Пришли к выводу, что создать детектор дипфейков «на все случаи» пока нереально. Идет активное соревнование инструментов, поэтому имеет смысл говорить о противостоянии конкретным технологиям. Это означает, что сервисы для борьбы с дипфейками нужно будет постоянно дообучать для распознавания новых угроз.

Второй путь — внедрение уже имеющихся на рынке сервисов детектирования. Мы в этом направлении также работаем, но здесь может потребоваться юридическая экспертиза, так как для передачи данных третьей стороне нужно согласие пользователей системы, в нашем случае пользователей «Толка».

 Всё это как будто бы должно сподвигнуть государство к регулированию применения ИИ и использования сервисов на его основе. Какой есть международный опыт в этой сфере?

 Регулирование сферы ИИ неизбежно. Однако разработка норм законодательства в этой сфере должна происходить предельно аккуратно и сбалансированно, непременно с привлечением экспертов в области ИИ, чтобы не создать препятствий развитию технологий.

Уместно обратиться и к международному опыту, где уже есть интересные наработки.  Например, введение риск-менеджмента: разделить все основанные на ИИ системы по уровню риска — от низкого до неприемлемого. И в соответствии с этим определить границы их использования. Ввод ограничений сфер использования генеративного ИИ (нейросети ChatGPT) и высокорисковых систем, к примеру медоборудования. Информирование уполномоченных органов об итогах тестирования безопасности и предоставление им иной критически важной информации еще до выхода разработки на рынок.

Интересен опыт по ограничению использования ИИ в Китае. Так, в стране введены запрет на контент, который подстрекает к свержению государственного строя, и правила, которые препятствуют развитию зависимости у детей и подростков от использования генеративного ИИ.

Понятно, что только практика покажет, какие именно нормы и правила действительно окажутся полезными и эффективными.

 Тенденция к более активной работе в области введения нормативной базы в отношении ИИ наблюдается и в России. Какие уже есть кейсы в этой сфере?

 В Госдуме началась разработка законопроекта о маркировке контента, созданного ИИ («водяных знаков»). Из плюсов маркировки я бы отметил то, что пользователи будут знать, что потребляемый ими контент создан нейросетью, а не человеком. Это может быть важно для принятия решения на основе полученной информации.

Из минусов: есть риск, что не все нюансы создания контента получится стандартизировать, ведь возможности нейросистем постоянно развиваются. При этом само определение «контента, написанного ИИ» должно быть проработано как можно более детально. И четко описано в нормативных актах. Иначе из-за размытых требований не исключены злоупотребления со стороны создателей нейросетей или регуляторов.

 Что для совершенствования этой работы мог бы предложить «Контур» и в целом российская IT-отрасль?

 Mы в «Контуре» стремимся быть технооптимистами, исходим из того, что нужно бороться с неправомерным использованием технологии, но не с самой технологией. Скажем, если количество пострадавших в автомобильных авариях растет, то это ведь не значит, что нужно запретить использовать машины. Речь здесь должна идти о совершенствовании мер безопасности и профилактике правонарушений.

Подчеркну, что правила использования ИИ в обществе должны быть понятными и прозрачными, чтобы не снизить темпы развития этой технологии и дать возможность отечественным компаниям совершенствовать ее в дальнейшем. Технология ИИ не должна порождать страхи, напротив, она должна приносить пользу обществу.

Поэтому если и вводить какое-то регулирование, то, конечно, с привлечением для его выработки экспертного сообщества, представителей игроков IT-рынка. Участие профессионалов позволит выработать консолидированную позицию для оценки и управления возможными рисками ИИ, а также по развитию ситуации в этой сфере в ближайшем будущем.

Уверен, такой путь взаимодействия будет наиболее продуктивным. И те страны, которые смогут найти необходимый баланс интересов между безопасностью общества и развитием технологий, смогут занять лидирующие позиции.

Прокрутка наверх