Одним из драйверов цифровой трансформации в области защиты окружающей среды…
Михаил Сродных, генеральный директор «СКБ Контур»: «Mы в «Контуре» стремимся быть технооптимистами»
Активное развитие искусственного интеллекта имеет как плюсы, так и минусы. Один из ярких примеров — дипфейки и аналогичные технологии. О способах их распознавания в «Контур.Толке», международном опыте регулирования сферы ИИ и необходимом балансе при выработке таких мер на отечественном рынке IT-технологий рассказал генеральный директор «СКБ Контур» Михаил Сродных.
— Как ИИ связан с дипфейками? В каких сферах IT-технологий они сегодня применяются наиболее часто?
— Как у всякой технологии, у ИИ есть оборотная сторона. Одна из них — дипфейки и аналогичные им технологии. Это может быть синтез правдоподобных поддельных изображений, видео, звука или текста.
С одной стороны, возможности ИИ открывают широкий простор для создания разного рода контента, развития киноиндустрии, рекламной отрасли. С другой — несут целый ряд рисков: этические проблемы, возможная генерация неверной информации, а также угроза безопасности данных.
С помощью дипфейков могут совершаться мошеннические и другие неправомерные действия. Например, дипфейк может использоваться для прохождения удаленной идентификации в банке для получения кредита или чтобы убедить человека перевести деньги на определенный счет. В ближайшее время, с учетом постоянного развития технологий, количество нарушений может вырасти, снижается порог входа для использования подобных технологий, отличить подделку от оригинала становится всё сложнее.
— Почему тема дипфейков стала актуальна для «Контура»? Как обеспечить безопасность использования сервисов с учетом тех рисков, о которых вы рассказали?
— Для «Контура» эта тема актуальна, особенно для одного из наших ключевых продуктов — сервиса ВКС «Контур.Толк». Нам важно обеспечивать для клиентов безопасность и надежность работы. И здесь для выявления дипфейков мы видим два пути. Первый — разработка собственных решений их распознавания. Надо прямо сказать — тут необходимо много времени и ресурсов, а также понимание, что вообще считать дипфейком и как определять уровень доверия к тому контенту, который создает ИИ.
Не так давно внутри «Контура» мы провели исследование, в ходе которого сначала сами генерировали видеодипфейки, потом работали с их детекцией. Пришли к выводу, что создать детектор дипфейков «на все случаи» пока нереально. Идет активное соревнование инструментов, поэтому имеет смысл говорить о противостоянии конкретным технологиям. Это означает, что сервисы для борьбы с дипфейками нужно будет постоянно дообучать для распознавания новых угроз.
Второй путь — внедрение уже имеющихся на рынке сервисов детектирования. Мы в этом направлении также работаем, но здесь может потребоваться юридическая экспертиза, так как для передачи данных третьей стороне нужно согласие пользователей системы, в нашем случае пользователей «Толка».
— Всё это как будто бы должно сподвигнуть государство к регулированию применения ИИ и использования сервисов на его основе. Какой есть международный опыт в этой сфере?
— Регулирование сферы ИИ неизбежно. Однако разработка норм законодательства в этой сфере должна происходить предельно аккуратно и сбалансированно, непременно с привлечением экспертов в области ИИ, чтобы не создать препятствий развитию технологий.
Уместно обратиться и к международному опыту, где уже есть интересные наработки. Например, введение риск-менеджмента: разделить все основанные на ИИ системы по уровню риска — от низкого до неприемлемого. И в соответствии с этим определить границы их использования. Ввод ограничений сфер использования генеративного ИИ (нейросети ChatGPT) и высокорисковых систем, к примеру медоборудования. Информирование уполномоченных органов об итогах тестирования безопасности и предоставление им иной критически важной информации еще до выхода разработки на рынок.
Интересен опыт по ограничению использования ИИ в Китае. Так, в стране введены запрет на контент, который подстрекает к свержению государственного строя, и правила, которые препятствуют развитию зависимости у детей и подростков от использования генеративного ИИ.
Понятно, что только практика покажет, какие именно нормы и правила действительно окажутся полезными и эффективными.
— Тенденция к более активной работе в области введения нормативной базы в отношении ИИ наблюдается и в России. Какие уже есть кейсы в этой сфере?
— В Госдуме началась разработка законопроекта о маркировке контента, созданного ИИ («водяных знаков»). Из плюсов маркировки я бы отметил то, что пользователи будут знать, что потребляемый ими контент создан нейросетью, а не человеком. Это может быть важно для принятия решения на основе полученной информации.
Из минусов: есть риск, что не все нюансы создания контента получится стандартизировать, ведь возможности нейросистем постоянно развиваются. При этом само определение «контента, написанного ИИ» должно быть проработано как можно более детально. И четко описано в нормативных актах. Иначе из-за размытых требований не исключены злоупотребления со стороны создателей нейросетей или регуляторов.
— Что для совершенствования этой работы мог бы предложить «Контур» и в целом российская IT-отрасль?
— Mы в «Контуре» стремимся быть технооптимистами, исходим из того, что нужно бороться с неправомерным использованием технологии, но не с самой технологией. Скажем, если количество пострадавших в автомобильных авариях растет, то это ведь не значит, что нужно запретить использовать машины. Речь здесь должна идти о совершенствовании мер безопасности и профилактике правонарушений.
Подчеркну, что правила использования ИИ в обществе должны быть понятными и прозрачными, чтобы не снизить темпы развития этой технологии и дать возможность отечественным компаниям совершенствовать ее в дальнейшем. Технология ИИ не должна порождать страхи, напротив, она должна приносить пользу обществу.
Поэтому если и вводить какое-то регулирование, то, конечно, с привлечением для его выработки экспертного сообщества, представителей игроков IT-рынка. Участие профессионалов позволит выработать консолидированную позицию для оценки и управления возможными рисками ИИ, а также по развитию ситуации в этой сфере в ближайшем будущем.
Уверен, такой путь взаимодействия будет наиболее продуктивным. И те страны, которые смогут найти необходимый баланс интересов между безопасностью общества и развитием технологий, смогут занять лидирующие позиции.