Содержимое для авторизованных пользователей

Этический вопрос в цифровизации

Новая цифровая этика

Цифровизация не только способствует развитию экономики, но также ставит новые этические вопросы. В результате эксперты ВШЭ предложили разработать и внедрить новый механизм — оценку гуманитарного воздействия мер цифровой трансформации, по аналогии с системой оценки регулирующего воздействия.

Научный подход

К апрельской конференции Высшей школы экономики группа авторов под руководством замглавы Института права цифровой среды Михаила Якушева представила доклад «Приоритетные направления правового регулирования цифровой трансформации в РФ. Внедрение в нормотворчество системы оценки гуманитарного воздействия (2022–2025 годы)». Инновации меняют не только экономические отношения, способы производства и формы труда, но и ожидаемо порождают «множество новых проблем, лежащих в области этики и гуманитарного знания», отмечают авторы. Для оценки гуманитарных последствий принимаемых «цифровых» документов авторы доклада предлагают по аналогии с действующим в России с 2010 года механизмом оценки регулирующего воздействия внедрить оценку гуманитарного воздействия нормативных документов. Пока такая система в других странах не внедрена, но в некоторых европейских — уже обсуждается. «В какой-то степени это связано с местными традициями нормотворчества, где есть иные механизмы, помимо принятой в России ОРВ и предлагаемой ОГВ»,— отметил Михаил Якушев. ОГВ, по замыслу ученых, позволит корректировать нормативные акты (в том числе в отношениях, прямо не затрагиваемых ими) с точки зрения прав и свобод человека, представлений о справедливости, свободе, морали и т. д.

«Оценка производится с субъективной точки зрения на базисе этических норм, принятых в обществе, и их толкования в контексте проекта нормативно-правового акта. ОГВ не преследует цель формулировки итогового экспертного заключения, протокола, одобряющего или критикующего представленный на оценку текст проекта нормативно-правового акта. Цель ОГВ — предвосхитить проблемы правового и неправового характера, указать авторам на возможные регуляторные последствия, дать научное обоснование этих последствий и представить общественное мнение»,— говорится в докладе. По словам Михаила Якушева, возможно и участие в процессе группы авторитетных специалистов в сфере философских и этических проблем, и использование методов социологических опросов. В ВШЭ рассчитывают предложить методологию ОГВ до конца года.

Одной из причин возникновения этических проблем при цифровизации в ВШЭ называют низкую вовлеченность общества в принятие решений в сфере научно-технологического развития, напрямую затрагивающих и влияющих на права, свободы и образ жизни. При этом для экспертов и представителей госвласти мнение граждан в вопросах регулирования должно носить преимущественно информативный характер: суждения людей могут быть противоречивы с точки зрения этики, отражать стереотипы и предрассудки. Еще ранее эксперты Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС зафиксировали недовольство и раздражение граждан «цифровой стеной», которой власти отгораживаются от них при развитии системы госуслуг. В предварительном плане на эту тему уже были обсуждения в палатах Федерального собрания и в парламентских партиях. «Степень недоверия к таким технологиям пока еще очень высокая, доверие нужно обязательно обеспечивать — и ОГВ представляется правильным инструментом»,— говорит Якушев.

Первые предложения

«В каждом обществе возникают свои этические проблемы в использовании искусственного интеллекта. Например, оценивая кредитоспособность заемщика, искусственный интеллект склонен чаще отказывать афроамериканцам, поскольку они чаще проживают в небогатом и ненадежном окружении. Средний портрет соседей статистически экстраполируется на индивида», – говорит аналитик ФГ «Финам» Леонид Делицын. По его словам, искусственный интеллект склонен «топить» того, кто однажды оступился – если кого-то оштрафовали или он не рассчитался во-время по кредиту, искусственный интеллект ему никогда этого не забудет. «Считается, что искусственный интеллект усугубляет разрыв между разными слоями общества, поскольку сам статистическим методом обнаруживает стереотипы и начинает вовсю подменять ими индивидуальный подход», – добавляет эксперт.

Практической реализацией этих идей можно считать подписание в октябре 2021 г. первого российского Кодекса этики искусственного интеллекта. Его разработка предусмотрена стратегией развития искусственного интеллекта до 2030 г. и федеральным проектом «Искусственный интеллект». Пока соблюдение норм этого документа носит добровольный характер. Его подписали Сбербанк, «Яндекс», «Ростелеком», МТС, Mail.ru, «Газпром нефть», Infowatch, «Росатом», ЦИАН. Также к кодексу присоединились НИУ ВШЭ, «Сколково», МФТИ, ИТМО, Иннополис, РФПИ и Институт системного программирования им. В. П. Иванникова. В кодексе кратко зафиксированы принципы человекоориентированности систем ИИ, сохранения автономии и свободы воли в обществе, отсутствия дискриминации и непричинения вреда. В нем рекомендуется применение «риск-ориентированного подхода» — соотнесения жесткости регулирования с потенциальным влиянием создаваемых систем. Ответственность за применение искусственного интеллекта всегда должна оставаться за человеком, в том числе на ИИ не должны перекладываться «полномочия ответственного нравственного выбора». В документе закреплено, что применение технологий «сильного», то есть схожего с человеческим, искусственного интеллекта должно находиться под контролем государства.

Поделиться:
Прокрутка наверх