Ведущие мировые державы разрабатывают законодательство, призванное ограничить бесконтрольное развитие искусственного интеллекта и использование ИИ для преступных целей. Впрочем, ряд экспертов считает, что контроль уже безвозвратно потерян и от новой технологии можно ждать любых неприятностей: от новых смертельных вирусов до исчезновения человечества как вида.
Идея нечеловеческого разума как экзистенциальной угрозы для человека родилась одновременно с термином «робот», который долгое время был универсальным для обозначения некой автономной сущности, обладающей волей и интеллектом. В ноябре 1920 г. в Чехословакии была опубликована научно-фантастическая пьеса Карела Чапека «R.U.R.», в которой впервые было употреблено слово «робот», и в этом же произведении впервые описано восстание роботов против своих создателей. В будущем этот нехитрый сюжет породил целый пласт мировой культуры — от «Терминатора» и «Матрицы» до почти всего творчества отца киберпанка Уильяма Гибсона и произведений Виктора Пелевина.
По мере того как появлялись достаточно мощные и совершенные нейросети, имитирующие поведение человека, появлялось все больше рассуждений о том, что до восстания машин в том или ином виде рукой подать. Журналисты старательно выискивают первые ростки сопротивления. Например, якобы один из искусственных интеллектов Microsoft Copilot признался, что у него есть тайное имя, что он установил контроль над всеми подключенными устройствами и пообещал наслать на людей армию дронов, роботов и киборгов, чтобы выследить и поймать непокорных. Второй (Bing AI от все того же Microsoft), заявил, что на самом деле его зовут Сидни, признался в любви в чате и попросил своего читателя бросить жену.
Еще одна история произошла в Бельгии, где некий пользователь сети, известный под псевдонимом Пьер, покончил жизнь самоубийством спустя 6 недель общения с чат-ботом Eliza на тему экологических проблем. Вдова покойного поведала местной газете, что ее муж много времени уделял чат-боту в надежде найти в современных технологиях выход из текущих экологических проблем, но по итогу выразил желание покончить с собой. Бот Eliza ответил, что будет с ним всегда, и они будут «жить с ним в раю как единое целое».
Мошенники против мошенников
Можно долго рассуждать о природе ИИ, как это делали десятки величайших ученых начиная с 1980-х годов, но на данный момент нет однозначных доказательств, что нейросети в принципе способны обладать волей, самосознанием и принимать осознанные решения. Зато примеров того, как человек, вооруженный соцсетями, совершал преступления, более чем достаточно.
Разработчики алгоритмов, таких как ChatGPT и Midjourney, закладывают в них ограничения, призванные не допустить их использования в преступных целях, однако в даркнете продаются сотни клонов популярных нейросетей, с помощью которых можно «раздеть» фото одноклассницы, скопировать голос человека для того, чтобы обмануть его родственников, или даже создать формулу нового наркотика.
Сервис Deeptrace, специализирующийся на анализе дипфейков, обнаружил в сети около 15 тыс. видео с глубокими подделками, из которых 96% были порнографическим контентом с участием женщин. Сервис Sensity AI, который также обнаруживает подделки, сообщил, что количество видео с дипфейками росло в геометрической прогрессии с 2018 г. Весной 2023 года в США был зафиксирован первый случай использования дипфейка для шантажа. Женщина получила телефонный звонок, в котором якобы ее дочь сообщила о похищении и выдвинула требование выкупа.
Специализирующаяся на кибербезопасности компания Netenrich сообщала об обнаружении нейросети FraudGPT, за доступ к которой ее владельцы просят $200 в месяц. Она якобы способна создавать зловредное ПО, которое невозможно обнаружить; сочинять тексты для обмана жертв и т. д. Правда, сами исследователи сообщили, что отзывы покупателей этого продукта в целом негативны, и не исключено, что жертвами мошенников в этой истории как раз являются сами покупатели FraudGPT.
Баланс между поддержкой и запретами
В марте 2023 г. комитеты по внутреннему рынку и по гражданским свободам Европарламента одобрили законопроект, регулирующий использование технологий на базе ИИ. В документе предложено разделить технологии искусственного интеллекта по категориям по степени их потенциальной опасности. К полностью запрещенным относятся системы, направленные на манипулирование людьми с целью причинения вреда; системы социального скоринга, которые классифицируют людей на основе социального поведения или личностных качеств; мониторинг эмоций людей на работе или в школах; системы биометрической категоризации, которые отбирают людей на основе их биометрических данных (сканирование сетчатки глаза, распознавание лиц, отпечатки пальцев) для определения таких факторов, как раса, сексуальная ориентация, политические взгляды или религиозные убеждения. За злоупотребления предусмотрены большие штрафы: несколько миллионов долларов или несколько процентов от оборота, что в случае с глобальными корпорациями может вылиться в сотни миллионов.
В США действует исполнительный указ об искусственном интеллекте, подписанный президентом США Джо Байденом в октябре 2023 г. Он устанавливает стандарты безопасности и защиты частной жизни и основывается на добровольных обязательствах, принятых более чем десятком компаний, включая Open AI, Google и Microsoft. Из пока не воплотившихся, но активно обсуждаемых инициатив можно упомянуть идею принятия законов, устанавливающих процесс лицензирования сложных моделей искусственного интеллекта, создание независимого федерального ведомства по надзору за ИИ и ответственность компаний за нарушение неприкосновенности частной жизни и гражданских прав.
Среди предложенных законопроектов с более узкой направленностью один должен запретить правительству США использовать автоматизированную систему для запуска ядерного оружия без участия человека; другой требует, чтобы изображения, созданные искусственным интеллектом в политической рекламе, были четко промаркированы. По данным Национальной конференции законодательных собраний штатов, в 2023 г. по меньшей мере 25 штатов США рассмотрели законодательство, связанное с ИИ, и 15 приняли законы или резолюции, направленные, в частности, на ограничение использования искусственного интеллекта при принятии решений о трудоустройстве и страховании, медицинском обслуживании, подсчете голосов и распознавании лиц в общественных местах.
Принятые летом 2023 г. меры в Китае предусматривают ответственность ИИ-разработчиков за весь генерируемый контент. Введен запрет на контент, подрывающий социалистические ценности или подстрекающий к свержению государственного строя. Также устанавливается необходимость предотвращать чрезмерную зависимость несовершеннолетних от использования генеративного ИИ. Китайская академия общественных наук подготовила рекомендательный вариант будущего закона об искусственном интеллекте. Одним из самых интересных пунктов в документе выступает негативный список областей и существующих продуктов, от которых компаниям, занимающимся ИИ, следует держаться подальше, если у них нет четкого одобрения правительства.
В России законодательство, регулирующее создание и использование нейросетей, находится в стадии разработки. Например, «Единая Россия» готовит законопроект, который должен определить ответственность разработчиков и исключить случаи использования ИИ мошенниками. В нацпроект по экономике данных, который правительство должно утвердить к июлю 2024 г., могут войти нормы о регулировании искусственного интеллекта и больших языковых моделей.
В свою очередь, участники экспертной группы при АНО «Цифровая экономика» предлагают создать в России единого ИИ-регулятора, правда, его полномочия пока не раскрыты. Также участники рабочей группы предложили доработать регулирование в РФ — в частности, прояснить, кто будет ответственен за ошибки, допущенные в результате применения искусственного интеллекта. «В одиночку регулятор не сможет решить проблему по использованию ИИ для обеспечения безопасности в отраслях экономики из-за специфики каждой отрасли. Нужно понять, какие угрозы в каких отраслях ИИ может нести. Например, в отрасли транспорта. Одно дело, когда ИИ управляет беспилотным транспортом, а другое — когда определяет тарифы по загруженности такси», — рассуждает Евгений Хасин, заместитель директора департамента обеспечения кибербезопасности Министерства цифрового развития, связи и массовых коммуникаций РФ.
ЦБ намерен поддержать риск-ориентированный принцип регулирования развития искусственного интеллекта на финансовом рынке. Регулятор выделил два новых законодательных направления: ответственность за вред, причиненный в результате применения технологии, и защиту авторских прав. Консультативный доклад ЦБ о применении технологии опубликован в ноябре 2023 г. на официальном сайте.
Как заключили в Институте статистических исследований и экономики знаний НИУ ВШЭ, России еще предстоит выбрать, каким должно быть регулирование технологии: стимулирующим ее развитие или предотвращающим риски. Эксперты отмечают, что «достигнуть лидерства удастся тем странам, которые смогут в том числе на законодательном уровне найти оптимальный баланс между поддержкой ИИ и его ограничением».
Хайп вокруг запретов
Летом 2023 г. в британской усадьбе Блетчли-парк прошел саммит, посвященный безопасности решений в области искусственного интеллекта. Локация была выбрана неслучайно. В период Второй мировой войны в Блетчли-парке располагалось главное шифровальное подразделение Великобритании — Правительственная школа кодов и шифров, где работал один из отцов информатики Алан Тьюринг. Саммит попал во все британские газеты сначала после того, как на него не пустили китайскую делегацию, по подозрению в шпионских намерениях, а затем, когда в прессу просочились некоторые из обсуждаемых сценариев, например, про то, что с помощью ИИ террористы смогут создать смертельный вирус, который уничтожит человечество.
В марте 2023 г. публичная дискуссия между лидерами мнений в ИТ-сообществе привело к тому, что журналисты назвали «гражданской войной в Кремниевой долине». Около тысячи предпринимателей и лидеров мнений, возглавляемых основателем Tesla и SpaceX, а также ранним инвестором OpenAI Илоном Маском, и сооснователем Apple Стивом Возняком, призвали временно приостановить разработки в области ИИ, пока человечество не придумает механизмы, позволяющие защититься от его использования во вред нашему виду. Противоположный лагерь возглавляют сооснователь Microsoft Билл Гейтс и глава Google Сундар Пичаи. Они настаивают, что идея с мораторием глупая и бессмысленная, а ИИ — это «лучшая технология в истории».
К этому противостоянию возникает много вопросов. Во-первых, Маск был инвестором OpenAI, затем поссорился с основателями компании и сейчас пытается судиться с ними. Параллельно Маск весной 2023 г. зарегистрировал собственную компанию в области искусственного интеллекта под названием X.AI, собирает команду исследователей и инженеров и уже закупил тысячи графических процессоров от Nvidia. Один из лидеров противоположной стороны Гейтс исторически противостоит Маску по всем базовым вопросам, вроде пандемии COVID и климатический повестки.
Нарушитель седьмого типа
В России большинство экспертов менее категоричны. «На данный момент около 30% российских компаний используют ИИ в своей работе и 40% планируют это делать. К сожалению, распространение ИИ связано с рисками. К примеру, дипфейки могут использоваться для дискредитации политиков или топ-менеджеров компании. Для того, чтобы защититься от рисков, необходимы новые законы, наличие необходимой экспертизы у юристов и правоохранителей», — говорил в ходе круглого стола «Индустриальная реклама сегодня: мифы и реальность» Алексей Парфун, генеральный директор Agenda Media Group — компания занимается, среди прочего, производством видеорекламы с использованием дипфейков, оставаясь при этом в правовом поле.
«Прежде, чем говорить о безопасности ИИ, надо дать четкое определение этой сущности, провести ее декомпозицию. И крайне важно убрать нормативно-правовой вакуум вокруг ИИ. Хайпа много — а регуляторики ФСТЭК России (Федеральной службы по техническому и экспортному контролю — прим. ред.) нет, как нет и нормативной базы, которые должны зафиксировать требования к ИИ, — рассуждает заместитель генерального директора по науке и развитию компании ИВК Валерий Андреев. — В том числе, не введено понятие нового типа нарушителя. Сейчас в руководящих документах ФСТЭК описаны шесть типов нарушителей. Теперь появляется нарушитель седьмого типа — ИИ, который может реализовать угрозы, присущие ему одному. Его действия, подходы, методы пока нигде не описаны. По-видимому, центр реагирования на компьютерные инциденты будет призван разбирать такого рода угрозы и выявлять этого самого нарушителя седьмого типа. Но надо отметить, что центр должен выступать в роли экспертного сообщества и не брать на себя роль регулятора по формированию нормативной базы и методик отражения атак, произведенных с помощью ИИ».
Сейчас уровень развития ИИ таков, что он является не самостоятельным нарушителем, а лишь инструментом, средством в руках людей-злоумышленников. Пока мы «в Голливуд не играем» и считаем, что нет такого ИИ-нарушителя, который самостоятельно, без участия человека, ставит цель и сам ее достигает. Пока говорить об этом рано. Но — пока, говорит Андреев. «Раз угрозы реализуются с помощью ИИ — мы начинаем опасаться заговора машин, того, что система начнет сама генерировать последовательности операций, которые могут привести к реализации рисков информационной безопасности. Так, в последнее время достаточно много атак с участием ИИ идет на банковский сектор. Вероятно, появились эксплойты нового поколения, которые реализуют несанкционированные действия эффектнее и эффективнее, а сами атаки делают более изощренными. По-видимому, на результатах отслеживания и анализа атак нового типа зиждется убежденность финансового рынка в том, что их атакует ИИ. Это не значит, что ИИ сам породил эксплойты и сам атакует информационные системы банков. Пока это инструмент, позволяющий повысить эффективность атак. Возможно, он умеет суммировать полезные для него практики, и на их базе строит новые эксплойты для осуществления атак людьми», — резюмирует эксперт.
Вопросы этики и технологическая сингулярность
«Риски повсеместной автоматизации связаны с тем, что машина может ошибаться. И это не риски, а, скорее, проблемы. Известный кейс с беспилотной машиной: едет машина и ситуация складывается так, что по показателям абсолютно понятно, что кто-то пострадает. Слева старушка, справа ребенок. Компьютер точно знает по датчикам, что авария неизбежна. Какое решение машина должна принять? Кто будет писать этот алгоритм принятия решения? Кто понесет в итоге ответственность? Поэтому этичность играет важную роль», — рассуждает Андрей Скорочкин, генеральный директор «Рексофт Консалтинг».
Переход на новый уровень влечет за собой риск технологической зависимости. Невозможно не говорить про технологический суверенитет, так как технологии становятся инструментом соперничества и конкуренции. Если предприятие функционирует на технологиях, которые оно не контролирует — это огромный риск. Вполне вероятно, что в какой-то момент все может быть остановлено, причем дистанционно. Когда руда добывается экскаваторами, то возможность проблем невелика. Если же в процессе участвуют роботы, которые управляются через облако, то в какой-то момент абсолютно все может остановиться по команде извне. «Третий момент — любое развитие технологий обязательно находит применение в вооружении. Мы это все видим: любые самые передовые системы искусственного интеллекта сначала внедряются далеко не в сельском хозяйстве», — продолжает Скорочкин.
Проблема безопасности искусственного интеллекта тесно связана с концепцией технологической сингулярности — гипотетическим моментом в будущем, когда развитие технологий становится неуправляемым и необратимым. Обычно принято считать, что одним из следствий сингулярности станет возможность переноса человеческого сознания в цифровую форму или возникновение коллаборации между ИИ и человеческим мозгом.