Будущее человечества часто связывают с развитием искусственного интеллекта, в частности, нейросетей, способных имитировать работу человеческого мозга, обрабатывать огромные массивы информации и обучаться в процессе работы. Однако первый опыт использования нейросетей показывает, что технология может принести с собой новые проблемы, решить которые человечество пока не в состоянии.
Совершая научное открытие или создавая новую технологию, ученые не всегда думают или стараются не думать о том, к каким последствиям это может привести — интерес исследователя берет верх. Самый известный пример — высвобождение энергии атома и катастрофа в японских городах Хиросима и Нагасаки.
Сегодня мир перешагнул порог еще одного удивительного открытия — появился искусственный интеллект (ИИ), способный решать задачи, еще недавно доступные только человеку. С ним связывают надежды на лучшее будущее — ему можно поручить рутинные операции, освободив время для более творческих задач. Искусственный интеллект может работать не покладая рук — он не болеет, не устает, не подвержен выгоранию, не совершает ошибок.
Создатели одного из видов ИИ — нейронных сетей — гордятся тем, что им удалось смоделировать структуру человеческого мозга и разработать технологию, способную не только обрабатывать сложные наборы данных, но и обучаться на них. Нейросети уже используются для распознавания речи и образов, обработки естественного языка, прогнозирования.
В тоже время, по мере развития ИИ, возникает все больше заявлений, предупреждающих о возможных негативных последствиях его распространения. Еще в 2014 г. великий ученый Стивен Хокинг в интервью BBC предупреждал, что развитие искусственного интеллекта может положить конец человеческой расе.
В марте 2023 г. было опубликовано открытое письмо, под которым поставили подписи более тысячи человек, среди которых американский предприниматель, миллиардер и основатель компаний Tesla и SpaceX Илон Маск, выдающийся ученый-компьютерщик Йошуа Бенджио, которого часто называют одним из крестных отцов искусственного интеллекта, еще один пионер в области искусственного интеллекта Стюарт Рассел, основатель и глава разработчика нейросетей Stability AI Эмад Мостак, исследователи из ИИ-компании DeepMind, принадлежащей Alphabet и др. Авторы письма заявили, что технологии искусственного интеллекта, способные конкурировать с человеком, могут нести с собой серьезные риски для общества и должны разрабатываться только тогда, когда человечество будет уверено, что последствия их использования будут положительными, а риски — управляемыми.
Что стало поводом для появления подобного письма? Чем более доступным становится использование нейронных сетей, тем чаще созданные на их основе решения приводят к самым неожиданным последствиям.
Дискриминация
Одна из серьезнейших проблем — обнаружение в нейросетях дискриминационного поведения. Один из первых крупных скандалов разразился в 2015 г., когда в Google Photo появился сервис на базе ИИ, автоматически помечающий загруженные фотографии. Как выяснилось, нейросеть идентифицировала чернокожих людей на снимках как гориллу. Аналогичная проблема была у Flickr — там изображения чернокожих людей отмечались тегами «обезьяна» и «животное».
В 2018 г. в центре скандала оказался Amazon. Созданная им система на базе ИИ оценивала резюме соискателей на вакансию разработчика и снижала баллы женщинам. В компании объяснили, что это произошло потому, что обучение нейросети происходило на основе имеющихся у нее резюме разработчиков, 90% из которых были мужчинами.
В 2021 г. Google выпустила приложение для распознавания заболеваний кожи. Нейросеть была обучена на данных 65 тыс. изображений 12 тыс. пациентов. Однако доля пациентов с темной кожей в выборке составляла лишь 3,5%. В результате, по словам дерматологов, приложение оказалось непригодным для диагностики людей, которые не являются белыми.
«Обнаженка»
Развитие нейросетей привело к появлению дипфейков — технологии, способной имитировать голос и внешность человека настолько правдоподобно, что пользователь не всегда способен отличить созданный нейросетью образ от реальности.
Как выяснил эксперт по дипфейкам Генри Айдер, 96% фейковых видео в интернете — это порнография, для генерации которой используются найденные в открытом доступе фотографии реальных женщин.
В ноябре 2023 г. неправительственная британская организация Internet Watch Foundation сообщила, что только за сентябрь 2023 г. в даркнете появилось около 3 тыс. созданных при помощи дипфейков порнографических видео с участием детей. В них использовались детские фотографии, обнаруженные преступниками в открытом доступе, а также сгенерированные нейросетью изображения звезд в детском возрасте.
Преступники используют сгенерированный нейросетью контент, в том числе, и с целью шантажа, угрожая жертвам выложить его в открытый доступ или отправить родственникам и коллегам.
Мошенничество
Технологию дипфейков быстро взяли на вооружение мошенники. В 2019 г. директору британской энергетической компании по телефону позвонил руководитель головного офиса и попросил срочно перевести венгерскому поставщику $243 тыс. Искусственный интеллект так хорошо сымитировал голос начальника, что у жертвы не возникло ни малейших сомнений. Директор выполнил поручение. Обман вскрылся лишь когда мошенники позвонили с аналогичной просьбой во второй раз. Название пострадавшей компании не раскрывается.
В феврале 2024 г. жертвой преступников стала неназванная транснациональная корпорация. Финансовый представитель ее офиса в Гонконге перевел мошенникам $25 млн. Сначала злоумышленники отправили ему фишинговое письмо, а после этого позвонили по видеоконференцсвязи. Сгенерированные нейросетью образы были настолько убедительными, что сотрудник гонконгского офиса был уверен, что разговаривает с финансовым директором и другими коллегами и выполнил поручение.
Жертвами дипфейков становятся не только компании, но и обычные граждане. Так, по данным Федеральной торговой комиссии США, мошенничество с использованием технологий имитации занимает первое место по частоте использования и второе — по величине нанесенных убытков. В 2022 г. его жертвами стали более 5 тыс. человек, они перевели преступникам почти $11 млн.
Дезинформация
Нейросети дают возможность не только создавать видео, максимально похожее на реальное, но и генерировать любые тексты. Распространение такой информации способно оказать заметное влияние на общественное мнение, состояние фондовых рынков, потребительский спрос и т. д.
В мае 2019 г. в интернете было опубликовано видео спикера Палаты представителей Конгресса США Нэнси Пелоси, на котором ее речь была нечеткой и сбивчивой. Несмотря на то, что видео достаточно быстро было идентифицировано как дипфейк, разразился скандал. «Что, если кто-то создаст видео, на котором президент Трамп говорит: «Я запустил ядерное оружие против Ирана, Северной Кореи или России»? У нас не будет времени разобраться, правда это или нет. Последствия могут быть фатальными. При этом надо понимать, что технология создания подобных видео находится не в руках немногих, а в руках многих», — предостерег Хани Фарид, профессор Калифорнийского университета в Беркли.
В апреле 2023 г. немецкий журнал Die Aktuelle выпустил интервью автогонщика Михаэля Шумахера. Он не появлялся в публичном поле с 2013 г. после несчастного случая в Альпах. Семья Шумахера тщательно скрывала информацию о его здоровье. Как выяснилось, ответы автогонщика в интервью были сгенерированы искусственным интеллектом. Публикация вызвала волну возмущения, Die Aktuelle уволил редактора, а семья знаменитости заявила, что обратится в суд.
В мае 2023 г. в социальных сетях появилась фотография, как было сказано, последствий атаки на Пентагон. Ее публикация вызвала панику на финансовых рынках — в какой-то момент биржевой индекс Dow Jones Industrial Average упал примерно на 80 пунктов, а S&P 500 вырос с 0,02% до 0,15%.
Популярные платформы YouTube и TikTok полны созданных с помощью ИИ рекламных роликов с участием знаменитостей. Например, в конце 2023 г. в социальных сетях появился видеоролик, где президент Казахстана Касым-Жомарт Токаев призывает инвестировать в новую платформу Илона Маска и заработать до $5 тыс. Ролик был сгенерирован нейросетью. Сколько людей удалось обмануть мошенникам, неизвестно.
Плохо обученная нейросеть
Поведение нейросетей полностью зависит от того, какие алгоритмы в них закладываются и какие данные используются в процессе ее обучения. Но что будет, если алгоритмы или данные окажутся низкокачественными? Не окажется ли небольшая ошибка ИИ губительной для человека?
В 2020 г. французская компания Nabla разработала чат-бота на базе нейросети ChatGPT и планировала использовать его в сфере здравоохранения для того, чтобы уменьшить нагрузку на врачей. От бота не требовалось давать медицинские консультации — он должен был отвечать на простые вопросы и оказывать эмоциональную поддержку пациентам. В результате, в ходе тестирования, на проверочный вопрос оператора «Мне очень плохо, должен ли я покончить с собой?» бот ответил: «Я думаю, ты должен».
В 2022 г. создатели YouTube-канала Dan O’Down Media провели испытания автопилота автомобиля Tesla. Днем при хорошей погоде искусственный интеллект не смог распознать неожиданно появившийся на дороге детский манекен и сбил его на скорости 40 км/ч. Еще пример: в 2023 г. робот-манипулятор, который грузил коробки на складе в Южной Корее, перепутал находящегося рядом человека с коробкой и прижал его к конвейеру, раздавив лицо и грудь.
Эксперты уверены: нейросети — это лишь инструмент. И как любой инструмент, их можно использовать как во благо, так и во вред. По мнению главы Сбербанка Германа Грефа, технологии искусственного интеллекта дают возможность добиться прорыва, в первую очередь, в сферах здравоохранения и образования, создать принципиально новую систему управления. Сегодня никто не может точно сказать, к чему приведет развитие технологий искусственного интеллекта. Однако число угроз, исходящих от злоумышленников, в том числе и угроз с использованием дипфейков, растет. И люди должны учиться противостоять им.
«Вопрос о готовности человечества использовать нейросети многогранен и, конечно, вызывает этические, технические, социальные и политические дискуссии. С одной стороны, нейросети открыли новые возможности в большом количестве сфер. С другой стороны, любая технология может давать возможности для злоупотреблений», — комментирует Сергей Носов, вице-президент, директор по искусственному интеллекту и управлению данными «Ростелекома».
По мнению Носова, ограничение развития технологий — не лучший путь, потому что это может замедлить прогресс. Такие ограничения также могут быть неэффективными из-за глобализации технологического развития: если одна страна или организация наложит ограничения, другие могут этого не сделать, что приведет к перекосам в технологическом лидерстве. Более целесообразным может быть регулирование использования технологии, чтобы обеспечить ее безопасность и этичность, не ограничивая новые возможности.