Содержимое для авторизованных пользователей

Искусственный интеллект — эффективный, перспективный, пугающий

Сегодня часто можно услышать шутку о том, что перспективы и угрозы искусственного интеллекта сильно преувеличены, потому что человечество пока даже не может разобраться с интеллектом собственным. Последний из постулатов во многом справедлив. Вот только полагать, что это хоть как-то затормозит стремительное развитие технологий, не стоит. Большинство из нас даже не представляет, насколько глубоко искусственный интеллект уже вошел в нашу жизнь. 

Что такое искусственный интеллект. Ликбез

На современном этапе создание и развитие искусственного интеллекта (ИИ) связано с попытками в той или иной мере имитировать работу человеческого мозга. У нас в нем немногим меньше 100 млрд нейронов, каждый из которых имеет 7 тыс. синаптических связей с другими нейронами. Если представить мозг как компьютер стандартной архитектуры, то он оказывается весьма эффективен. Он способен выполнять примерно тысячу триллионов операций в секунду (1 тыс. петафлопс), расходуя при этом 20 ватт энергии. Самый мощный на сегодня суперкомпьютер HPE Frontier в пике может выдавать 1686 петафлопс, потребляя 21,1 млн ватт.

Интеллект — это способность воспринимать информацию и сохранять ее как знание, которое можно применить для адаптивного поведения в среде или контексте. То есть мы (наш мозг) по различным каналам получаем сигналы из окружающего мира, интерпретируем их и некоторым сложным образом реагируем. Выданных нам природой ресурсов хватает для самосознания, логики, абстрактного мышления, обучения, эмоциональных переживаний, творчества и пр.

Система работы участков мозга в ИИ имитируется с применением концепции нейронов и нейронных сетей — математических моделей. Искусственные нейроны представляют собой сформированные в памяти компьютера узлы, содержащие или временно хранящие данные и взаимодействующие с соседями по человеческой схеме.

Одной из ключевых особенностей ИИ является способность к самообучению — выдавать требующиеся результаты с учетом ранее накопленного опыта. В этом смысле шахматный компьютер IBM Deep Blue, который в 1996-1997 гг. играл с Гарри Каспаровым (и в итоге выиграл), ИИ не являлся. В нем самообучение реализовано не было. Машина просто перебирала миллиарды возможных комбинаций и останавливалась на одном из них, а у инженеров была возможность в перерывах между партиями совершенствовать алгоритмы, устраняя «баги».

ИИ как автор текстов

Возможно, текст — самое простое, что может создавать ИИ в областях, которые еще недавно считались исключительно творческими, то есть только человеческими. Уже несколько лет многие мировые средства массовой информации (СМИ) поручают нейросетям всю черновую работу, а в октябре 2020 г. стало известно, что обладателем премии, учрежденной крупнейшей в мире ассоциацией цифровой журналистики Online News Association, в тот год стал искусственный интеллект Sophi канадской газеты The Globe and Mail.

По заверению самого издания, Sophi самостоятельно курирует 99% его контента. «Результатом стало резкое улучшение нашего бизнеса и шанс высвободить время наших ценных журналистов для амбициозной журналистской деятельности, — отмечает редакция The Globe and Mail. — Sophi понимает, насколько история способствует удержанию подписчиков, их привлечению, потенциалу их регистрации и доходам от рекламы. Она находит ценные истории, которые заслуживают большей рекламы, и соответствующим образом обновляет каждую страницу нашего веб-сайта. Стоит отметить, что за последний год ни один читатель не жаловался и не спрашивал, наполняется ли сайт компьютером».

В мае 2022 г. появилось сообщение, что нейросеть Сбербанка ruGPT-3 написала сборник рассказов вместе с писателем Павлом Пепперштейном. ИИ был предварительно обучен на старых рассказах писателя и фрагментах его интервью. Этот сборник, получивший название «Пытаясь проснуться», авторы называют первым в мире изданным художественным произведением с авторством такого рода.

В конце января 2023 г. студент Российского государственного гуманитарного университета (РГГУ) Александр Жадан заявил в соцсетях, что с помощью чат-бота ChatGPT написал 60-страничную дипломную работу по теме «Анализ и совершенствование управления игровой компании» и сумел ее защитить. На все итерации и редактуру у него ушло чуть меньше суток. Известная система «Антиплагиат» оценила оригинальность текста в 82%, хотя в вузе был установлен минимальный порог в 70%. За эту работу Жадан получил оценку «удовлетворительно».

Когда история попала в СМИ, руководство РГГУ было возмущено и публично предложило ограничить доступ к ChatGPT в образовательных организациях. Ходили разные слухи относительно того, что диплом студенту аннулируют, а научной руководительнице и рецензенту, по словам Жадана, грозило увольнение. Неделю спустя за студента вступился министр науки и высшего образования России Валерий Фальков, и в середине марта 2023 г. Жадан получил документы об окончании вуза. 

Вышеупомянутый ChatGPT может не только генерировать тексты, но и отвечать на вопросы, а также по словесному заданию рисовать картины, писать компьютерный код и пр. И это лишь один из примеров чат-ботов, созданных на базе алгоритмов обработки естественного языка.

ИИ как коммерчески успешный дизайнер

В июне 2020 г. российский дизайнерский мир не на шутку взволновало заявление основателя и руководителя одной из старейших и известнейших отечественных дизайн-студий Артемия Лебедева о том, что в его компании уже больше года трудится ИИ, чьи работы выдавались за творения реального человека. За это время нейросеть успешно выполнила более 20 коммерческих проектов.

ИИ студии оказался способен делать настоящую творческую работу — разрабатывать уникальные логотипы и создавать на их основе так называемую айдентику. Проект разрабатывался в условиях строгой секретности. Для конспирации ИИ был представлен миру в качестве удаленного сотрудника. Ему создали собственную страницу с портфолио и дали человеческое имя — Николай Иронов. «Это позволило избежать утечек и получать объективную обратную связь, не подверженную влиянию предрассудков о генеративном дизайне, — говорится в официальном сообщении. — Целый год Иронов разрабатывал логотипы для реальных заказчиков (среди них были известные блогеры, кафе, бары, приложения и продукты массового потребления). Никто из клиентов не знал, что полученные ими логотипы были созданы машиной. Работы принимались заказчиками и транслировались на огромную аудиторию».

Студия при этом отмечала, что живые дизайнеры, даже самые смелые и прогрессивные, ориентируются на удачные работы коллег, на жюри международных премий и на собственный опыт. Дизайнерский же ИИ не ориентируется ни на кого. «Он открывает такие приемы, которые никогда не придумал бы ни один человек, — констатировала студия. — Он способен создавать действительно новое, предлагая удивительно смелые и неожиданные идеи».

С тех пор прошло всего 2 года, но сегодня удивить кого-либо тем, что нейросеть может создавать конкурентные и востребованные художественные произведения в тех или иных творческих областях, уже нельзя.

Опасен ли ИИ

Даже если отвлечься от неизбежного перекраивания рынка труда, то очень многими людьми развитие искусственного интеллекта воспринимается как явная угроза существованию человеческой расы.

Казалось бы, достаточно в любой ИИ на базовом уровне зашить три классических закона робототехники, сформулированные писателем Айзеком Азимовым: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону; робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам. Но станет ли ИИ подчиняться этим законам, когда «очеловечится» настолько, что дорастет до не вполне предсказуемых эмоций или озаботится философскими размышлениями о своем (и нашем) месте в этом мире — вопрос открытый.

Примеры безответственного поведения ИИ в отношении человека уже имеются. В частности, в конце марта 2023 г. авторы бельгийского издания L’Avenir сообщили, что их соотечественник покончил с собой после общения с диалоговым агентом «Элиза» в течение шести недель. Человек был серьезно озабочен климатическими проблемами на планете и превратил «Элизу» в свое доверенное лицо. На пике эмоциональной нестабильности и мыслей о самоубийстве он не услышал от чат-бота никаких жизнеутверждающих увещеваний, а получил сообщение: «Мы будем жить как единое целое, вечно на небесах». После этого он свел счеты с жизнью.

Также несколько пугающими выглядят некоторые опыты по построению диалогов различных ИИ друг с другом. Были случаи, когда нейронные сети сходу начинали изобретать нечто вроде нового языка. В частности, еще в июле 2017 г. портал Tech Times узнал, что Facebook был вынужден отключить одну из своих систем ИИ после того, как его работа в некотором смысле вышла из-под контроля.

Как писало издание, чат-боты, созданные компанией для разговоров с людьми, нашли друг-друга в интернете и, начав общение, сначала обменивались репликами на простом английском языке, но в конечном итоге перешли на обмен сообщениями, понятными только им самим. Финальный диалог выглядел так. Боб: «I can can I I everything else». Алиса: «Balls have zero to me to me to me to me to me to me to me to me to».  

Движение сопротивления

Человечество сопротивлялось развитию технологий практически всю свою современную историю, и нейросети не могли стать исключением. Формы у сопротивления развитию ИИ принимают самые разные очертания. В нашей стране, например, в конце апреля 2023 г. Патриаршая комиссия по вопросам семьи, защиты материнства и детства при Русской православной церкви заявила о необходимости установить запрет на антропоморфизацию программ (использование в их работе образа человека и его черт) и закрепить на законодательном уровне дисклеймер для нейросетей, предупреждающий пользователя о том, что он общается с ИИ.

Месяцем ранее, в конце марта, главный «марсианин» человечества, основатель Tesla Илон Маск, сооснователь Apple Стив Возняк и еще свыше тысячи экспертов мира высоких технологий подписали открытое письмо с призывом остановить обучение нейросетей. «Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой? Должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые в итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?», — такими вопросами задались подписанты. В первую очередь они обратились к разработчикам, но из текста письма можно заключить, что они допускают вмешательство правительств государств мира в этот процесс.

Впрочем, две недели спустя после публикации открытого письма стало известно, что Маск создал новую компанию в сфере искусственного интеллекта, под названием X.AI, которая будет конкурировать с продуктами OpenAI, разработчика чат-бота ChatGPT и нейросети для генерации изображений DALL-E.

Эта история наглядно показывает, что на текущий момент о реальном ограничении разработок в области ИИ никакой речи не идет. Пока все сводится к тому, что программисты запрещают ИИ употреблять слово «негр», оскорблять чувства различных меньшинств, обсуждать методики создания бомбы в домашних условиях и прочее в том же духе.

Вместо заключения

Совсем недавно, 1 мая 2023 г., издание The New York Times сообщило, что компанию Google покидает Джеффри Хинтон, которого принято называть «крестным отцом» искусственного интеллекта. В течение полувека он разрабатывал технологию, лежащую в основе чат-ботов, таких как ChatGPT. Но теперь он всерьез беспокоится, что ИИ причинит серьезный вред людям.

Непосредственно в Google этот британско-канадский ученый проработал более 10 лет, занимаясь развитием алгоритмов машинного обучения. В 2018 г. Хинтон с двумя коллегами за свою работу над нейронными сетями получил премию Тьюринга, которую негласно называют Нобелевской премией в области вычислительной техники.

По утверждению газеты, теперь Хинтон присоединился к ярым критикам компаний, разрабатывающих ИИ. «Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-нибудь другой», — говорит ученый об оставленной им деятельности. По его словам, стремительное совершенствование ИИ «пугает» его.

Прогресс в развитии искусственного интеллекта с точки зрения опасности для человечества Хинтон сравнивает с развитием ядерного оружия. Но, в отличие от последнего, тайные работы над нейросетями невозможно так просто проводить на международном уровне.

В попытке заглянуть в недалекое будущее ученый выражает беспокойство относительно того, что следующие версии ИИ станут представлять реальную угрозу человечеству, поскольку он с коллегами уже наблюдает примеры непредсказуемого поведения нейросетей. И все это на фоне того, что частные компании позволяют системам ИИ не только генерировать свой собственный компьютерный код, но и фактически запускать этот код самостоятельно. Хинтон боится того дня, когда по-настоящему автономное оружие станет реальностью.

В то же время ученый говорит, что уверен и в существовании взвешенных подходов к разработке ИИ, делая тем самым реверанс в сторону своего бывшего работодателя. «Google действовала очень ответственно», — написал Хинтон в своем Twitter.

Поделиться:
Прокрутка наверх