Больше прозрачности, меньше рисков: политики в США взялись за искусственный интеллект

Нейросети озадачили Белый дом

Больше прозрачности, меньше рисков: политики в США взялись за искусственный интеллект
© ТАСС

Стремительное развитие искусственного интеллекта стало причиной серьезной озабоченности Белого дома. В начале мая президент США Джо Байден, вице-президент Камала Харрис и высокопоставленные чиновники администрации провели встречу с руководителями американских компаний OpenAI, Anthropic, Microsoft и Alphabet, занимающихся разработкой ИИ.

В ходе обсуждения рисков, связанных с инновациям в этой области, Байден и Харрис отметили, что в первую очередь важно смягчить как существующие, так и потенциальные риски, которые искусственный интеллект представляет для каждого человека, общества в целом и национальной безопасности. В числе таковых, с позиции Белого дома, риски в сферах безопасности, прав и свобод человека, неприкосновенности частной жизни, рабочих мест и демократических ценностей.

Как отметил Байден, компании несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до их внедрения и распространения.

Представители американской администрации призвали компании к большей открытости перед политиками и общественностью относительно особенностей своих разработок, созданию условий для проведения проверок на безопасность и эффективность, а также обеспечению защиты от вмешательства извне.

В чем опасность искусственного интеллекта

Об угрозе со стороны ИИ говорят уже многие годы, но на фоне популярности нейросетей и их активного использования во многих сферах повседневной жизни споры об этом стали еще более острыми.

Глава американской корпорации Google Сундар Пичаи в ходе интервью телеканалу CNBC предупредил, что в результате быстрого развития ИИ масштабы дезинформации и распространения фейковых новостей будут намного больше, что может причинить вред всему миру.

В начале мая газета The New York Times сообщила, что британско-канадский ученый Джеффри Хинтон, создавший технологию, которая легла в основу программ ИИ, покинул Google, чтобы открыто заявить о потенциальных рисках технологии. Он признал, что частично сожалеет о своем изобретении, но при этом осознает, что его создание было неизбежно. "Я утешаю себя обычным оправданием: если бы этого не сделал я, это сделал бы кто-то другой", — сказал Хинтон.

Как отмечает издание, многих представителей отрасли гложет страх, что они выпускают на волю нечто опасное. В частности, их беспокоит, что ИИ может вытеснить работников в определенных отраслях, а также риск распространения ложной информации.

Помимо этого, Хинтон опасается, что наступит день, "когда автономное оружие — роботы-убийцы — станет реальностью".

Один из наиболее активных сторонников острожного развития ИИ — американский предприниматель Илон Маск. В интервью телеканалу Fox News он выразил мнение, что такие инновации могут оказаться опаснее, чем неудачно смоделированные или собранные самолеты и автомобили, поскольку у технологий ИИ "есть потенциал для уничтожения цивилизации".

Предприниматель обратил внимание, что ограничения в той или иной сфере часто вводятся уже после того, как происходит нечто плохое. "Если так получится и с ИИ и мы решим ввести ограничения только после того, как произойдет что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать", — предупредил Маск.

На вопрос о том, может ли развитие ИИ привести к тому, что он будет принимать решения самостоятельно и люди не смогут отключить его, предприниматель ответил: "Все к тому идет, совершенно точно". 

"Я думаю, что мы должны быть осторожны с ИИ, и я думаю, что должен быть некоторый контроль со стороны правительства, потому что это представляет опасность для общества", — предупредил он.

Маск и более чем тысяча экспертов в области ИИ подписали открытое письмо, в котором потребовали ввести мораторий на обучение мощных нейросетей. По мнению подписантов, лаборатории ИИ и независимые эксперты должны использовать эту "передышку", чтобы совместно разработать и внедрить набор общих протоколов безопасности.

Они предложили внести изменения в политической сфере, чтобы создать новые регулирующие органы, которые бы занимались вопросами ИИ, а также внедрить системы контроля на государственном уровне для обеспечения безопасности новых систем.

Специалисты объяснили свою позицию тем, что неконтролируемый процесс в этой области может представлять угрозу для человечества.

"Билль о правах для ИИ" и другие попытки регулирования

О проблеме политического регулирования разработки ИИ в США говорят уже на протяжении некоторого времени. Камала Харрис в ходе встречи с представителями занимающихся разработкой ИИ американских компаний напомнила, что их обязанность — соблюдать действующие законы, а также "этическую, моральную и юридическую ответственность за обеспечение безопасности и сохранности своей продукции".

В Белом доме призвали компании, в частности, принимать меры в соответствии с проектом "Билля о правах для ИИ" и Концепцией менеджмента рисков, связанных с ИИ, Национального института стандартов и технологий (NIST).

"Билль о правах для ИИ" включает пять принципов: безопасные и эффективные системы, алгоритмическая защита от дискриминации, конфиденциальность данных, уведомление и объяснение, а также человеческие альтернативы, рассмотрение и отступление.

Первый принцип предполагает, что граждане должны быть защищены от небезопасных или неэффективных систем. В связи с этим автоматизированные системы должны разрабатываться с учетом консультаций с различными сообществами и экспертами в предметной области, чтобы выявлять проблемы и риски.

Согласно второму принципу, граждане не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться справедливо.

Третий принцип предполагает, что граждане должны быть защищены от неправомерных действий с данными благодаря встроенным средствам защиты, а также должны иметь возможность влиять на то, каким образом используются их данные.

Принцип "уведомление и объяснение" предполагает, что граждане должны иметь доступ к документации на простом языке, которая включает четкое описание функционирования автоматизированной системы в целом и роли, которую она играет.

Согласно последнему принципу, компании должны отказываться от автоматизированных систем в пользу человеческой альтернативы, где это уместно, а также иметь возможность обратиться к человеку, который может быстро рассмотреть и устранить проблемы в случае их возникновения.

Эти принципы должны учитываться при создании и использовании систем искусственного интеллекта.

Несмотря на стремление создать законодательную базу для контроля над разработками ИИ, инструментов для этого у федерального правительства в основном нет, отметил президент группы по защите прав потребителей Public Citizen Роберт Вайсман, слова которого приводит The Wall Street Journal. В частности, как он отметил, Байден не может ввести мораторий на разработку ИИ, пока не будут разработаны нормативные ограничения.

По словам Вайсмана, несмотря на то, что стремительно развивающиеся технологии создают риски дезинформации и социальной дезинтеграции, компании "чувствуют, что не могут остановиться, потому что их опередит конкурент", поэтому ситуация вызывает озабоченность.

ИИ — враг или соратник?

Одновременно с опасениями, которые выражает Белый дом в связи с активной разработкой искусственного интеллекта, из Вашингтона звучат заявления о выгоде этих технологий в различных сферах, в частности в военной. Председатель Комитета начальников штабов Вооруженных сил США Марк Милли назвал ИИ самой мощной из всех быстроразвивающихся технологий в ведении войны. Преимуществом внедрения этих систем он назвал возможность принятия решений быстрее противника.

Как он заявлял в интервью журналу Foreign Affairs, США уже используют робототехнику, БПЛА, разрабатывают как надводные, так и подводные беспилотные морские транспортные средства, экспериментируют с современными истребителями и бомбардировщиками, которые будут беспилотными, а в будущем также рассчитывают разработать беспилотные танки. "Роботизированные технологии очень-очень быстро, быстрее, чем можно подумать, начинают применяться в вооруженных силах", — сказал он.

По мнению Милли, в будущем американские военные начнут применять технологии искусственного интеллекта и квантовых компьютеров. "Как и в прошлом, страна, которая оптимизирует эти технологии для ведения боевых действий, получит решительное преимущество, по крайней мере на ранней стадии будущего конфликта", — уверен он. 

Развитие технологий ИИ в военной сфере в конечном счете приведет к гонке инновационных вооружений, считает бывший госсекретарь США Генри Киссинджер. При этом он уточнил, что она не будет похожа на предыдущие.

"В предыдущих гонках вооружений вы могли разработать правдоподобные теории о том, как можно победить. Это совершенно новая проблема в интеллектуальном плане", — сказал он в интервью телекомпании CBS News.

Лидия Мисник