Эксперт: введение общих правил развития ИИ маловероятно из-за конкуренции стран

МОСКВА, 2 ноября. /ТАСС/. Установление строгих международных правил развития искусственного интеллекта, как и создание международного агентства по регулированию ИИ, аналогичного МАГАТЭ в сфере ядерных технологий, маловероятно из-за высокой конкуренции стран в указанной области. Такое мнение высказал ТАСС ведущий эксперт Центра компетенций Национальной технологической инициативы "Искусственный интеллект" на базе МФТИ Александр Родин.

Представители 28 стран - участниц проходящего в Великобритании первого международного саммита по безопасному использованию ИИ, в том числе США, Китая и Индии, согласовали в среду декларацию Блетчли, посвященную вопросам развития искусственного интеллекта. В документе, в частности, говорится о необходимости регулирования этой сферы и перспективах сотрудничества стран в разработке национальных стратегий по развитию ИИ.

"Я очень скептически отношусь к возможности выработать какие-то общие [международные] правила и варианту, когда все будут <…> [им] подчиняться. Наверное, они будут, но относительно вопросов ведения бизнеса: [это могут быть] "картельные" соглашения, как, например, в сфере производства и продажи углеводородов. <…> Стоит ожидать очень жесткую бескомпромиссную конкуренцию. Многие китайские, американские, российские, да и любые другие игроки будут свой продукт "продавливать", используя весь тот инструментарий, который находится у них в руках: и международные санкции, и торговые войны, и параллельный импорт. Потому что все понимают, что искусственный интеллект - это технология, которая сулит очень большие выгоды", - сказал Родин.

Как написала ранее газета The Daily Telegraph, британский кабмин рассчитывает создать в Лондоне штаб-квартиру первого международного регулятора сферы ИИ, который будет сформирован по образцу Международного агентства по атомной энергии (МАГАТЭ). Комментируя перспективу, Родин отметил, что особенности развития рынка ИИ делают его более близким к сфере беспилотных авиационных систем, а не атомных технологий.

"Что касается создания международного агентства по регулированию искусственного интеллекта, я, честно говоря, смотрю на это скептически. МАГАТЭ - это очень специфическая организация, которая была создана на основе глобального страха ядерной войны. И в массовом обществе, и в политических кругах всего мира было представление о том, что это некие тайные знания - доступ к ядерным технологиям. К ИИ такого отношения на самом деле нет. Эти настроения пытаются разгонять определенные заинтересованные личности. Нейронные сети и ИИ не являются тайным знанием", - отметил он.

Говоря о перспективах распространения технологий искусственного интеллекта, эксперт выразил уверенность, что этот процесс продолжится, и в будущем поддержание работы критической инфраструктуры без ИИ "будет невозможно".

Необходимость контроля

Руководитель сервиса "Сборка и сопровождение продуктов на основе данных" Университета Национальной технологической инициативы 2035 Марина Чурикова, в свою очередь, согласилась с тем, что обеспечение жесткого контроля разработки технологий ИИ в большинстве стран остается невозможным. Однако вопросы безопасности применения таких систем для человека требуют обсуждения и выработки мер регулирования, считает она.

"Существует угроза создания дипфейков с использованием личных фото человека, или же, например, способы мошенничества с использованием записи голоса пользователя в банковской сфере. <…> В России есть множество очень сильных экспертов (разработчиков, исследователей, дата-сайентистов), которые работают над различными алгоритмами и развивают сферу ИИ. Поэтому нам тоже нужно включаться в вопросы регулирования этой сферы, так как опыта в ней у нас много", - заключила Чурикова.

О декларации

Первый международный саммит по безопасному ИИ проходит 1-2 ноября на территории усадьбы Блетчли-парк в пригороде английского города Милтон-Кинс. Согласно декларации, подписанной представителями 28 стран на площадке форума, стороны сосредоточатся на определении рисков в сфере безопасности ИИ "и разработке общего научного и основанного на доказательствах понимания этих рисков". Помимо этого, государства намерены сотрудничать в разработке национальных стратегий в этой области, признавая, что "эти подходы могут различаться". В документе также говорится о важности обеспечения прозрачности развития ИИ-проектов представителями частного сектора и поощрении развития международных исследовательских проектов.

Документ был подписан Австралией, Бразилией, Великобританией, Германией, Евросоюзом, Израилем, Индией, Индонезией, Ирландией, Испанией, Италией, Канадой, Кенией, Китаем, Нигерией, Нидерландами, ОАЭ, Республикой Корея, Руандой, Саудовской Аравией, Сингапуром, США, Турцией, Украиной, Филиппинами, Францией, Чили, Швейцарией и Японией.