«Поисковые системы — поле, которое необходимо контролировать»

Основатель Orion Solutions о новых трендах, фейках в Google и Яндексе, а также искусственном интеллекте

«Поисковые системы — поле, которое необходимо контролировать»
© Пресс-служба

Одной из самых обсуждаемых на полях ПМЭФ темой стал искусственный интеллект и угрозы, которые он несет каждому из нас. Сегодня подавляющее большинство мировых экспертов сходятся во мнении, что генерируемый ИИ синтетический контент стал глобальной угрозой номер один. При этом многие обыватели до сих пор ошибочно считают, что конкретно их это не касается. Об этом Rambler поговорил с основателем компании Orion Solutions Иваном Сафоновым.

Rambler: Согласно исследованию The Global Risks Report, фейк-ньюс является угрозой номер один для человечества. Разделяете ли вы это мнение?

Безусловно, разделяю. Когда мы слышим про дезинформацию, то думаем, что это где-то далеко, на другом уровне. Но это совсем не так. Сегодня это уже касается каждого.

Вот мы говорили на форуме по поводу искусственного интеллекта, о том, как он позволяет огромное количество контента создавать. И это действительно проблема. Ведь когда ты хочешь получить информацию о ком-то или о чем-то, ты ищешь ее в интернете. При этом крайне сложно отделить реальный факт от фейкового, правду от лжи, злонамеренно искаженные сведения от банальной ошибки. Как ты это сделаешь? Поэтому сегодня это касается каждого.

Любая проверка благонадежности — это просто наведение справок. Работодатель, банк или другой финансовый институт, потенциальные партнеры — все они смотрят в Google и Яндекс на человека или на компанию, с которой собираются иметь дело. Пока этого не сделано, проверка благонадежности не считается завершенной. Это та область, которая сегодня уже выходит на первый план. Но достаточно мало людей и компаний всерьез занимаются наполнением инфополя корректной и актуальной информацией о себе. Хотя последствия того, что в поисковиках о них можно найти «что-то не то», они чувствуют на себе уже каждый день. Поэтому, безусловно, этот тренд заметен прямо сегодня.

Существует целая система агрегаторов данных о санкциях против физлиц и компаний, введенных разными странами. По какому принципу работают такие агрегаторы? Как комплаенс-офицеры, формирующие эти списки, проверяют найденную информацию?

У нас был один кейс, который связан с введением санкций, принятых по результатам изучения открытой информации. Мы обсуждали его внутри компании и увидели, что аналитика даже в случае широко известных и весомых бизнесменов не выдерживает никакой критики. Такая аналитика сводится к тому, что проверяющие прочитали три ссылки на одной странице поиска. Все. Ты под санкциями. Что говорить о случаях с людьми «попроще»?

Проверка благонадежности, которую в обязательном порядке проводят все международные финансовые институты, основывается на данных из базы World-Check. С этим мы сталкиваемся постоянно. Там работают люди, которые тоже ищут информацию в онлайне.

Мы в нашей компании Orion Solutions разобрали 150 профилей людей, фигурирующих в списках World-Check. То, что мы там обнаружили, удивило даже нас. 33% профилей содержат грубые ошибки: неправильные должности, названия компаний, неправильный год начала и окончания работы и так далее. Это может иметь реальные последствия. И вопросов тебе никто даже задавать не будет. Решение примут на основе того, что там написано: хорошее оно, плохое, достоверное, недостоверное — какое есть. Более того, мы обнаружили, что для 24% профилей там прямо стоит пометка «подходит под критерии санкций». Санкций еще нет, а пометка уже стоит. При этом только 2% профилей World-Check содержали хоть сколько-нибудь актуальную и достоверную биографию, которая позволяла составить полную картину о человеке, а не просто отрывочные куски.

ИИ самообучающийся. По вашему мнению, кто должен корректировать это обучение?

Я думаю, что все больше и больше (мы это видим в ChatGPT, уверен, это есть и в Яндексе, и в Cбере) команды людей, которые моделируют, что там происходит. Они говорят: у нас есть команда, которая работает по красным флагам. Потому что как только ты языковую модель вываливаешь в общий доступ, можно иски от прокуратуры начать получать. Потому что на вопрос, чьи те или иные территории, она может не знать правильный ответ. Это самое очевидное. Там дальше начинается здравоохранение, например. То есть в любом случае искусственный интеллект искусственным интеллектом, но я думаю, что он будет развиваться путем решения узких задач.

Например, у нас есть робот, который великолепно решает узкую задачу. У нас есть другой робот, который великолепно решает другую задачу. Один отлично пишет абзац, второй прекрасно проверяет ошибки, третий расставляет акценты. Но искусственного интеллекта, сравнимого с человеческим, — который может все и сразу — сегодня не существует. Это, безусловно, очень полезная штука, но мы только учимся ею пользоваться. Я думаю, как мы говорили, регулирование будет, человечек все равно будет вмешиваться в работу ИИ. Без этого никак не справиться: не может такая мощная штука быть нерегулируемой. Если помните, биткоины, которые были и есть у нас. Пока это была какая-то маленькая штучка — все работало свободно, никто ничего не регулировал. Сейчас, когда от этого уже зависит благосостояние, может быть, даже некоторых стран, — все зарегулировали, ввели в какое-то русло.

Какие опасности несет применение технологий и как можно оценить потенциал от их использования?

Простота в создании контента в сочетании с огромной скоростью его распространения уже сегодня ставит нас перед достаточно серьезной проблемой: информация о персоне или о компании может быть недостоверной, не соответствующей действительности не потому, что кто-то так задумал, а просто потому, что так получается. ChatGPT ошибается — это знают все, кто хотя бы однажды с ним сталкивался.

Сегодня понять, что правда, а что неправда — это не такая уж простая задача. И проблема только усугубляется. Мы видим эту тенденцию каждый день.

Как тогда можно понять, где искать истину? И в чем риски складывающегося положения вещей?

Риски самые реальные. Приведу вам такой свежий пример. 29 мая один из участников российского списка Forbes выиграл суд против Еврокомиссии. Он доказал, что основания, по которым его включили в санкционный список, несостоятельны.

В чем там суть? Юридический и аналитический департаменты нашей компании проанализировали это дело, изучили решение суда ЕС и его основания. Выяснилось, что в качестве аргументов для введения ограничений Еврокомиссия использовала статью из Википедии, какую-то заметку достаточно желтого характера на каком-то ноунейм-сайте и статью из Forbes, но 2012 года — то есть реально очень устаревшую. На основе этой информации евробюрократы сделали вывод, что на данного человека следует наложить санкции.

Что сделал человек, в отношении которого были введены санкции? Представил суду свою актуальную реальную биографию. Причем доказывал какие-то факты тоже ссылками из интернета — даже не документами. И этого оказалось достаточно для того, чтобы решение было вынесено в пользу бизнесмена. Это к вопросу о том, что правда, что не правда и что там написано в Google или Яндексе. Зачастую это имеет решающее, а иногда и жизнеопределяющее значение.

Вы считаете, что мы еще не опоздали с регулированием ИИ?

Это движение в любом случае неизбежно. Фраза, которую я не так давно слышал, на мой взгляд, хорошо характеризует происходящее. Она звучит так: «не искусственный интеллект заменит человека, а человек, который умеет пользоваться искусственным интеллектом, заменит человека, который им пользоваться не умеет». И это то, с чем мы сталкиваемся постоянно.