Зачем регулировать искусственный интеллект и как это затронет его развитие в России
Дискуссия о необходимости регулирования искусственного интеллекта (ИИ) во всем мире разворачивается с новой силой. Профильные комитеты Европарламента уже предварительно одобрили Закон об ИИ (AI Act), затрагивающий различные аспекты использования систем и инструментов, основанных на искусственном интеллекте. Глава OpenAI, разработавшей чат-бот ChatGPT, Сэм Альтман предложил создать агентство, которое бы лицензировало разработку крупных моделей ИИ, придумало для них правила и тестирования. Forbes разбирался, как регулирование ИИ может затронуть развитие этой сферы в России

По всем правилам

Евросоюз планирует принять закон, регулирующий искусственный интеллект (ИИ). 11 мая комитеты по внутреннему рынку и по гражданским свободам Европарламента одобрили законопроект, регулирующий использование технологий на базе ИИ (так называемый AI Act). В документе предложено разделить технологии искусственного интеллекта по категориям по степени их потенциальной опасности. Также в проекте содержится запрет на использование технологии распознавания лиц в общественных местах и применение полицией ИИ для прогнозирования правонарушений, а также меры по регулированию систем генеративного ИИ (таких, как нашумевший ChatGPT).


AI Act запретит таким американским компаниям, как OpenAI, Amazon, Google и IBM, предоставлять API-доступ к генеративным моделям искусственного интеллекта. Обращает на себя внимание и положение о том, что любая модель, доступная в ЕС без предварительного прохождения обширного и дорогостоящего лицензирования, повлечет за собой крупные штрафы в размере более €20 млн, или 4% от общемировой выручки. Разработчики с открытым исходным кодом и хостинговые сервисы (такие как GitHub) будут нести ответственность за предоставление нелицензионных моделей. ЕС, по сути, угрожает санкциями важным частям технологической экосистемы США.


Другие страны также задумываются над необходимостью регулирования новых технологий. В конце апреля японское издание Kyodo сообщало, что страны «Большой семерки» — США, Великобритания, Германия, Япония, Канада, Италия, Франция — работают над международными стандартами использования ИИ.


Опасения бесконтрольного развития ИИ разделяют и сами разработчики. В конце марта более тысячи ведущих мировых представителей IT-индустрии опубликовали открытое письмо, в котором заявили о необходимости приостановить хотя бы на полгода обучение систем ИИ, так как нужно разработать для них протоколы безопасности. Любопытно, что тогда глава компании OpenAI, разработавшего чат-бот ChatGPT, Сэм Альтман к этой инициативе не присоединился.


Однако похоже, что он передумал: на этой неделе во время слушаний в Конгрессе США Альтман все-таки заявил о необходимости регулировать сферу, предложив тестировать и лицензировать крупные модели ИИ, а также разработать для них свои правила. OpenAI запустила чат-бот ChatGPT в ноябре прошлого года, и после его ошеломительного успеха другие мировые гиганты, в том числе Google и Microsoft, анонсировали собственные аналоги технологии. А на днях о внедрении генеративной нейросети нового поколения YandexGPT в собственного виртуального помощника «Алису» заявил и российский «Яндекс».


Любые технологии и способы их применения рано или поздно подпадают под определенные регламенты, например лицензирование, «в этом нет ничего удивительного», убежден вице-президент VK по технологиям искусственного интеллекта Андрей Калинин. «Однако причины, которые преследуют организации, могут быть совершенно разными. Например, OpenAI критикуют за эту инициативу, потому что, скорее всего, от введения такого рода лицензирования в первую очередь пострадают небольшие компании, исследовательские организации, — замечает он. — То есть OpenAI подозревают в том, что таким образом они хотят ограничить себе конкуренцию, потому что им самим будет легко получить лицензию, а остальным — сложно».


Forbes опросил экспертов и участников рынка, нужно ли, по их мнению, регулирование ИИ и как оно может повлиять на развитие этой индустрии в России.


Нет времени объяснять

«Заниматься этим надо было еще лет 10 назад. Хорошо, что вообще спохватились», — комментирует инициативу Евросоюза генеральный директор Smart Engines Владимир Арлазаров. Есть множество исков и судебных дел, связанных с тем, что, например, компании, занимающиеся распознаванием лиц, незаконно собирали данные в соцсетях, поясняет он. «И не только они. Все, кому нужно, данные уже собрали. Регулирование необходимо, но эффект будет значительно слабее, чем это было бы десять лет назад», — говорит Арлазаров. Отчасти время регулирования ИИ уже упущено, подтверждает руководитель практики интеллектуальной собственности юридической фирмы DRC Владимир Ожерельев. По его словам, базовые принципы работы нейросетей были разработаны десятки лет назад, когда ни общество, ни государство не видели предпосылок для стремительного развития ИИ. «Поэтому предметное регулирование данной области сейчас практически отсутствует», — добавляет Ожерельев.



Теперь же в случае принятия AI Act станет прецедентом, который изменит подход к работе всех организаций в мире, занимающихся ИИ, категоричен директор по искусственному интеллекту и цифровым продуктам «Билайна» Константин Романов. Новая технологическая волна явно обострила риски распространения технологий ИИ, отмечает сооснователь Just AI Кирилл Петров, соглашаясь с тем, что введение регулирования в ЕС и США затронет весь глобальный рынок. «Однако неясно, как, например, в этом случае будут действовать Китай, Россия и другие страны, которые потенциально могут предпринять попытки получить преимущество для своих технологических компаний», — размышляет он.


С широким распространением ИИ вопрос регулирования был лишь вопросом времени, считает юрист, преподаватель образовательной платформы Moscow Digital School Борис Едидин. По его словам, без вмешательства государства точно не обойтись — слишком много потенциальных рисков несет бесконтрольное развитие данной сферы.


«Скайнет» на пороге

«Время для регулирования не упущено, пока мы, люди, все еще можем сами создавать законы», — рассуждает ведущий научный сотрудник Института искусственного интеллекта AIRI Виктор Гомболевский. Впрочем, любое регулирование может быть обесценено, если нет инструментов для мониторинга ситуации, полагает он, предостерегая от иллюзии контроля над технологиями ИИ. «Дело вовсе не в честности разработчиков ИИ и их готовности следовать букве закона, а в проблеме «черного ящика», — говорит Гомболевский. По словам эксперта, для больших моделей ИИ (например, GPT-4) нельзя до конца объяснить последовательность действий, которые использует машина в получении выводов. «Важно не забывать, что чересчур жесткие ограничения для ИИ в одной части света могут вынудить разработчиков развивать эти технологии там, где ограничения минимальны», — подчеркивает он.


Одной из основных проблем, связанных с GPT, является потенциальная неспособность обнаружения фальсификации данных, что может привести к распространению дезинформации и манипуляции общественным мнением, обращает внимание директор по стратегическим проектам Института исследований интернета Ирина Левова. Однако существуют методы и технологии, которые могут помочь решить эту проблему: алгоритмы проверки подлинности, фильтры и модерация контента, подчеркивает она.


Правила внедрения ИИ должны решать не только вопросы информационной безопасности, защиты данных и контроля разработчиков, отмечает Борис Едидин из Moscow Digital School. Требуется регуляторное переосмысление трудовых функций, нормативов, технических регламентов, регулирования социальной политики, занятости, налогообложения, перечисляет он.


Законодательное регулирование ИИ может защитить общественность от потенциальных угроз, связанных с использованием этих технологий, считает Левова. Впрочем, оно может иметь и отрицательные последствия для развития ИИ в России, предупреждает она. «К примеру, затруднить доступ к новейшим технологиям в этой области и замедлить развитие ИИ в России», — поясняет Левова. Кроме того, эти ограничения могут привести и к утечке кадров, когда исследователи и компании, занимающиеся ИИ, выберут другие страны, где свобода исследований и разработок не ограничивается законодательством, добавляет она.


Вместо ограничения ИИ законодательные органы в России могут сосредоточить свои усилия на создании механизмов, гарантирующих безопасное использование этих технологий и защиту прав потребителей, полагает Левова. «Это может быть как создание регулятора, который будет следить за использованием ИИ, так и разработка стандартов и норм, которые помогут обеспечить безопасность и этику в использовании этой технологии», — говорит эксперт.


Найти свой путь

При этом в России уже есть ряд собственных инициатив в этом направлении — в стране принят Кодекс этики ИИ, хотя он и имеет рекомендательный характер, обращает внимание Виктор Гомболевский. Но, по мнению опрошенных Forbes экспертов, сначала все же следует посмотреть на практику правоприменения за рубежом, в частности, на то, как будет работать AI Act в ЕС. Однозначно стоит глубоко проанализировать принимаемые странами ЕС и США меры и взвесить все риски, согласен Кирилл Петров. Он не уверен, что первые версии законопроектов будут оптимальными: «Некоторые положения проекта директивы ЕС уже вызывают отдельные вопросы, в том числе с точки зрения их технологической реализации».


Правительству любой страны будет крайне тяжело контролировать свободное создание и обучение нейросетей, поэтому наиболее вероятный сценарий — это лицензирование нейросетей в отдельных сферах деятельности, считает Владимир Ожерельев. Так, использование генеративных нейросетей часто нарушает авторские права, приводит пример юрисконсульт практики интеллектуальной собственности юридической компании ЭБР Софья Шарыпова. По ее словам, введение обязательного раскрытия информации об авторах, объекты интеллектуальной собственности (ИС) которых используются для обучения нейросетей, может быть одним из механизмов решения проблемы нарушения авторских прав. «Можно было бы установить требование к разработчикам использовать для обучения нейросетей только объекты ИС, на которые срок охраны авторского права уже истек, — рассуждает она. — Однако это сильно бы усложнило и замедлило процесс обучения нейросетей, так как факт истечения срока охраны авторским правом требует установления, что не всегда доступно в условиях объемов контента в интернете».


По словам Ожерельева, в России регулирование ИИ, скорее всего, пойдет по пути централизации управления нейросетями в руках государства и крупных корпораций. «Мы наблюдаем это как минимум в последних изменениях норм об обработке биометрических данных. И мы уже наблюдаем примеры злоупотребления в сфере распознавания лиц», — подчеркивает он.


Одним из самых важных применений ИИ, которое необходимо регулировать в России, является биометрическое распознавание лиц, считает Софья Шарыпова. В AI Act установлен запрет на использование систем распознавания лиц в общественных местах как технологию с наибольшими рисками, поясняет она, в России же вопрос регулирования биометрической идентификации не урегулирован. «В AI Act ЕС сбор биометрии отнесен к уровню высокого риска, тем самым компании-разработчики, использующие ИИ в этих целях, обязаны, к примеру, проходить проверки независимых экспертов. Такая мера была бы актуальна и в российском законодательстве об ИИ, к примеру, в отношении российских NtechLab и VisionLabs, одних из самых известных в мире компаний, разрабатывающих алгоритмы распознавания лиц», — убеждена Шарыпова.


В Комитете Госдумы по информационной политике и Минцифры на запрос Forbes не ответили.


Источник: Forbes.ru