В интернет попал черновик законопроекта ЕС о регулировании использования искусственного интеллекта

В Евросоюзе рассматривают проект закона, который регулировал бы использование искусственного интеллекта (ИИ) «с высокой степенью риска». Черновик проекта попал в открытый доступ.

Некоторые приложения ИИ-технологий попадут под запрет, а нарушение оного будет грозить провинившимся компаниям штрафом в размере либо до 20 млн евро, либо до 4% годового оборота. Об этом говорится в попавшем в интернет черновике законопроекта о регулировании ИИ, который, как ожидается, будет официально обнародован на следующей неделе.

Регулирующее ИИ законодательство Евросоюза разрабатывается давно. Ещё в феврале 2020 года Европейская комиссия опубликовала документ, в котором излагались планы регулирования так называемых применений ИИ «с высокой степенью риска». В то время законодатели ЕС работали с секторальной направленностью — рассматривая определённые области, такие как энергетика и рекрутинг, как векторы риска. Однако, если верить просочившемуся в интернет проекту, этот подход, похоже, был переосмыслен: закон не ограничится обсуждением риска использования ИИ конкретными отраслями.

Вместо этого внимание будет сосредоточено на требованиях соблюдения правил в отношении применения ИИ «с высокой степенью риска» в любой сфере (однако оружие/военное применение специально исключаются, поскольку такие случаи применения выходят за рамки договоров ЕС).

Главная цель, преследуемая Еврокомиссией, судя по документу, — повышение общественного доверия к ИИ с помощью системы сдерживания и противовесов, основанной на «ценностях ЕС» и предусматривающей не только запреты и наказания, но также и поощрение внедрения так называемого «заслуживающего доверия» и «ориентированного на человека» ИИ. Таким образом, даже компании, подающие заявки на применение ИИ, не считающееся «особо рискованным», всё равно будут привлекаться к принятию кодексов поведения — «для содействия добровольному применению обязательных требований, применимых к системам ИИ с высокой степенью риска», по выражению Комиссии.

Согласно правилам, описанным в проекте, субъекты, намеревающиеся применять технологии ИИ, должны будут определить, является ли тот или иной конкретный случай использования «особо рискованным» и, следовательно, необходимо ли им проводить обязательную предрыночную проверку на соответствие правилам или нет.

Примеры возможного «вреда», причинение которого может быть связано с высокорисковыми системами ИИ, в проекте перечислены, среди них: «причинение человеку травмы или смерти, ущерб имуществу, системные негативные последствия для общества в целом, значительные нарушения в предоставлении основных услуг для повседневного ведения критически важной экономической и общественной деятельности, неблагоприятное воздействие на финансовые, образовательные или профессиональные возможности людей, неблагоприятное воздействие на доступ к государственным услугам и любую форму государственной помощи, а также неблагоприятное воздействие на [европейские] фундаментальные права».

В соответствии с черновиком, некоторые «виды практического применения» ИИ перечислены как запрещённые в статье 4 планируемого закона, включая применение систем массового наблюдения и систем социальных баллов, которые могут привести к дискриминации.

Системы искусственного интеллекта, предназначенные для манипулирования человеческим поведением, решениями или мнениями с целью причинения вреда, также перечислены как запрещённые, как и системы, использующие персональные данные для составления прогнозов с целью (вредного) воздействия на уязвимость лиц или групп лиц.

Правила регулирования использования ИИ пока официально не обнародованы — так что детали ещё могут измениться. Однако основной связанный с ними вопрос понятен уже сейчас: как можно эффективно контролировать и обеспечивать соблюдение требований совершенно нового уровня в отношении каждой конкретной ситуации применения ИИ-технологий, а также любые нарушения? Ведь и сами технологии, и процессы, в которых они бывают задействованы, зачастую очень сложны.

Таким образом, в то время как поставщики ИИ-систем с высокой степенью риска должны взять на себя ответственность за вывод своих продуктов на рынок и, следовательно, за соблюдение всех разнообразных правил и положений, включающих, среди прочего, регистрацию высокорисковых систем в особой базе данных ЕС, надзор за соблюдением этих правил и правоприменение в случае их нарушения законопрект оставляет в руках государств-членов. И здесь мы можем легко предвидеть ситуацию, когда европейское государство, которое будет менее активно следить и наказывать, сможет перетянуть от соседей некие не самые безупречные с точки зрения нового закона, но перспективные проекты.

Источник: 22century.ru

Добавить комментарий