Закон об искусственном интеллекте: переход к серым зонам дерегулирования

Недавнее предварительное соглашение Европейского Союза по Закону об искусственном интеллекте, достигнутое в результате интенсивных переговоров поздно вечером в пятницу, знаменует собой решающий прогресс в регулировании искусственного интеллекта. Однако это достижение омрачено опасениями, что потенциальные лазейки в законе могут привести к дерегулированию, а не к ответственному надзору, который он призван обеспечить.

Цель Закона об искусственном интеллекте — сбалансировать инновации с защитой общества, но детали, возникающие в результате обсуждений в последнюю минуту, вызывают сомнения в его эффективности. Закон сохраняет подход, основанный на риске, классифицируя системы ИИ как «высокорисковые» для более строгого регулирования. Однако новые условия фильтрации могут позволить некоторым приложениям с высоким уровнем риска обходить эти правила.

Запреты в Законе распространяются на системы искусственного интеллекта, которые создают неприемлемые риски, включая манипулирование и использование уязвимостей. Тем не менее, исключения, сделанные для конкретных случаев, таких как распознавание эмоций на рабочих местах в целях безопасности, вносят неясности, которыми можно воспользоваться.

Закон также налагает обязательства по обеспечению прозрачности на модели фондов, особенно на модели с системным риском. Это требует оценок, оценок рисков и отчетности об инцидентах, но первоначальное использование кодексов практики до того, как будут установлены общеевропейские стандарты, может привести к неопределенности в их соблюдении.

Изучайте больше о мире криптовалют, инвестировании и трейдинге в академии Cryptemic.

Включена оценка воздействия на фундаментальные права (FRIA), направленная на устранение опасений по поводу ИИ в правоохранительных органах и государственном надзоре. Однако исключения для правоохранительных органов ставят под сомнение способность FRIA предотвращать неправомерное использование инструментов искусственного интеллекта высокого риска.

Штрафы за нарушение Закона об искусственном интеллекте значительно варьируются и призваны обеспечить его соблюдение. Однако «пропорциональные ограничения» потенциально могут принести пользу более крупным компаниям, позволяя им передать рискованные проекты в области ИИ более мелким организациям.

Структура управления включает Управление ИИ и Совет, первый из которых курирует передовые модели ИИ, а второй выступает в качестве координационного органа. Ограниченная роль общественных заинтересованных сторон в этой структуре может ослабить влияние гражданского общества в регулировании ИИ.

Чиновники, такие как Тьерри Бретон, выразили уверенность в способности закона сбалансировать инновации и защиту, однако сохраняются опасения по поводу лазеек, позволяющих приложениям с высоким уровнем риска уклоняться от регулирования. Амбиции закона по позиционированию ЕС как лидера в области искусственного интеллекта могут склоняться к позиции дерегулирования, уделяя больше внимания развитию базирующихся в ЕС компаний, занимающихся искусственным интеллектом.

По мере того, как Закон об искусственном интеллекте продвигается к реализации, его истинное влияние на баланс между содействием инновациям в области искусственного интеллекта и защитой общества еще предстоит увидеть. Как критики, так и сторонники будут внимательно следить за тем, как закон повлияет на ландшафт искусственного интеллекта в ЕС в ближайшие месяцы.

ДИСКЛЕЙМЕР

Вся информация, содержащаяся на нашем вебсайте, публикуется на принципах добросовестности и объективности, а также исключительно с ознакомительной целью. Читатель самостоятельно несет полную ответственность за любые действия, совершаемые им на основании информации, полученной на нашем вебсайте.

Добавить комментарий

Больше на Cryptemic.com

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше