Члены Европейского парламента достигли соглашения по Закону ЕС об искусственном интеллекте с несколькими поправками в последнюю минуту и через две недели перейдут к голосованию комитета.
Европейский парламент собирается формализовать свою позицию в отношении того, что может стать первым в мире набором правил для ИИ со стороны крупного законодательного органа, поскольку законодатели ЕС достигли предварительного политического соглашения в четверг.
Члены Европейского парламента (депутаты Европарламента) обсуждали содержание Закона ЕС об ИИ и согласовали компромиссные поправки с несколькими внесенными в последнюю минуту корректировками, касающимися генеративного ИИ.
«Компромиссные поправки были согласованы вчера в ходе внутренних переговоров между докладчиками и теневыми докладчиками и будут поставлены на голосование в комитете депутатами Европарламента 11 мая 2023 года», — сказал представитель парламента. «За этим последует пленарное голосование в июне, после чего начнутся переговоры с Советом (
Европейская комиссия, которая является исполнительной властью ЕС, работает над
Предлагаемые правила охватывают широкий спектр приложений ИИ и призваны способствовать доверию и прозрачности в использовании ИИ, защищать основные права и свободы, а также обеспечивать безопасность и соблюдение этических принципов при разработке и развертывании ИИ.
ChatGPT и связанные с ним ИИ получают последние настройки
Работа с системами ИИ, которые не подходят для конкретного варианта использования, была самой обсуждаемой проблемой в предложении. Системы искусственного интеллекта общего назначения решают широкий спектр задач и не были включены в исходное предложение. Они привлекли к себе внимание только после разрушения, созданного ChatGPT, универсальной генеративной моделью искусственного интеллекта, которая принимает текстовый ввод и возвращает пользователям высококачественные ответы на основе контекста.
Члены Европарламента согласились с тем, что генеративные инструменты, такие как ChatGPT,
Другие требования к генеративным моделям ИИ включают тестирование и снижение разумно предсказуемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона с привлечением независимых экспертов.
Закон также требует документирования неустранимых рисков в моделях ИИ и причин, по которым они не были устранены. Были опасения, что ChatGPT может использоваться в злонамеренных целях, в том числе для создания фишинговых материалов, полезной нагрузки для кражи информации,
Эксперты задаются вопросом, можно ли ввести правила для систем, основанных на больших языковых моделях (LLM), таких как ChatGPT и
«Проще говоря — я понятия не имею, как можно регулировать
Закон об ИИ в первую очередь следует системе классификации
Помимо недавних дебатов об ИИ общего назначения, закон в первую очередь фокусируется на классификации существующих решений ИИ по категориям, основанным на риске, — неприемлемые, высокие, ограниченные и минимальные.
Системы ИИ, представляющие лишь ограниченные и минимальные риски, например, используемые для
Разработчикам и пользователям разрешено использовать системы искусственного интеллекта с высоким риском, но они должны соблюдать правила, требующие тщательного тестирования, надлежащего документирования качества данных и системы подотчетности, предусматривающей человеческий контроль. Примеры систем ИИ, которые считаются высокорисковыми, включают автономные транспортные средства, медицинские устройства и оборудование критической инфраструктуры.
Соглашение, достигнутое в четверг, завершает текст, который все еще подлежит незначительным корректировкам перед голосованием 11 мая, когда все группы должны будут проголосовать за компромисс без возможности внесения альтернативных поправок.