Рада Євросоюзу повідомляє про досягнення попередньої згоди щодо пропозиції щодо узгоджених правил щодо штучного інтелекту (ШІ), так званого закону про штучний інтелект. Проект регламенту спрямований на те, щоб системи штучного інтелекту, розміщені на європейському ринку та використовувані в ЄС, були безпечними та поважали основні права та цінності ЄС. Ця знакова пропозиція також спрямована на стимулювання інвестицій та інновацій у сфері ШІ в Європі.
«Це історичне досягнення і величезна віха в майбутнє! Сьогоднішня угода ефективно вирішує глобальну проблему в технологічному середовищі, що швидко розвивається, у ключовій сфері для майбутнього наших суспільств і економік. І в цих зусиллях нам вдалося зберегти надзвичайно крихкий баланс: стимулювати інновації та впровадження штучного інтелекту в Європі, повністю поважаючи основні права наших громадян», - Карме Артігас, державний секретар Іспанії з цифровізації та штучного інтелекту.
Закон про штучний інтелект є флагманською законодавчою ініціативою, яка може сприяти розробці та застосуванню безпечного та надійного штучного інтелекту на єдиному ринку ЄС як приватними, так і державними суб’єктами.
Основна ідея полягає в тому, щоб регулювати штучний інтелект на основі здатності останнього завдавати шкоди суспільству, дотримуючись підходу , що базується на ризиках : чим вищий ризик, тим суворіші правила . Будучи першою законодавчою пропозицією такого роду в світі, вона може встановити глобальний стандарт для регулювання штучного інтелекту в інших юрисдикціях, як це зробив GDPR, таким чином просуваючи європейський підхід до регулювання технологій на світовій арені.
Основні елементи тимчасової угоди
Порівняно з початковою пропозицією Комісії основні нові елементи попередньої угоди можна підсумувати таким чином:
- правила щодо високо впливових моделей штучного інтелекту загального призначення, які можуть спричинити системний ризик у майбутньому, а також щодо систем штучного інтелекту високого ризику
- переглянуту систему управління з деякими правозастосовними повноваженнями на рівні ЄС
- розширення переліку заборон, але з можливістю використання дистанційної біометричної ідентифікації правоохоронними органами в громадських місцях за умови дотримання гарантій
- кращий захист прав шляхом зобов’язання розробників систем штучного інтелекту з високим рівнем ризику проводити оцінку впливу на фундаментальні права перед введенням системи штучного інтелекту в експлуатацію.
Тимчасова угода охоплює такі аспекти:
- Визначення та сфера застосування
Щоб гарантувати, що визначення системи штучного інтелекту містить достатньо чіткі критерії для відмежування штучного інтелекту від більш простих систем програмного забезпечення, компромісна угода узгоджує визначення з підходом, запропонованим ОЕСР. Попередня угода також уточнює, що регламент не поширюється на сфери, що виходять за межі законодавства ЄС, і ні в якому разі не повинен впливати на компетенцію держав-членів щодо національної безпеки або будь-якої організації, на яку покладено завдання в цій сфері. Крім того, закон про штучний інтелект не застосовуватиметься до систем, які використовуються виключно у військових чи оборонних цілях.
- Класифікація систем ШІ як високо ризикових і заборонених практик ШІ
Компромісна угода передбачає горизонтальний рівень захисту, включаючи класифікацію високого ризику, щоб гарантувати, що системи штучного інтелекту, які не можуть спричинити серйозні порушення фундаментальних прав або інші значні ризики, не будуть зафіксовані. Для деяких видів використання ШІ ризик вважається неприйнятним , тому ці системи будуть заборонені в ЄС. Попередня угода забороняє, наприклад, когнітивні поведінкові маніпуляції , нецілеспрямоване вирізання зображень обличчя з Інтернету чи записів камер відеоспостереження, розпізнавання емоцій на робочому місці та в навчальних закладах, соціальне оцінювання , біометричну категоризацію для отримання конфіденційних даних, таких як сексуальна орієнтація чи релігійні переконання. переконання та деякі випадки інтелектуальної поліцейської діяльності для окремих осіб.
- Винятки правоохоронних органів
Враховуючи специфіку правоохоронних органів і необхідність зберегти їх здатність використовувати штучний інтелект у своїй життєво важливій роботі, було погоджено кілька змін до пропозиції Комісії щодо використання систем штучного інтелекту в правоохоронних цілях. Крім того, що стосується використання систем віддаленої біометричної ідентифікації в режимі реального часу в загальнодоступних місцях, у тимчасовій угоді роз’яснюються цілі, у яких таке використання є суворо необхідним для правоохоронних цілей і для яких правоохоронним органам має бути дозволено використовувати такі системи у виняткових випадках. Компромісна угода передбачає додаткові гарантії та обмежує ці винятки випадками жертв певних злочинів, запобіганням справжнім, поточним або передбачуваним загрозам, таким як терористичні атаки, і розшуку людей, підозрюваних у найтяжчих злочинах.
- Системи ШІ загального призначення та основні моделі
Було додано нові положення для врахування ситуацій, коли системи штучного інтелекту можна використовувати для багатьох різних цілей ( штучний інтелект загального призначення ), і де технологія штучного інтелекту загального призначення згодом інтегрується в іншу систему високого ризику. Попередня угода також стосується конкретних випадків систем ШІ загального призначення (GPAI). Попередня угода передбачає, що базові моделі повинні відповідати певним зобов’язанням щодо прозорості , перш ніж вони будуть розміщені на ринку. Було введено більш суворий режим для моделей фундаменту «високого удару» . Це базові моделі, навчені великою кількістю даних і з розширеною складністю, можливостями та продуктивністю, значно вищими за середні, які можуть поширювати системні ризики вздовж ланцюжка створення вартості.
- Нова архітектура управління
Згідно з новими правилами щодо моделей GPAI та очевидною потребою в їх застосуванні на рівні ЄС, у Комісії створено Офіс штучного інтелекту , який має наглядати за цими найдосконалішими моделями штучного інтелекту, сприяти розвитку стандартів і практик тестування та забезпечувати виконання загальних правил у всі держави-члени. Наукова група незалежних експертів консультуватиме Офіс штучного інтелекту щодо моделей GPAI, сприяючи розробці методологій для оцінки можливостей моделей фундаментів, консультуючи щодо призначення та появи моделей фундаментів із високим ступенем впливу, а також відстежуючи можливі ризики безпеки матеріалів, пов’язані з до фундаментальних моделей.
Правління АІ, до складу якого входитимуть представники держав-членів, залишатиметься координаційною платформою та дорадчим органом Комісії та відіграватиме важливу роль державам-членам у впровадженні регламенту, включаючи розробку кодексів практики для заснування моделі. Нарешті, буде створено консультативний форум для зацікавлених сторін, таких як представники промисловості, МСП, стартапи, громадянське суспільство та наукові кола, щоб надати технічну експертизу Правлінню AI.
- Штрафи
Штрафи за порушення закону про штучний інтелект встановлювалися як відсоток від глобального річного обороту компанії-порушника за попередній фінансовий рік або заздалегідь визначеної суми, залежно від того, яка з цих сум вище. Це становитиме 35 мільйонів євро або 7% за порушення заборонених додатків штучного інтелекту, 15 мільйонів євро або 3% за порушення зобов’язань щодо штучного інтелекту та 7,5 мільйонів євро або 1,5% за надання невірної інформації. Однак тимчасова угода передбачає більш пропорційні обмеження адміністративних штрафів для малих і середніх підприємств і стартапів у разі порушення положень закону про АІ.
- Прозорість і захист основних прав
Попередня угода передбачає оцінку впливу на фундаментальні права перед тим, як високо ризикова система штучного інтелекту буде випущена на ринок розробниками. Користувачі системи штучного інтелекту високого ризику, які є публічними організаціями, також будуть зобов’язані зареєструватися в базі даних ЄС для систем штучного інтелекту високого ризику.
- Заходи підтримки інноваційної діяльності
З метою створення законодавчої бази, яка є більш сприятливою для інновацій, і сприяння нормативному навчанню на основі фактичних даних. Уточнено, що регуляторні пісочниці штучного інтелекту , які мають створити контрольоване середовище для розробки, тестування та перевірки інноваційних систем штучного інтелекту, також повинні дозволяти тестування інноваційних систем штучного інтелекту в реальних умовах. Нові положення дозволяють тестувати системи штучного інтелекту в реальних умовах , за певних умов і застережних заходів.
- Набрання чинності
Попередня угода передбачає, що закон про АІ має застосовуватися через два роки після набрання ним чинності, за деякими винятками для окремих положень.
Після попередньої домовленості буде продовжено роботу на технічному рівні, щоб завершити деталі нового регламенту. Текст передадуть представникам держав-членів ЄС на схвалення, та має бути підтверджений обома інституціями та пройти юридично-мовний перегляд перед офіційним ухваленням співзаконодавцями.
Нагадаємо, що пропозиція Комісії, представлена в квітні 2021 року, є ключовим елементом політики ЄС щодо сприяння розвитку та поширенню на єдиному ринку безпечного та законного ШІ, який поважає основні права. Рух ЄС щодо ШІ спрямований на сприяння інвестиціям та інноваціям у сфері штучного інтелекту, покращення управління та ефективного забезпечення дотримання чинного законодавства про основні права та безпеку, а також сприяння розвитку єдиного ринку програм штучного інтелекту.
Читайте також:
- Активні кроки на шляху до інтеграції України в ОЕСР
- Європейська цифрова ідентичність: досягнуто попередньої угоди щодо eID
- У Європі підготували AML закон для криптоіндустрії
- Принципи та алгоритми створення автоматизованих інтелектуальних систем управління електронним банкінгом