Повернутися у блог

Як Індія та США навчаються в ЄС регулювати ШІ?

Почнемо разом щось  абсолютно нове!

ЄС у багатьох аспектах є першопрохідником у сфері регулювання ШІ.

Великі країни, такі як Індія та США, звертають увагу на європейський законопроект про штучний інтелект і багато експертів говорять про те, що майбутній закон ЄС має глобальні наслідки, у тому числі й, наприклад, для Індії, яка вже працює над власною відповідальною структурою штучного інтелекту. .

Індія

«Ефект Брюсселя» вже давно ставиться до того, як правила ЄС можуть впливати на стандарти країн за межами Європи, впливаючи на торгівлю та технологічну співпрацю – і Індія не є винятком. Індійські компанії, які обслуговують клієнтів із ЄС, можуть постати перед труднощами дотримання вимог та додатковими наслідками оцінки ризиків моделей штучного інтелекту. Хоча точний вплив залишається невизначеним, закон відкриває такі можливості:

1) через величезний ринок ЄС Індія може розглянути можливість узгодження деяких своїх політик у галузі штучного інтелекту, щоб гарантувати відсутність перешкод для торгівлі;

2) таке узгодження може стати можливістю для співробітництва у галузі відповідальної розробки та впровадження ШІ,

3) воно може полегшити обмін даними та співробітництво в галузі ШІ;

4) політичні уроки, отримані в результаті реалізації заходів ЄС, відкривають для Індії можливості ефективного регулювання ШІ.

А як щодо ШІ загального призначення?

Якщо узагальнити положення про штучний інтелект загального призначення (GPAI) у Законі про штучний інтелект, можна побачити, що моделі ШІ, здатні вирішувати різні завдання, будуть поділені на стандартні, з відкритою ліцензією та моделі із системними ризиками. 

Постачальники GPAI, а також, ймовірно, ті, хто модифікує існуючі моделі, повинні дотримуватись докладних вимог до документації, дозволяти подальшим користувачам розуміти можливості та обмеження моделі, а також складати та публікувати короткий опис контенту, що використовується для навчання. Крім того, ті, хто створює системні ризики, повинні впроваджувати заходи кібербезпеки, проводити оцінки моделей, оцінювати та знижувати ризики, а також документувати інциденти та повідомляти про них.

За дотриманням вимог слідкуватиме нове Управління AI, за недотримання якого накладатимуться штрафи у розмірі до 3% від загального світового обороту. Існують й інші відповідні закони, що стосуються GPAI, у тому числі GDPR щодо конфіденційності, закони про авторське право для винятків з інтелектуального аналізу даних та закони про інтелектуальну власність щодо конфліктів із навчанням та створенням результатів. Правила Закону про GPAI набирають чинності через 12 місяців після ухвалення.

США

Чому США можуть навчитися? У City Journal старший економіст Фонду американських інновацій Семюел Хаммонд застеріг США від наслідування Закону ЄС про штучний інтелект на тій підставі, що їхній базований на ризиках підхід до розгортання штучного інтелекту надмірно фокусується на питаннях справедливості, а не на катастрофах.

Закон накладає суворі зобов'язання на системи штучного інтелекту з високим рівнем ризику, включаючи в деяких випадках передпродажне схвалення, та створює юридичний ризик у разі недотримання вимог. Фахівці високо оцінюють особливу увагу до розробників ШІ загального призначення як найбільш розумне та цілеспрямоване положення Закону. 

Проте нереалістичні вимоги Закону та потенційні штрафи можуть взагалі утримати американських розробників від випуску новітніх моделей ЄС. Є припущення, що розумніший підхід буде зосереджений лише на справді катастрофічних ризиках та контролі лабораторій штучного інтелекту.

Марія Вільєгас Браво, науковий співробітник EPIC, написала статтю, яка оцінює сильні та слабкі сторони Закону про штучний інтелект, розділивши їх на «хороші», «погані» та «потворні».

У розділі «Добре» Браво високо оцінює заборону Закону на різні нав'язливі програми штучного інтелекту та визнання ризиків, які певні алгоритми представляють для фундаментальних прав.

Тим часом, «Погане» наголошує на проблемах у регулюванні моделей штучного інтелекту загального призначення (GPAI) та програмного забезпечення з відкритим вихідним кодом, що призводить до порушення положень.

Зрештою, «Потворне» наголошує на недоліках у використанні систем біометричної ідентифікації, зокрема, у вирішенні винятків для використання правоохоронними органами. У світлі цього Браво пропонує, щоб США прийняли інший підхід, уникаючи структури, заснованої на шкоді через відсутність міцної системи прав людини. 

Натомість вона виступає за всеосяжне законодавство про конфіденційність, яке підкріпить ефективне регулювання ШІ, наголошуючи на важливості законів про конфіденційність як основи для будь-якого майбутнього законодавства США в галузі ШІ.

Якщо у вас є питання щодо юридичних аспектів регулювання ШІ, звертайтесь до Avitar.

Підписуйтесь на наші канали у соціальних мережах:

LinkedIn

YouTube

Instagram

Facebook

Telegram

Medium

Зв'яжіться з нами:

business@avitar.legal

Автори:

Сергій Флорескул

,

Віолетта Лосєва

,

9.6.2024 19:54
Іконка хрестик закрити

Давайте обговоримо ваш проект

Запит успішно відправлено
Помилка відправки запиту
By clicking "Allow all" you agree to store cookies on your device to enhance website navigation, analyse usage and assist in our marketing efforts
Варіанти видів cookies

Відправити

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Дізнайтеся більше про cookies та передачу даних у нашій
Політиці файлів cookies.