Регулювання ШІ має включати механізми відповідальності та прозорості, щоб гарантувати, що технології служать на благо суспільства, а не створюють загрозу для його основних прав та свобод
Автоматизація рутинних завдань, швидке створення контенту, оборона держави – ці сфери здаються не пов’язаними, але у кожній з них зараз активно використовується штучний інтелект (далі – ШІ). Поширення дезінформації, шахрайська діяльність, неконтрольований вплив на вибори – і тут не обійшлось без ШІ. Він став чудовим помічником для всіх: від добросовісних користувачів до шахраїв.
За вже усталеною традицією спершу постають новітні технології, а далі з’являються ті, хто ними зловживає, тим самим порушуючи права людей. Як наслідок, правова спільнота береться за врегулювання технологій та результатів їхньої дії. Тож ще у 2018 році почалась активна робота над питанням регулювання ШІ. Важливим результатам цієї роботи і першим кроком до вирішення вищеперелічених проблем стало ухвалення Конвенції зі штучного інтелекту, прав людини, демократії та верховенства права (далі – Конвенція) та Artificial Intelligence Act (далі – AI Act).
У аналітиці Центру демократії та верховенства права ми детальніше розглянемо європейське законодавство у сфері ШІ, а саме Конвенцію та AI Act; як зміняться правила гри для систем ШІ та які існують можливості захисту від негативного впливу систем ШІ.
Рамкова конвенція зі штучного інтелекту, прав людини, демократії та верховенства права
ПРОЦЕС РОЗРОБКИ
Протягом останніх років у європейських державах з’являлося дедалі більше документів, що частково регулювали порядок функціонування ШІ. Проте актуальним лишалось питання розробки єдиного акту, який встановив би загальний стандарт для ШІ систем.
Для того, щоб розпочати процес його розробки, в Раді Європи сформували Комітет зі штучного інтелекту (далі – Комітет), який з 2021 року працював над Конвенцією. І 17 травня 2024 Комітет Міністрів Ради Європи ухвалив Конвенцію зі штучного інтелекту, прав людини, демократії та верховенства права. Вона стала першим договором у сфері штучного інтелекту, відкритим для всіх держав світу.
Під час переговорів та подальшого прийняття Конвенції розробники враховували низку міжнародно-правових та політичних інструментів щодо штучного інтелекту. Кожен з них так чи інакше встановлює правила або рекомендації щодо функціонування систем ШІ. До цих документів належать:
- Декларація Комітету міністрів Ради Європи про маніпулятивні можливості алгоритмічних процесів, прийнята 13 лютого 2019 р. Ця декларація присвячена проблемам маніпулювання поведінкою людей та виборами, використання даних для виявлення індивідуальних вразливостей людей, загрози праву людини приймати рішення незалежно від автоматизованих систем та іншим ризикам, які може зумовити робота автоматизованих систем. Відповідно до неї держави-члени домовились приділяти увагу вирішенню цих проблем, розглядати необхідність додаткових механізмів правового захисту від порушення прав людини внаслідок автоматизованої обробки даних, просувати навички цифрової грамотності. Також вони звернули увагу на необхідність розгляду питань щодо посилення регуляторних рамок або інших дій щодо функціонування алгоритмічних інструментів.
- Рекомендація щодо штучного інтелекту, ухвалена Радою Організації економічного співробітництва та розвитку (ОЕСР) 22 травня 2019 року. В ній визначені принципи відповідального управління ШІ та висвітлені деякі питання національної політики: наприклад того, що розробники систем ШІ мають надавати інформацію про набори даних, процеси і рішення, прийняті системою ШІ. Також, відповідно до рекомендацій у сфері міжнародної співпраці, урядам варто заохочувати приватні інвестиції в дослідження та розробки.
- Рекомендація Комітету міністрів Ради Європи державам-членам щодо впливу алгоритмічних систем на права людини, прийнята 8 квітня 2020 р. Вона спрямована на захист прав людини у використанні алгоритмічних систем. Рекомендація закликає держави-члени переглянути нормативно-правові бази та політики щодо алгоритмічних систем, забезпечити їх відповідність етичним принципам і правам людини, а також широко розповсюдити ці рекомендації. Окрім цього в документі наголошено, що приватний сектор, який займаються проєктуванням, розробкою та розгортанням алгоритмічних систем, повинен дотримувався прав людини, регіональних та міжнародних стандартів.
- Рекомендація ЮНЕСКО щодо етики штучного інтелекту, ухвалена 23 листопада 2021 року. В документі є рекомендації щодо заборони систем масового стеження та соціальної оцінки; необхідності забезпечення прозорості алгоритмів; захисту персональних даних та інших.
- Резолюції та рекомендації Парламентської асамблеї Ради Європи, які вивчають можливості та ризики штучного інтелекту для прав людини, демократії та верховенства права та схвалюють низку основних етичних принципів, які слід застосовувати до систем ШІ.
- Міжнародні керівні принципи Хіросімського процесу G7 для організацій, що розробляють передові системи ШІ, і Міжнародний кодекс поведінки Хіросімського процесу для організацій, що розробляють передові системи ШІ (прийнятий 30 жовтня 2023 р.).
- AI Act, який встановлює загальну регуляторну рамку для систем ШІ на ринку Європейського союзу.
Також в процесі розробки враховані такі документи:
- Декларація глав держав та урядів, зроблена на 4 саміті Ради Європи в Рейк’явіку 16-17 травня 2023. В ній глави держав і урядів 46 країн-членів Ради Європи встановили нові стандарти для захисту прав людини онлайн і офлайн, зокрема щодо ШІ. На саміті підкреслили важливість захисту прав людини в умовах розвитку ШІ, створення правових та регуляторних рамок, що відповідають демократичним цінностям, та впровадження прозорих і підзвітних алгоритмів. Лідери висловили підтримку міжнародному співробітництву для відповідального розвитку ШІ та наголосили на важливості освіти і підготовки фахівців у цій сфері.
- Заява лідерів G7 щодо Хіросімського процесу AI від 30 жовтня та 6 грудня 2023, в якій наголошено на важливості безпечного, відповідального та етичного розвитку штучного інтелекту, а також на необхідності міжнародного співробітництва для встановлення глобальних стандартів та практик у сфері ШІ.
- Декларація Блетчлі, прийнята в листопаді 2023 року. Документ спрямований на активізацію міжнародної співпраці у дослідженні сфери безпеки ШІ. Це має відбуватись за рахунок проєктування, розробки, запуску та використання систем ШІ у безпечний спосіб. До сфери дії Декларації належать державні послуги, наприклад освіта та охорона здоров’я, продовольча безпека, наука, енергетика, біорізноманіття та клімат. В ньому надали перелік ризиків ШІ. Підписанти Декларації визначили важливий елемент співпраці – формування спільних принципів та кодексів поведінки, які сприятимуть безпечному функціонуванню ШІ. Подібний підхід є в Artificial Intelligence Act (далі – AI Act) щодо формування кодексів поведінки. Декларація містить ризикоорієнтований підхід, так само як і Конвенція та AI Act, у контексті відповідальності. Що більший ризик, то більшу відповідальність несе розробник системи ШІ. Крім цього, учасники мають забезпечити прозорість та підзвітність своїх планів моніторингу, вимірювання і пом’якшення потенційних вразливостей системи. Детальніше про Декларацію Блетчлі ви можете прочитати тут.
НА КОГО ПОШИРЮЄТЬСЯ КОНВЕНЦІЯ?
Положення Конвенції є обов’язковими для імплементації у національне законодавство для держав-членів Ради Європи, а також тих держав, які не є членами Ради Європи, але ратифікували Конвенцію, та для Європейського Союзу.
Конвенція визначає правила функціонування систем ШІ протягом усього їх життєвого циклу для захисту основоположних прав людини і демократичних процесів. Вона охоплює використання систем ШІ в державному та приватному секторі.
Перш ніж переходити до деталей Конвенції варто з’ясувати: як документ визначає “систему штучного інтелекту”.
Це поняття закріплене у статті 2 Конвенції: “система штучного інтелекту” – машинна система, яка для явних або неявних цілей робить висновок на основі вхідних даних, які вона отримує, як генерувати результати, такі як передбачення, вміст, рекомендації чи рішення, які можуть впливати на фізичні або віртуальні середовища. Різні системи штучного інтелекту відрізняються за рівнем автономності та адаптивності після розгортання.
Це визначення дає сторонам Конвенції (далі – Сторони) спільне розуміння того, що таке системи ШІ. Проте Сторони можуть додатково конкретизувати його у своїх національних правових системах. Це дозволить їм дати визначенню додаткову юридичну визначеність та точність, не обмежуючи сферу застосування.
Також для розуміння положень Конвенції важливо пам’ятати, що “життєвий цикл системи штучного інтелекту” включає проєктування, розробку, тестування, впровадження, експлуатацію, моніторинг, оцінку та вдосконалення системи ШІ.
СФЕРА ДІЇ КОНВЕНЦІЇ
Конвенція охоплює життєвий цикл функціонування систем ШІ в державному секторі, якими користуються органи державної влади або приватні особи, котрі діють від їхнього імені, та в приватному секторі.
Так, будь-яка діяльність, яку держава делегує приватним компаніям, також повинна відповідати стандартам Конвенції. Наприклад, якщо приватне підприємство проводить закупівлі чи надає підряди для використання систем ШІ державою. У приватному секторі Конвенція дозволяє Сторонам обирати варіанти дій для виконання її норм. Вони можуть або прямо дотримуватись вимог викладених у розділах II-VI Конвенції щодо діяльності приватних суб’єктів, або вживати інших відповідних заходів для виконання зобов’язань Конвенції. У цьому випадку Сторона має подати Генеральному секретарю Ради Європи спеціальну заяву та зазначити, як вона буде виконувати конкретне зобов’язання.
У цих положеннях Конвенції прослідковується дещо полегшений режим регулювання приватного сектору порівняно з державним. Зі свого боку, Парламентська асамблея Ради Європи (далі – ПАРЄ) висловила занепокоєння щодо потенційного зниження стандартів захисту прав людини через диференційований підхід, який застосовується в Конвенції стосовно регулювання державного та приватного секторів. Зокрема, в ПАРЄ звернули увагу на те, що недостатньо рівномірне застосування положень Конвенції до приватних суб’єктів може створити значні лазівки у її виконанні. Це, у свою чергу, може підривати ефективність Конвенції та вести до нерівності в захисті прав людини між діяльністю державних органів і приватного сектору.
Різний рівень регулювання діяльності державних і приватних секторів у рамках Конвенції дійсно здатен спричинити потенційні ризики. Адже це може призвести до нерівності в захисті прав людини та впливу систем ШІ на дотримання прав людини, зокрема, коли дії приватного сектору суттєво впливатимуть на суспільні процеси. Наприклад, як у випадку, коли компанія Cambridge Analytica використала дані користувачів, отримані з Facebook, для впливу на президентські вибори в США. Зробити це вони змогли завдяки додатку “This Is Your Digital Life”, котрий користувачі сприймали як звичайну гру. Як результат було злиті дані більш ніж 87 мільйонів користувачів, а згодом їх використали у передвиборчій кампанії для впливу на поведінку громадян виборців. Детальніше про це ви можете прочитати тут.
Інший яскравий приклад порушення прав людини внаслідок автоматизованої обробки даних – скандал довкола системи найму Amazon. Вона мала допомагати обирати кандидатів на посади, використовуючи ШІ. Але згодом стало відомо, що така система дискримінує жінок, оскільки їхні резюме як кандидаток на посаду вона відхиляла. Проте є й інший важливий бік цього процесу.
Адже гнучкий підхід може сприяти ширшому прийняттю Конвенції серед країн, де вплив приватного сектору є сильним. Такий підхід може виявитися привабливішим для держав, які не хочуть надто обмежувати свій технологічний розвиток жорсткими регуляціями, але водночас прагнуть забезпечити захист прав людини дотриманням норм Конвенції, а також залучати інвестиції.
Сторони не зобов’язані застосовувати положення Конвенції до питань, що пов’язані із національною безпекою. Проте потрібно дотримуватися умови, що така діяльність провадиться відповідно до чинного міжнародного законодавства.
Ця норма відповідає положенням статті 1, d Статуту Ради Європи (ETS № 1), яка зазначає, що “Питання, пов’язані з національною обороною, не входять до сфери компетенції Ради Європи”.
Також до сфери дії Конвенції не належать питання науково-дослідної діяльності. Проте вона має відбуватися з дотриманням норм щодо захисту прав людини, національного законодавства, визнаних етичних та професійних стандартів дослідної діяльності. Наприклад, вимог щодо зменшення негативного впливу на навколишнє середовище відповідно до Рекомендацій ЮНЕСКО щодо етики штучного інтелекту.
ARTIFICIAL INTELLIGENCE ACT
Для того, щоб у приватній та державній сфері на ринку ЄС розроблялись та застосовувались надійні та безпечні системи ШІ, у Європейському Союзі розпочали роботу над AI Act, який встановлює глобальний стандарт регулювання систем ШІ. AI Act має ризикоорієнтований підхід: що вищий ризик система ШІ може спровокувати для суспільства, то суворіші правила для неї діятимуть.
До сфери дії AI Act не належать системи, що використовуються виключно для військових та оборонних, а також дослідницьких цілей. Прийняттям AI Act законодавці ЄС намагались підкреслити необхідність функціонування систем ШІ таким чином, щоб вони відповідали вимогам прозорості, підзвітності під час роботи з новими технологіями та забезпечували довіру до них.
РІВНІ РИЗИКУ У СИСТЕМАХ ШІ ВІДПОВІДНО ДО AI ACT
AI Act встановлює жорсткі рамки для регулювання систем ШІ високого ризику. Тому найближчим часом компаніям у сфері ШІ доведеться визначити, чи належить їхня система до високоризикованих для того, щоб розуміти, які вимоги до них будуть висунуті.
Як ми вже зазначали, AI Act регулює системи ШІ залежно від рівня ризику. Відповідно до AI Act системи ШІ поділяються на:
- Заборонені системи ШІ (системи ШІ з неприйнятним ризиком);
- Системи ШІ високого ризику;
- Системи ШІ з обмеженим ризиком, наприклад системи ШІ загального призначення;
- Системи ШІ мінімального ризику.
Системи ШІ високого ризику дозволені, проте для того, щоб вони могли функціонувати на ринку ЄС, вони мають відповідати переліку вимог і зобов’язань.
До систем ШІ високого ризику належать ті, що функціонують у сфері:
- Критичної інфраструктури, наприклад, постачання води, газу, опалення та електроенергії.
- Освіти та професійної підготовки, наприклад, моніторинг та виявлення забороненої поведінки учнів під час тестування.
- Працевлаштування, наприклад, системи ШІ, що використовуються для відбору персоналу.
- Основних приватних та державних послуг, наприклад, використання систем ШІ в роботі банків чи охороні здоров’я.
- Певні системи правоохоронних органів, наприклад, оцінка достовірності доказів під час кримінальних розслідувань або оцінка ризику вчинення злочину або рецидиву злочину.
- Управління міграцією та питаннями, пов’язаними з державними кордонами, наприклад, розгляд заяв на отримання притулку, віз чи дозволів на проживання.
- Правосуддя та демократичних процесів, наприклад, системи ШІ, що можуть мати вплив на вибори.
До систем ШІ високого ризику встановлена низка жорстких вимог, перелічених нижче. Розробники повинні оцінювати та зменшувати ризики, вести журнали використання, забезпечувати прозорість, точність та людський контроль.
НАВЧАЛЬНІ ДАНІ У СИСТЕМАХ ШІ ВИСОКОГО РИЗИКУ
Системи ШІ високого ризику під час навчання моделей ШІ мають дотримуватись критеріїв якості наборів даних для навчання, здійснювати їх валідацію та тестування. Такі набори даних мають забезпечувати їх репрезентативність для навчання системи ШІ та відсутність у них помилок (Стаття 10 частина 3 AI Act).
Набори даних мають формуватися, враховуючи особливості контексту та середовища, в межах якого така система ШІ буде застосовуватись, а також поведінкових чи функціональних умов, де така система ШІ буде використовуватись (стаття 10 частина 4 AI Act). Також щодо наборів даних таких систем має проводитись перевірка для виявлення та усунення упереджень.
Увага до якості та репрезентативності даних у AI Act є критично важливою, оскільки вона може допомогти системам ШІ функціонувати більш справедливо та ефективно. Випадок з Amazon, який ми згадували вище, говорячи про упередженість системи ШІ, і тут буде показовим. Так, система була навчена на резюме, які компанія отримала протягом десяти років. Більшість цих резюме була від чоловіків, що демонструвало гендерний дисбаланс у технологічній індустрії. В результаті, алгоритм навчився вважати резюме чоловіків більш привабливими для технічних ролей.
Цей випадок доводить, як важливо уникати упереджень у наборах даних, що використовуються для навчання систем ШІ. А також демонструє, чому подібні вимоги в AI Act є важливими для систем ШІ високого ризику.
ТЕХНІЧНА ДОКУМЕНТАЦІЯ У СИСТЕМАХ ШІ ВИСОКОГО РИЗИКУ
Розробники систем ШІ високого ризику зобов’язані регулярно оновлювати свою технічну документацію. Вона має бути розроблена до того, як система ШІ високого ризику буде розміщена на ринку або введена в експлуатацію. (стаття 11 частина 1).
Надання технічної документації відіграє важливу роль у тому, щоб компетентні органи могли мати всю необхідну інформацію про систему ШІ та здійснювати оцінку її відповідності вимогам. А також потенційно може зменшити ризик негативних наслідків використання систем ШІ, щодо яких не подали технічну документацію до введення в експлуатацію, якщо така система порушує вимоги Конвенції.
RECORD-KEEPING
Розробники систем ШІ високого ризику зобов’язані впроваджувати технічні засоби для автоматичного реєстрування подій (логів) протягом усього життєвого циклу системи. Це необхідно для забезпечення належного рівня відстежуваності її функціонування (стаття 12). Крім того, в певних системах ШІ високого ризику слід здійснювати запис періоду кожного використання системи, включно з датою і часом початку та закінчення кожного сеансу та реєстрацією вхідних даних.
Ці вимоги забезпечують прозорість та можливість аудиту систем ШІ високого ризику, що є критично важливим для гарантування їх безпечного та ефективного використання.
ПРОЗОРІСТЬ ТА НАДАННЯ ІНФОРМАЦІЇ ЩОДО СИСТЕМИ ШІ
Також AI Act визначає важливість прозорості та інформування користувачів систем ШІ високого ризику. Ці системи мають бути розроблені таким чином, щоб забезпечувати достатню прозорість у своїй роботі, дозволяючи користувачам правильно інтерпретувати результати їхньої діяльності. Системи мають супроводжуватися інструкціями із зрозумілою, стислою та доступною інформацію у відповідному цифровому форматі або в іншій формі (стаття 13 AI Act).
Інструкція повинна містити таку інформацію:
- Особу та контактні дані постачальника та, за необхідності, його уповноваженого представника;
- Характеристики, можливості та обмеження системи ШІ високого ризику, у тому числі її цільове призначення та рівень точності.
Також має надаватись інформація про людський контроль, необхідні ресурси для функціонування системи, її очікуваний термін функціонування, технічне обслуговування та оновлення.
Повна інформація про систему ШІ дозволяє користувачам і регуляторам забезпечувати її відповідальне використання. Це критично важливо у сферах, де рішення ШІ можуть мати значний вплив на життя та добробут людей: наприклад, у медичній діагностиці або кредитуванні. У системах ШІ, що використовуються, зокрема, для діагностики захворювань, критично важливо мати чіткі вказівки щодо точності, обмежень та умов, за яких результати системи ШІ можуть бути неточними. Це необхідно, аби зменшити ризики та уникнути діагностичних помилок, які можуть вплинути на лікування пацієнтів.
ЛЮДСЬКИЙ НАГЛЯД
У системах ШІ високого ризику має забезпечуватись ефективний людський нагляд протягом періоду їх проєктування, розробки та використання (стаття 14 AI Act).
Також системи ШІ високого ризику мають відповідати вимогам точності, надійності та забезпечувати належний рівень кібербезпеки (стаття 15 AI Act).
Розділ 5 AI Act регулює функціонування моделей штучного інтелекту загального призначення – General-Purpose Artificial Intelligence models (далі – GPAI).
Розробники GPAI зобов’язані:
- Регулярно оновлювати технічну документацію моделі (процеси навчання, тестування та результати оцінки моделі) відповідно до вимог AI Act.
- Створити та регулярно оновлювати інформацію для інших постачальників систем ШІ, які планують інтегрувати GPAI у свої системи. Ця документація має давати можливість таким користувачам зрозуміти можливості та обмеження GPAI.
- Розробити політику відповідності законодавству ЄС щодо авторських прав та суміжних прав.
- Створити та опублікувати детальний звіт про контент, що використаний для навчання GPAI.
На GPAI з системними ризиками накладені додаткові зобов’язання. Для того, щоб продемонструвати відповідність своїм зобов’язанням розробникам таких систем, в AI Act рекомендується підписати кодекси поведінки. Ті, хто подібні кодекси підписувати не захоче, має продемонструвати належний альтернативний спосіб дотримання AI Act.
Відповідно до AI Act громадяни матимуть право подавати скарги на системи ШІ та отримувати пояснення щодо рішень, заснованих на системах високого ризику штучного інтелекту, які впливають на їхні права.
Перед розміщенням моделі ШІ загального призначення на ринку Європейського Союзу, постачальники, засновані в третіх країнах, повинні за письмовим дорученням призначити уповноваженого представника, який діятиме в ЄС.
До систем ШІ неприйнятного ризику належать системи біометричної категоризації, використання вразливостей особи чи групи через специфічні характеристики, що призводить до значної шкоди, системи соціальних балів, системи розпізнавання емоцій на робочих місцях або в навчальних закладах та інші.
Проте використання ШІ для розпізнавання емоцій може бути дозволене в деяких контекстах, де воно вважається критично важливим для безпеки і ефективності – наприклад, моніторинг емоційного стану пілотів під час польотів. Воно може включати системи, що відстежують втому, стрес або інші психологічні стани, які можуть впливати на здатність пілота безпечно управляти літаком. У таких випадках використання ШІ для розпізнавання емоцій буде системою ШІ високого ризику.
AI Act набуде чинності через 20 днів після публікації в Офіційному журналі ЄС. Через 24 місяці після набуття чинності AI Act стане повністю застосовним, окрім таких винятків:
- Через 9 місяців почнуть діяти положення, що стосуються кодексів поведінки.
- Через 6 місяців після набрання чинності AI Act почне діяти заборона на заборонені системи ШІ.
- Через 12 місяців почнуть діяти правила штучного інтелекту загального призначення, включаючи управління.
- Через 36 місяців – зобов’язання для систем високого ризику.
РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ В УКРАЇНІ
В Україні регулювання штучного інтелекту активно розвивається. У жовтні 2023 року Міністерство цифрової трансформації України опублікувало Дорожню карту, яка передбачає поетапний підхід до регулювання ШІ. Перший етап передбачає підготовку бізнесу до майбутніх вимог регулювання. Це включає участь в HUDERIA, розробку рекомендацій для різних сфер, де використовується ШІ, підписання добровільних кодексів поведінки. Важливим елементом є “Біла книга”, яка має ознайомити бізнес та громадян з підходом до регулювання та майбутніми етапами його впровадження.
Другий етап включає ухвалення закону, аналогічного AI Act, що дозволить створити правові режими, ідентичні з Європейським Союзом та спростити співпрацю з європейськими партнерами.
Такий підхід є важливим в контексті євроінтеграційного підходу України. Він допомагає врахувати інтереси всіх ключових стейкхолдерів і дозволяє знайти баланс між бізнесом та захистом прав громадян.
ВИСНОВКИ
AI Act та Конвенція разом формують комплексний регулятивний фреймворк, який державні та приватні гравці мають враховувати при проєктуванні, тестуванні, навчанні та впровадженні систем ШІ. Їх ефективне дотримання вимагає глибокого розуміння як з юридичного, так і з технічного боку.
Так, Конвенція відкриває нові горизонти для регулювання ШІ, однак викликає певні занепокоєння щодо повного охоплення приватного сектору. Це зумовлює додаткову потребу у пильному моніторингу національних декларацій, які майбутні Сторони Конвенції будуть подавати. Ми бачили багато дискусій в процесі формування документів, які свідчили про різні погляди та підходи до регулювання ШІ. Ці дебати відіграли ключову роль у формуванні кінцевих положень законодавства, відображаючи компроміси та консенсус між зацікавленими сторонами.
Ба більше, в контексті регулювання Конвенцією приватного сектору, держави та представники громадянського суспільства мають вести моніторинг та оцінку того, як різні держави адаптують її положення на національному рівні. Це має включати перевірку того, як саме держави формулюють свої зобов’язання у сфері ШІ, і чи здійснюється це відповідно до цілей Конвенції.
Прозорість і відкритість у цьому процесі є ключовими для забезпечення того, щоб регулювання ШІ сприяло загальному благу та захисту прав людини. Не менш важливим є активна участь експертної спільноти у таких проєктах, як HUDERIA, що сприятиме етичному функціонуванню систем ШІ.
Тепер, з прийняттям регуляторних актів, важливим кроком є спостереження та аналіз того, як різні держави втілюватимуть ці рамки у своїх національних системах. Особливо коли йдеться про регулювання приватного сектору в контексті AI Act та імплементація вимог на території України.
Також не слід забувати, що AI Act є лише однією складовою в ширшому спектрі законодавства, яке стосується ШІ. Цей закон визначає основні принципи та вимоги до безпеки та надійності систем ШІ, але водночас існують інші регуляторні акти, що стосуються захисту даних, авторських прав та етичних питань, які також впливають на розвиток та використання ШІ.
Світ сьогодні перебуває на цікавому етапі, коли як правове регулювання, так і розвиток новітніх технологій досягли надзвичайної швидкості. Сучасні технології створюють нові виклики для правників як на міжнародному, так і на національному рівнях. Однак варто віддати належне штучному інтелекту – він не лише вразив світ своїми можливостями, але й спричинив появу нових ідей та думок у правовій сфері.
Особливо важливим стає питання правового регулювання штучного інтелекту та захисту прав людей в умовах стрімкого технологічного прогресу. Конвенція та AI Act мають на меті створити баланс між інноваціями та правовими нормами, забезпечуючи захист та права кожної людини. Регулювання штучного інтелекту повинно включати механізми відповідальності та прозорості, щоб гарантувати, що технології служать на благо суспільства, а не створюють загрозу для його основних прав та свобод.
Ольга Петрів, юристка у сфері штучного інтелекту напряму "Незалежні медіа"
Центр демократії та верховенства права
* Точка зору автора може не збігатися з позицією агентства