Երկու ռոբոտ, որոնք պահում են հավասարակշռության կշեռք։

ԵՄ արհեստական ​​բանականության մասին օրենքի (AI Act) ամբողջական ուղեցույց

ԵՄ Արհեստական ​​բանականության մասին օրենքը՝ (ԵՄ) 2024/1689 կանոնակարգը, սահմանում է իրավաբանորեն պարտադիր կանոններ եվրոպական շուկայում տեղադրված կամ ԵՄ օգտատերերին հասնող ցանկացած արհեստական ​​բանականության համակարգի համար, դարձնելով այն առաջին հորիզոնական, ռիսկի վրա հիմնված արհեստական ​​բանականության մասին օրենքը։ Անկախ նրանից, թե դուք կառուցում եք մոդելներ, ինտեգրում եք երրորդ կողմի գործիքակազմ, թե պարզապես տեղակայում եք չաթբոտներ հաճախորդներին սպասարկելու համար, օրենքը ստեղծում է նոր պարտականություններ և ձեզ ենթարկում է համաշխարհային շրջանառության մինչև 7%-ի չափով ահռելի տուգանքների յուրաքանչյուր խախտման համար։ Ուժի մեջ է մտել 1 թվականի օգոստոսի 2024-ին. համապատասխանության պարտավորությունները փուլ առ փուլ ուժի մեջ են մտնում 2025 թվականի փետրվարից մինչև 2027 թվականի օգոստոսը, ինչը նշանակում է, որ նախապատրաստման ժամանակը սահմանափակ է։

Այս գործնական ուղեցույցը կտրում է իրավական տերմինաբանությունը և բացատրում է այն, ինչ դուք պետք է իմանաք. Օրենքի շրջանակը և հիմնական սահմանումները, դրա չորսաստիճան ռիսկերի դասակարգումը, ժամանակացույցը և կիրառման մեխանիզմները, մատակարարների, օգտագործողների, ներմուծողների և դիստրիբյուտորների կոնկրետ պարտավորությունները, ինչպես նաև խախտումների համար նախատեսված պատժամիջոցները: Մենք նաև կարգավորումը համեմատում ենք GDPR-ի, NIS2-ի, արտադրանքի անվտանգության կանոնների և ոլորտային պահանջների հետ, նախքան ձեզ քայլ առ քայլ համապատասխանության ստուգաթերթիկ տրամադրելը, որի վրա ինժեներական, իրավաբանական և ղեկավարության թիմերը կարող են անմիջապես գործել: Եկեք պատրաստվենք ձեզ՝ նախքան աուդիտորների դռները թակելը:

Մի հայացքով. Իրականում ինչ է իրենից ներկայացնում ԵՄ արհեստական ​​բանականության մասին օրենքը

ԵՄ 2024/1689 կանոնակարգը, որն ավելի հայտնի է որպես ԵՄ արհեստական ​​բանականության մասին օրենք, ուղղակիորեն կիրառելի ԵՄ կանոնակարգ է, այլ ոչ թե հրահանգ։ Սա նշանակում է, որ դրա հոդվածները ավտոմատ կերպով կիրառվում են յուրաքանչյուր անդամ պետությունում՝ առանց ազգային մակարդակով դրանց կիրառման անհրաժեշտության, ինչպես GDPR արեց 2018 թվականին: Նպատակը կրկնակի է՝ պաշտպանել հիմնարար իրավունքներն ու անվտանգությունը՝ միաժամանակ ընկերություններին տալով իրավական որոշակիություն՝ արհեստական ​​բանականության հետ պատասխանատու կերպով նորարարություններ անելու համար: Դրան հասնելու համար Օրենքը ներկայացնում է հորիզոնական, ռիսկերի վրա հիմնված գործիքակազմ, որը ընդգրկում է բոլոր ոլորտները՝ ֆինանսներից մինչև առողջապահություն, դասակարգելով համակարգերը «նվազագույնից» մինչև «անընդունելի» ռիսկ՝ համապատասխան իրավական պարտականություններով:

Գործողության շրջանակը և սահմանումները, որոնք դուք պետք է իմանաք

Համապատասխանության պլան կազմելուց առաջ տիրապետեք հիմնական բառապաշարին.

  • Արհեստական ​​բանականության համակարգ. «մեքենաների վրա հիմնված համակարգ, որը նախատեսված է աշխատելու տարբեր մակարդակներով ինքնավարությամբ և որը, բացահայտ կամ անուղղակի նպատակների համար, մուտքային տվյալներից եզրակացնում է, թե ինչպես ստեղծել արդյունքներ, ինչպիսիք են կանխատեսումները, բովանդակությունը, առաջարկությունները կամ որոշումները, որոնք կարող են ազդել ֆիզիկական կամ վիրտուալ միջավայրերի վրա»։
  • Ընդհանուր նշանակության արհեստական ​​բանականություն (ԸՆԲ). արհեստական ​​բանականության համակարգ, որը կարող է սպասարկել տարբեր խնդիրների լայն շրջանակ՝ անկախ նրանից, թե ինչպես է այն հետագայում ճշգրտվում կամ տեղակայվում։
  • Մատակարար՝ ցանկացած ֆիզիկական կամ իրավաբանական անձ, որը մշակում է կամ մշակել է արհեստական ​​բանականության համակարգ՝ այն իր անվամբ կամ ապրանքանիշով շուկայում տեղադրելու կամ շահագործման հանձնելու նպատակով։
  • Օգտատեր (հաճախ անվանում են «տեղադրող»). անձ կամ կազմակերպություն, որն օգտագործում է արհեստական ​​բանականության համակարգ իր լիազորությունների ներքո, բացառությամբ մասնավոր, ոչ մասնագիտական ​​օգտագործման։
  • Ներմուծող՝ Միության կողմից հիմնադրված կողմ, որը ԵՄ շուկայում է տեղադրում Միությունից դուրս գտնվող կազմակերպության անվանումը կամ ապրանքանիշը կրող արհեստական ​​բանականության համակարգ։
  • Բաշխիչ՝ մատակարարման շղթայի գործող անձ՝ մատակարարից կամ ներմուծողից բացի, որը արհեստական ​​բանականության համակարգը հասանելի է դարձնում առանց այն փոփոխելու։

Տարածքային հասանելիությունը լայն է. ԵՄ շուկայում տեղադրված կամ ԵՄ-ում օգտագործվող ցանկացած համակարգ ընկնում է Օրենքի տակ՝ անկախ նրանից, թե որտեղ է գտնվում մշակողը: Կան բացառություններ զուտ ռազմական կամ ազգային անվտանգության կիրառությունների, դեռևս շուկա չհանված հետազոտությունների և զարգացման նախատիպերի և անձնական հոբբի նախագծերի համար:

Օրենքում ներառված հիմնական սկզբունքները

Կանոնակարգը վաղուց գոյություն ունեցող էթիկական հասկացությունները համադրում է կիրառելի օրենքի հետ.

  • Մարդկային գործակալություն և վերահսկողություն
  • Տեխնիկական կայունություն և անվտանգություն
  • Գաղտնիության և տվյալների կառավարում
  • Թափանցիկություն և բացատրելիություն
  • Բազմազանություն, խտրականության բացակայություն և արդարություն
  • Հասարակական և շրջակա միջավայրի բարեկեցություն

Սրանք արտացոլում են OECD արհեստական ​​բանականության սկզբունքները և ԵՄ-ի նախկին «Էթիկայի ուղեցույցները Վստահելի AI», բայց այժմ կրում են կարգավորող ատամներ։

Կարգավորումն ընդդեմ գործող մեղմ օրենքի ուղեցույցների

Մինչև 2024 թվականը Եվրոպայում արհեստական ​​բանականության կառավարումը հիմնված էր կամավոր շրջանակների վրա, ինչպիսիք են ԵՄ արհեստական ​​բանականության պակտը կամ կորպորատիվ էթիկայի կանոնագրերը: Արհեստական ​​բանականության մասին օրենքը փոխում է խաղի կանոնները. համապատասխանությունը պարտադիր է, աուդիտի ենթակա և աջակցվում է… տուգանքներ՝ մինչև 35 միլիոն եվրո կամ համաշխարհային եկամտի 7%-ը։ Այլ կերպ ասած, «էթիկական արհեստական ​​բանականության» մասին հայտարարությունները այլևս բավարար չեն. կազմակերպությունները պետք է ներկայացնեն համապատասխանության գնահատականներ, CE նշագրումներ և ստուգելի գրանցամատյաններ, հակառակ դեպքում նրանք ռիսկի են դիմում զրկվել ԵՄ շուկայից։

Ժամանակացույց, իրավական կարգավիճակ և կիրառման փուլեր

ԵՄ արհեստական ​​բանականության մասին օրենքը առաջարկից մինչև պարտադիր օրենք անցավ ընդամենը երեք տարուց մի փոքր ավելի ժամանակում՝ Բրյուսելի չափանիշներով լույսի արագությամբ։ Քանի որ դա կանոնակարգ է, հոդվածների մեծ մասը ավտոմատ կերպով կիրառվում է ամբողջ դաշինքում՝ առանց ազգային մակարդակով դրա տեղափոխման։ Ժամանակի ընթացքում փոխվում է այն, թե որ պարտավորություններն են առաջինը ազդում։ Ստորև ներկայացված ժամանակացույցը ցույց է տալիս այն քաղաքական կարևորագույն իրադարձությունները, որոնք մեզ հասցրել են այստեղ և հիմք են հանդիսանում ձեր կազմակերպության կողմից այժմ նախատեսված փուլային համապատասխանության պարտականությունների համար։

Ամսաթիվ Մղոնացույց քար կամ սյուն Նշանակությունը
Ապրիլ 21 2021 Հանձնաժողովը հրապարակել է արհեստական ​​բանականության մասին օրենքի նախագիծը Օրենսդրական գործընթացի պաշտոնական մեկնարկը
9 Դեկ 2023 Խորհրդարանն ու Խորհուրդը քաղաքական համաձայնության են եկել Հիմնական տեքստը մեծ մասամբ կողպված է
13 Մարտ 2024 Եվրոպական խորհրդարանի վերջնական քվեարկությունը (523-46) Դեմոկրատական ​​կուսակցության հավանությունն ապահովված է
21 Մայիս 2024 ԵՄ խորհրդի կողմից ընդունման Վերջին օրենսդրական խոչընդոտը հաղթահարվեց
10 Jul 2024 Տեքստը հրապարակվել է Պաշտոնական ամսագրում Իրավական հետհաշվարկը սկսվեց
Aug 1 2024 2024/1689 կանոնակարգը (ԵՄ) ուժի մեջ է մտնում «0 օր»՝ բոլոր ապագա վերջնաժամկետների համար

Ուժի մեջ մտնելու ամսաթիվը հանգեցնում է երեք տարվա ընթացքում տարածվող աստիճանական կիրառման ամսաթվերի շարքի: Այս դիզայնը մատակարարներին, օգտագործողներին, ներմուծողներին և դիստրիբյուտորներին հնարավորություն է տալիս կառուցել համապատասխանության գործընթացներ, արդիականացնել մոդելները և վերապատրաստել անձնակազմին, սակայն դա նաև նշանակում է, որ աուդիտորները կակնկալեն ակնհայտ առաջընթաց մինչև 2027 թվականը:

Կիրարկման ուղեցույց. Ի՞նչ է կիրառվում, երբ

  • 6 ամիս | 1 փետրվարի 2025թ.
    • Արգելված արհեստական ​​բանականության գործելակերպը (հոդված 5) պետք է հանվի շուկայից՝ առանց որևէ արդարացման։
  • 12 ամիս | 1 թվականի օգոստոսի 2025
    • Սկսվում են գործել դիփֆեյքերի, չաթբոտերի և զգացմունքների ճանաչման թափանցիկության պարտականությունները։
    • Ընդհանուր նշանակության արհեստական ​​ինտելեկտի (GPAI) գործելակերպի կանոնակարգերը սպասվում են. կամավոր են, բայց խիստ խորհուրդ են տրվում։
  • 24 ամիս | 1 թվականի օգոստոսի 2026
    • Բարձր ռիսկի համակարգային պահանջները սկսվում են՝ ռիսկերի կառավարում, տվյալների կառավարում, տեխնիկական փաստաթղթավորում, մարդկային վերահսկողություն և CE նշագրման նախապատրաստում։
    • Մատակարարները պետք է բարձր ռիսկի համակարգերը գրանցեն ԵՄ նոր տվյալների բազայում։
  • 36 ամիս | 1 թվականի օգոստոսի 2027
    • Կիրառվում է ամբողջական ռեժիմ, ներառյալ կենսաչափական նույնականացման համակարգերը, ծանուցված մարմնի համապատասխանության գնահատումները և բոլոր բարձր ռիսկի արհեստական ​​​​ինտելեկտի համար պարտադիր ԵՄ համապատասխանության հայտարարագիրը։
    • Շուկայի վերահսկողության մարմիններ ստանալ իրավասություն՝ հրամայելու հետկանչ կամ դուրսբերում չհամապատասխանող ապրանքների համար։

Անցումային դրույթները թույլ են տալիս բարձր ռիսկի համակարգերին, որոնք արդեն օրինականորեն օգտագործվում էին մինչև 2026 թվականի օգոստոսը, մնալ շուկայում մինչև դրանց «էական փոփոխության» ենթարկվելը: Զգուշորեն պլանավորեք արդիականացումները՝ համապատասխանության ժամացույցի պատահական վերագործարկումից խուսափելու համար:

Հաստատություններ և վերահսկող մարմիններ

ԵՄ արհեստական ​​բանականության մասին օրենքը կիրառելու համար վերահսկողության երեք մակարդակ կա.

  1. ԵՄ արհեստական ​​բանականության գրասենյակ (Եվրոպական հանձնաժողով) – Համակարգում է ուղեցույցը, պահպանում է GPAI գրանցամատյանը և կարող է տուգանքներ կիրառել համակարգային մոդել մատակարարների նկատմամբ։
  2. Ազգային իրավասու մարմիններ – Մեկը յուրաքանչյուր անդամ պետությունում. զբաղվում են ստուգումներով, բողոքներով և շուկայի ամենօրյա վերահսկողությունով։
  3. Իրազեկված մարմիններ – Անկախ համապատասխանության գնահատման կազմակերպություններ, որոնք աուդիտ են անցկացնում բարձր ռիսկի համակարգերը CE նշագրումից առաջ։

Այս դերասանները համագործակցում են՝ Եվրոպական արհեստական ​​բանականության խորհուրդ (EAIB), որը հրապարակում է ներդաշնակեցված մեկնաբանական նշումներ՝ պատկերացրեք այն որպես GDPR-ի EDPB-ի արհեստական ​​բանականության համարժեքը: Ուշադիր եղեք նրանց ուղեցույցներին. դա կձևավորի, թե ինչպես են ձեր տեխնիկական ֆայլերը և ռիսկերի գնահատումները գնահատվում գործնականում:

Չորսաստիճան ռիսկերի դասակարգման շրջանակը

ԵՄ Արհեստական ​​Բանականության մասին Օրենքի (ԱԲ Օրենք) հիմքում ընկած է լուսացույցի մոդել, որը որոշում է, թե որքան խիստ են դառնում կանոնները. որքան բարձր է մարդկանց իրավունքներին և անվտանգությանը սպառնացող ռիսկը, այնքան ծանր է համապատասխանության բեռը: Յուրաքանչյուր ԱԲ համակարգ պետք է դասակարգվի չորս դասերից մեկին՝ անընդունելի, բարձր, սահմանափակ կամ նվազագույն: Դասակարգումը որոշում է մնացած ամեն ինչ՝ փաստաթղթավորման խորություն, փորձարկման խստություն, վերահսկողություն և, ի վերջո, շուկա մուտք գործելը:

Ռիսկի մակարդակ Տիպիկ օրինակներ Հիմնական իրավական հետևանք Առաջին դիմումի ամսաթիվը*
Անընդունելի է Սոցիալական գնահատում, իրական ժամանակի կենսաչափական նույնականացում հանրային տարածքներում, մանիպուլյատիվ «թեքման» շարժիչներ Լրիվ արգելք, դուրսբերում և տուգանքներ մինչև 35 միլիոն եվրո / 7% Feb 1 2025
Բարձր CV սկրինինգի գործիքներ, բժշկական ախտորոշման ծրագրային ապահովում, վարկունակության գնահատում, ինքնավար վարորդության մոդուլներ Համապատասխանության գնահատում, CE նշում, գրանցամատյանում գրանցում, շուկայականից հետո մոնիթորինգ 1 թվականի օգոստոսի 2026-ին (կենսաչափական տվյալներ՝ 1 թվականի օգոստոսի 2027-ին)
սահմանափակ Չաթբոտներ, խորը կեղծիքի գեներատորներ, զգացմունքների վերլուծության վիջեթներ Թափանցիկության ծանուցում և օգտագործողի հիմնական կառավարման տարրեր Aug 1 2025
Նվազագույն Արհեստական ​​բանականությամբ աշխատող սպամի ֆիլտրեր, տեսախաղերի NPC-ներ Պարտադիր կանոններ չկան, միայն կամավոր կոդեր Արդեն ուժի մեջ է

* Հաշվարկված է 1 թվականի օգոստոսի 2024-ի ուժի մեջ մտնելու օրվանից։

Համակարգը դինամիկ է. եթե դուք ավելացնեք նոր գործառույթներ կամ փոխեք թիրախային օգտատերերին, ձեր համակարգը կարող է անցնել մեկ մակարդակ, ինչը կհանգեցնի նոր պարտականությունների։

Անընդունելի ռիսկ. Արհեստական ​​բանականության արգելված գործելակերպեր

Հոդված 5-ը կարմիր գիծ է քաշում այն ​​​​օգտագործումների համար, որոնք ԵՄ-ն համարում է էապես անհամատեղելի հիմնարար իրավունքների հետ: Դրանք ներառում են.

  • Ենթագիտակցական տեխնիկաներ, որոնք էապես աղավաղում են վարքագիծը
  • Անչափահասների կամ հաշմանդամություն ունեցող անձանց խոցելիության շահագործումը
  • Անտարբեր իրական ժամանակում կենսաչափական նույնականացում հանրային հասանելի տարածքներում (կիրառվում են իրավապահ մարմինների կողմից սահմանված նեղ սահմանափակումներ)
  • Պետական ​​իշխանությունների կողմից սոցիալական գնահատում
  • Կանխատեսելի ոստիկանություն՝ հիմնված միայն պրոֆիլավորման կամ գտնվելու վայրի տվյալների վրա

Նման համակարգերը երբեք չպետք է հայտնվեն ԵՄ շուկայում: Ազգային իշխանությունները կարող են անհապաղ հետ կանչել դրանք, իսկ տուգանքները գլխավորում են օրենքի տուգանքների ցանկը:

Բարձր ռիսկի արհեստական ​​ինտելեկտի համակարգեր. Հավելված III կատեգորիաներ

Համակարգը հայտնվում է բարձր ռիսկի խմբում, եթե այն հետևյալներից մեկն է՝

  1. Արտադրանքի անվտանգության բաղադրիչ, որն արդեն կարգավորվում է (օրինակ՝ մեքենաների կամ բժշկական սարքավորումների մասին կանոնակարգերի համաձայն), կամ
  2. Ներառված է III հավելվածի ութ զգայուն տիրույթներում՝ կենսաչափական տվյալներ, կարևորագույն ենթակառուցվածքներ, կրթություն, աշխատանք, կարևորագույն ծառայություններ, իրավապահության, միգրացիա և արդարադատություն։

Բարձր ռիսկի դասակարգվելուց հետո մատակարարները պետք է գործարկեն որակի կառավարման համակարգ, իրականացնեն ռիսկերի կառավարման ցիկլ և ապահովեն համապատասխանության գնահատում՝ երբեմն արտաքին ծանուցված մարմնի միջոցով: Օգտատերերը (տեղակայողները) ժառանգում են գրանցման, վերահսկողության և միջադեպերի մասին հաղորդելու պարտականությունները:

Սահմանափակ ռիսկ. թափանցիկության պարտավորություններ

Սահմանափակ ռիսկի գործիքները անվնաս չեն, սակայն ԵՄ-ն կարծում է, որ օգտատիրոջ իրազեկվածությունը մեղմացնում է վտանգների մեծ մասը: Չաթբոտերի, գեներատիվ արհեստական ​​բանականության արվեստի շարժիչների կամ սինթետիկ ձայնային ծառայությունների ստեղծողները պետք է.

  • Տեղեկացրեք օգտատերերին, որ նրանք փոխազդում են արհեստական ​​բանականության հետ («Այս պատկերը ստեղծվել է արհեստական ​​բանականության կողմից»)
  • Բացահայտել խորը կեղծ բովանդակությունը մեքենայական ընթերցվող ջրանիշի մեջ
  • Խուսափեք անձնական տվյալների գաղտնի հավաքագրումից՝ խիստ անհրաժեշտից այն կողմ

Ծանուցումը չտրամադրելու դեպքում համակարգը անմիջապես իջեցվում է անհամապատասխանության մակարդակի և կիրառվում են վարչական տուգանքներ։

Նվազագույն/աննշան ռիսկ. պարտադիր կանոններ չկան

Սփամի ֆիլտրերը, էլ. փոստում կանխատեսող տեքստը կամ HVAC էներգիայի օգտագործումը օպտիմալացնող արհեստական ​​բանականությունը սովորաբար այս կատեգորիայում են ընկնում: ԵՄ արհեստական ​​բանականության մասին օրենքը (AI Act) որևէ խիստ պարտավորություն չի սահմանում, բայց ակտիվորեն խրախուսում է կամավոր կոդերը, կարգավորող «փորձարկման հարթակները» և միջազգային ստանդարտներին, ինչպիսին է ISO/IEC 42001-ը, հետևելը: Թեթև փաստաթղթավորումը և հիմնական կողմնակալության թեստերը դեռևս խելացի քայլ են. կարգավորող մարմինները կարող են վերադասակարգել սահմանային դեպքերը, եթե ի հայտ գան վնասի ապացույցներ:

Մատակարարների, տեղակայողների և այլ գործիչների հիմնական պարտավորությունները

ԵՄ արհեստական ​​բանականության մասին օրենքը համապատասխանության պարտականությունները տարածում է ամբողջ մատակարարման շղթայի վրա: Քանի որ պատասխանատվությունը հետևում է գործառույթին, այլ ոչ թե ընկերության չափին, դուք նախ պետք է որոշեք, թե ինչ եք կրում՝ մատակարար, օգտագործող (տեղադրող), ներմուծող, թե դիստրիբյուտոր, ապա ներառեք ռիսկերին հատուկ պահանջներ: Ճիշտ դասակարգման բացակայությունը աուդիտի տարածված արդյունք է, ուստի քարտեզագրման վարժությունը համարեք ձեր ծրագրի զրոյական քայլ:

Բարձր ռիսկի համակարգերի մատակարարներ

Մատակարարները կրում են ամենածանր բեռը, քանի որ նրանք են վերահսկում նախագծային որոշումները։ Հիմնական առաջադրանքներ՝

  • Ստեղծեք փաստաթղթավորված որակի կառավարման համակարգ (ՈԿՀ), որը կներառի տվյալների կառավարումը, ռիսկերի կառավարումը, փոփոխությունների վերահսկողությունը և կիբերանվտանգությունը։
  • Կատարեք նախնական համապատասխանության գնահատում: Հավելված III-ի համակարգերի մեծ մասը կարող է ինքնագնահատում կատարել, սակայն կենսաչափական նույնականացման համար նախատեսված տվյալները, բժշկական սարքերը և անվտանգության համար կարևոր այլ դեպքերը պահանջում են տեղեկացված մարմին:
  • Կազմել տեխնիկական փաստաթղթեր՝ մոդելի ճարտարապետություն, վերապատրաստման տվյալների շարք, գնահատման չափանիշներ, կայունության թեստեր, մարդկային վերահսկողության մեխանիզմներ և շուկայականից դուրսբերումից հետո մոնիթորինգի պլան։
  • Առաջին տեղակայումից առաջ կազմեք ԵՄ համապատասխանության հռչակագիր, կցեք CE նշանը և գրանցեք համակարգը հանրային արհեստական ​​բանականության տվյալների բազայում։
  • Սահմանել շուկայական վաճառքից հետո շարունակական վերահսկողություն. գրանցել լուրջ միջադեպերը, վերագործարկել ուսուցումը, երբ շեղման շեմերը գերազանցվում են, և 15 օրվա ընթացքում տեղեկացնել իրավասու մարմիններին։

Այս քայլերից որևէ մեկը անտեսելը կարող է հանգեցնել մինչև 15 միլիոն եվրոյի կամ համաշխարհային շրջանառության 3%-ի տուգանքների, նույնիսկ եթե վնաս չի պատճառվում։

Բարձր ռիսկի համակարգերի օգտագործողներ / տեղակայողներ

Տեղակայողները կոդը վերածում են իրական աշխարհի ազդեցության, ուստի Օրենքը նրանց տալիս է իրենց սեփական ստուգաթերթիկը.

  • Համակարգը գործարկեք խստորեն մատակարարի հրահանգներին և փաստաթղթավորված օգտագործման դեպքին համապատասխան։
  • Իրականացնել Հիմնարար Իրավունքների Ազդեցության Գնահատում (ՀԻԳԳ), երբ օգտատերը պետական ​​մարմին է կամ երբ արհեստական ​​բանականությունը ազդում է կենսական ծառայությունների, ինչպիսիք են բնակարանը կամ վարկը, հասանելիության վրա։
  • Ապահովել որակյալ մարդկային վերահսկողություն. անձնակազմը պետք է լինի վերապատրաստված, լիազորված լինի անտեսել արդյունքները և կարողանա բացատրել որոշումները տուժած անձանց:
  • Պահպանեք գրանցամատյանները առնվազն վեց տարի, ներառյալ մուտքային տվյալները, ելքային տվյալները, մարդկային միջամտությունները և կատարողականի անոմալիաները։
  • Առանց «անտեղի ուշացման», որը սովորաբար մեկնաբանվում է որպես 72 ժամ, հաղորդեք լուրջ միջադեպերի մասին և՛ մատակարարին, և՛ ազգային մարմնին։

Ներմուծողներ և դիստրիբյուտորներ

ԵՄ-ում արհեստական ​​բանականության համակարգեր ներդնող կամ փոխանցող գործող անձինք ունեն վերահսկողական պարտականություններ.

  • Ստուգեք, որ CE նշանը, ԵՄ համապատասխանության հռչակագիրը և հրահանգները գոյություն ունեն և համապատասխանում են շուկայում ներկայացված ֆունկցիոնալությանը։
  • Խուսափեք ապրանքը մատակարարելուց, եթե նրանք գիտեն կամ պետք է իմանան, որ այն չի համապատասխանում պահանջներին։ Դրա փոխարեն տեղեկացրեք մատակարարին և իրավասու մարմնին։
  • Վարեք բողոքների և հետկանչերի գրանցամատյան, այն հասանելի դարձնելով իշխանությունների պահանջով։
  • Համագործակցեք ուղղիչ գործողությունների հարցում, ներառյալ արտադրանքի հետկանչը կամ ծրագրային ապահովման թարմացումները։

Ընդհանուր նշանակության արհեստական ​​բանականության (հիմնադրամային մոդելներ) պարտավորություններ

Օրենքը ավելացնում է հատուկ կանոններ GPAI կամ հիմնադրամի մոդելների ստեղծողների համար, որոնք կարող են ներդրվել ցանկացած վայրում.

  • Տրամադրեք համապարփակ տեխնիկական փաստաթղթեր և օգտագործված տվյալների հավաքածուների ամփոփում, ներառյալ լիցենզիայի կարգավիճակը և աշխարհագրական ծագումը։
  • Հրապարակեք հայտարարություն՝ հեղինակային իրավունքի համապատասխանություն և, որտեղ հնարավոր է, ներդնել հրաժարման մեխանիզմներ պաշտպանված աշխատանքների համար։
  • Անցկացրեք և փաստաթղթավորեք համակարգային ռիսկի թեստավորումը, եթե մոդելը գերազանցում է XI հավելվածում նշված հաշվարկային շեմը (մտածեք 10^25 FLOP-ի մասին): «Համակարգային GPAI»-ի համար սկսվում են լրացուցիչ պարտականություններ, ինչպիսիք են՝ հղումային իրականացումների առաջարկը և ԵՄ արհեստական ​​բանականության գրասենյակի հետ համագործակցությունը:
  • Բաց կոդով մոդելներն ունեն ավելի թեթև սենսորային պարտավորություններ, սակայն պետք է դեռևս ջրանիշ տեղադրեն ստեղծված բովանդակության վրա և տրամադրեն օգտագործման հրահանգներ, որոնք մանրամասնորեն կներկայացնեն կանխատեսելի սահմանափակումները։

Ձեր ներքին վերահսկողությունը վերը նշված դերերին համապատասխանող ստուգաթերթիկների հետ համապատասխանեցնելով՝ դուք կարող եք վերացնել ամենաակնառու համապատասխանության բացերը դեռևս 2026 և 2027 թվականների օգոստոսի կիրառման վերջնաժամկետներից շատ առաջ։

Համապատասխանության հասնելու տեխնիկական և կազմակերպչական պահանջներ

ԵՄ արհեստական ​​բանականության մասին օրենքը չի սահմանում բոլորին համապատասխանող միասնական նախագծեր: Դրա փոխարեն, այն սահմանում է արդյունքների վրա կենտրոնացած «հիմնական պահանջներ» և ձեզ ազատ է թողնում ընտրելու դրանք ապացուցող կառավարման միջոցները: Հնարքն այն է, որ համատեղվի ինժեներական լավագույն փորձը կարգավորող հիգիենայի հետ, որպեսզի յուրաքանչյուր մոդելի թարմացում կամ տվյալների թարմացում ավտոմատ կերպով հայտնվի կրկնվող համապատասխանության գործընթացում: Ստորև բերված հինգ կառուցվածքային բլոկները Օրենքի իրավական հոդվածները վերածում են կոնկրետ առաջադրանքների, որոնք կարող են ստանձնել ձեր արտադրանքի, տվյալների և իրավաբանական թիմերը:

Տվյալների կառավարում և կառավարում

Վատ տվյալները հավասարազոր են կարգավորող կրիպտոնիտի: Հոդված 10-ը ստիպում է բարձր ռիսկի արհեստական ​​բանականության մատակարարներին փաստաթղթավորել և արդարացնել խողովակաշար մտնող յուրաքանչյուր բայթը:

  • Կազմեք տվյալների հավաքածուներ, որոնք համապատասխան, ներկայացուցչական, սխալներից զերծ և արդիական նախատեսված բնակչության համար։
  • Պահպանեք յուրաքանչյուր կորպուսի համար «տվյալների թերթիկ». աղբյուր, հավաքագրման ամսաթիվ, լիցենզավորման պայմաններ, նախնական մշակման քայլեր, կողմնակալության ստուգումներ և պահպանման ժամկետ։
  • Հետևեք տոհմածառին տարբերակով կառավարվող պահոցում, որպեսզի կարողանաք հետ շրջել, եթե որևէ մարմին պահանջի ուղղումներ։
  • Կատարեք կողմնակալության և անհավասարակշռության թեստավորում՝ օգտագործելով վիճակագրորեն հիմնավորված մեթոդներ (χ², KS-test, կամ մոդելից անկախ արդարության չափանիշներ) և լոգերի մեղմացման գործողություններ։

Պահեք ամբողջական հետքը՝ հում տվյալները, սկրիպտները, թեստերի արդյունքները՝ հասանելի 10 տարի; Օրենքի հետադարձ հայացքի պատուհանը երկար է։

Ռիսկերի կառավարման շրջանակ

Հոդված 9-ը պահանջում է շարունակական և փաստաթղթավորված գործընթաց որը արտացոլում է ISO 31000-ը և ISO/IEC 23894 նախագծի ստանդարտը։

  1. Բացահայտեք վտանգները՝ չարաշահման սցենարներ, հակառակորդական հարձակումներ, տվյալների արտահոսք։
  2. Վերլուծեք ազդեցությունը և հավանականությունը, գնահատեք դրանք ընդհանուր սանդղակով (օրինակ՝ risk = probability × severity).
  3. Որոշեք վերահսկողության միջոցները՝ տեխնիկական պաշտպանություն, մարդկային վերահսկողություն, պայմանագրային սահմանափակումներ։
  4. Ստուգեք վերահսկողությունները յուրաքանչյուր խոշոր թարմացումից հետո, ներառեք արդյունքները հաջորդ սպրինտում։

Ամեն ինչ պահեք կենդանի ռիսկերի գրանցամատյանում. կարգավորող մարմինները ակնկալում են տեսնել ժամանակային դրոշմանիշներ, սեփականատերեր և փակման ապացույցներ:

Մարդկային վերահսկողություն և թափանցիկություն ըստ նախագծի

14-րդ և 52-րդ հոդվածները «մարդկային շփման» մասին խոսակցությունները վերածում են պարտադիր նախագծային առաջադրանքների։

  • Սահմանեք վերահսկողության եղանակը. ցիկլի մեջ (ձեռքով հաստատում), ցիկլի վրա (իրական ժամանակի ահազանգեր), կամ ցիկլի վրա (հետհոկ աուդիտներ):
  • Ներդրեք բացատրելիության շերտեր՝ կարևորության քարտեզներ, հակափաստարկային օրինակներ, պարզեցված որոշման կանոններ։
  • Տրամադրեք փոխարինման և պահեստային տարբերակներ, որոնք երկուսն էլ են տեխնիկապես աշխատունակ և կազմակերպչականորեն լիազորված.
  • Առաջարկեք պարզ լեզվով օգտատիրոջ ծանուցումներ («Դուք փոխազդում եք արհեստական ​​բանականության համակարգի հետ») և հնարավորության դեպքում բացահայտեք վստահության միավորները։

Հզորություն, ճշգրտություն և կիբերանվտանգություն

Հոդված 15-ի համաձայն՝ մոդելները պետք է մնան հայտարարված սխալի մակարդակների սահմաններում և դիմակայեն չարամիտ միջամտությանը։

  • Սահմանել նվազագույն կատարողականի շեմեր; վերահսկել ճշգրտությունը, ճշգրտությունը, հետկանչելիությունը և կալիբրացման շեղումը արտադրության մեջ։
  • Յուրաքանչյուր թողարկումից առաջ անցկացրեք հակառակորդական դիմադրողականության թեստեր (FGSM, PGD, տվյալների թունավորում):
  • Հզորացնել ենթակառուցվածքը՝ համաձայն NIS2-ի և ETSI EN 303 645-ի. անվտանգ API-ներ, դերային մուտք, կոդավորված մոդելային ստուգիչ կետեր։
  • Պատրաստեք պահեստային պլաններ՝ անվտանգ ռեժիմի լռելյայն կարգավորումներ, մարդկային վերանայման էսկալացիա՝ երբ կատարողականը իջնի հանդուրժողականության սահմաններից ցածր։

Գրառումների պահպանում, գրանցամատյանների կազմում և CE փաստաթղթավորում

Եթե ​​դա գրի չի առնված, ուրեմն այն երբեք էլ տեղի չի ունեցել՝ մանտրա, որը օրենք է դառնում 11-րդ և 19-րդ հոդվածներում։

Փաստաթուղթ Հիմնական բովանդակություն Պահպանություն
Տեխնիկական ֆայլ մոդելի ճարտարապետություն, վերապատրաստման տվյալների ամփոփում, գնահատման չափանիշներ, կիբերանվտանգության վերահսկողություն Կյանքի ցիկլ + 10 տարի
Տեղեկամատյաններ մուտքային տվյալներ, ելքային տվյալներ, անտեսման իրադարձություններ, կատարողականի վիճակագրություն, միջադեպեր ≥ 6 տարի
ԵՄ համապատասխանության հռչակագիր համապատասխանության հայտարարագիր, կիրառվող ստանդարտներ, մատակարարի մանրամասներ Հանրային հասանելի է
Հետշուկայական մոնիթորինգի պլան KPI-ներ, հաշվետվությունների ուղիներ, ակտիվացման շեմեր Անընդհատ թարմացվում է

Հնարավորության դեպքում ավտոմատացրեք գրանցամատյանի գրանցումը. օգտագործեք անփոփոխ պահեստավորում կամ միայն կցման համար նախատեսված գրանցամատյաններ, որպեսզի ապացույցները դիմանան դատաբժշկական ուսումնասիրությանը: Երբ գործը լրացված է, կցեք այն CE նշում և համակարգը ներկայացնել ԵՄ տվյալների բազային, միայն դրանից հետո այն կարող է հայտնվել շուկայում։

Այս տեխնիկական և կազմակերպչական վերահսկողությունները ձեր մշակման կյանքի ցիկլում ներառելով՝ դուք վերջին րոպեի շտապողականությունից համապատասխանությունը վերածում եք միշտ գործող կարողության, որը աուդիտորները կճանաչեն և կպարգևատրեն։

Տուգանքներ, միջոցներ և դատական ​​​​գործընթացների բացահայտում

ԵՄ արհեստական ​​բանականության մասին օրենքը չի հիմնվում քաղաքավարի հրումների վրա. այն օգտագործում է բավականաչափ մեծ փայտ, որը կարող է ղեկավարներին ցնցել։ Ֆինանսական պատժամիջոցները արտացոլում են GDPR-ի մասշտաբները, սակայն օրենքը նաև լիազորում է իշխանություններին հանել ապրանքները դարակներից, պատվիրել տվյալների ջնջում կամ ստիպել մոդելի վերապատրաստում եթե ռիսկերը մնան չմեղմացված։ Տուգանքները սահմանափակվում են ավելի բարձրով՝ եվրոյի բացարձակ գումարով կամ նախորդ տարվա համաշխարհային շրջանառության տոկոսով, այնպես որ նույնիսկ վաղ փուլի ստարտափները խուսափում են ինքնագոհությունից։ Ստորև բերված աղյուսակը ամփոփում է պատժամիջոցների ենթակա մակարդակները.

Խախտման տեսակը Առավելագույն ֆիքսված տուգանք Համաշխարհային շրջանառության առավելագույն տոկոսը Տիպիկ ակտիվացուցիչներ
Արգելված գործելակերպեր (հոդված 5) 35 միլիոն եվրո 7% Սոցիալական գնահատում, անօրինական կենսաչափական զանգվածային հսկողություն
Բարձր ռիսկային պարտավորություններ (հոդվածներ 8–15) 15 միլիոն եվրո 3% Համապատասխանության գնահատման բացակայություն, տվյալների կառավարման թերի համակարգ
Տեղեկատվության և գրանցման խափանումներ 7.5 միլիոն եվրո 1% Անճշտ տեխնիկական փաստաթղթեր, ուշացած միջադեպի մասին հաղորդում
Անհամապատասխանության մասին կանոնավոր ծանուցում 500 հազար եվրո n / a Զգուշացումից հետո աննշան խախտումներ

Վերահսկող մարմինները կարող են սահմանել ամենօրյա տուգանքներ՝ վերականգնումը արագացնելու համար: Այն ապրանքները, որոնք դեռևս «լուրջ ռիսկ» են ներկայացնում, ենթարկվում են պարտադիր… հետկանչ կամ շուկայից դուրսբերում— հեղինակությանը հասցված հարված, որը ոչ մի PR ծրագիր չի կարող քողարկել։

Վարչական պատժամիջոցներն ընդդեմ քաղաքացիական պատասխանատվության

Կարգավորող մարմինների կողմից սահմանված տուգանքները պատմության վերջը չեն։ Արհեստական ​​բանականության պատասխանատվության մասին առաջիկա դիրեկտիվը (AILD) և վերանայված ապրանքի պատասխանատվության մասին դիրեկտիվը (PLD) զուգահեռ ուղիներ են բացում… մասնավոր վնասի հայցերԱրհեստական ​​բանականության որոշմամբ տուժածները կօգտվեն.

  • A պատճառահետևանքային կապի հերքելի ենթադրություն երբ մատակարարները խախտում են արհեստական ​​բանականության մասին օրենքի պարտականությունները, ինչը թեթևացնում է ապացուցման բեռը։
  • Ընդլայնված բացահայտման իրավունքներ՝ թույլ տալով հայցվորներին պահանջել գրանցամատյաններ և ռիսկերի գնահատականներ, որոնք սովորաբար կմնային ընկերության ներսում։
  • Անդամ պետություններում ներդաշնակեցված կանոններ կան, սակայն ազգային իրավախախտումների մասին օրենսդրությունը կարող է դեռևս սահմանել ավելի խիստ չափանիշներ (օրինակ՝ Նիդեռլանդների ապօրինի գործողությունների դոկտրինը):

Հետևաբար, ընկերությունները կարող են բախվել մեկ-երկու հարվածի՝ բազմամիլիոն եվրոյի վարչական տուգանքի, որին կհաջորդեն քաղաքացիական խմբային հայցեր, հատկապես այնպիսի ոլորտներում, ինչպիսիք են վարկի մերժումը կամ խտրական վարձումը։

Հակազդեցության մեխանիզմներ և մատնիչների պաշտպանություն

Անհատները և ՀԿ-ները կարող են բողոքներ ներկայացնել անմիջապես իրենց ազգային իրավասու մարմին կամ ԵՄ արհեստական ​​բանականության գրասենյակը: Իշխանությունները պետք է հետաքննություն անցկացնեն «ողջամիտ ժամկետում» և կարող են կիրառել ժամանակավոր միջոցներ, այդ թվում՝ կասեցման որոշումներ: Տուժած անձինք նաև պահպանում են դատական ​​​​միջոցները՝ արգելող միջոցներ, փոխհատուցման հայցեր և վերահսկողական որոշումների դեմ բողոքներ:

Աշխատողներն Նրանք, ովքեր նկատում են անօրինական գործողությունները, պաշտպանված են ԵՄ-ի կողմից Հանցագործությունների մասին տեղեկացման հրահանգ:

  • Գաղտնի հաշվետվության ուղիները պարտադիր են 50+ աշխատակից ունեցող ընկերությունների համար։
  • Հակադարձ վերաբերմունքը՝ աշխատանքից ազատումը, պաշտոնի իջեցումը, սպառնալիքը՝ խստիվ արգելված են։
  • Ներքին ուղիները ձախողվելու դեպքում մատնիչները կարող են դիմել արտաքին կարգավորող մարմիններին կամ մամուլին։

Հետևաբար, լավ գովազդված, անանուն հաղորդման գծի ստեղծումը և՛ իրավական պահանջ է, և՛ վաղ նախազգուշացման համակարգ, որը կարող է ձեզ փրկել ապագայում ավելի թանկարժեք իրավապահ մարմիններից։

Արհեստական ​​բանականության մասին օրենքի համապատասխանեցումը GDPR-ին, NIS2-ին, արտադրանքի անվտանգությանը և ոլորտային կանոններին

ԵՄ Արհեստական ​​Բանականության մասին օրենքը (AI Act) առանձին կղզի չէ։ Այն միանում է գերբնակեցված համապատասխանության օվկիանոսի, որն արդեն իսկ ներառում է տվյալների պաշտպանության, կիբերանվտանգության և ուղղահայաց անվտանգության շրջանակներ։ Այդ խաչաձև հոսանքները անտեսելը ռիսկային է. AI համակարգը, որը նշում է AI Act-ի բոլոր վանդակները, միևնույն է, կարող է խախտել GDPR-ը կամ NIS2-ը, և հակառակը։ Ստորև մենք ընդգծում ենք հիմնական շփման կետերը, որպեսզի ձեր իրավաբանական, անվտանգության և արտադրանքի թիմերը կարողանան կառուցել միասնական, ինտեգրված վերահսկողության քարտեզ՝ չորս առանձին ստուգաթերթիկներով զբաղվելու փոխարեն։

Համընկնում GDPR-ի և էլեկտրոնային գաղտնիության հետ

  • Իրավական հիմք և նպատակի սահմանափակում. բարձր ռիսկի մոդելի շրջանակներում անձնական տվյալների մշակումը պետք է բավարարի GDPR-ի առնվազն մեկ հիմք (հաճախ օրինական շահ կամ համաձայնություն):
  • Ավտոմատացված որոշումների կայացման սահմանափակումներ. GDPR-ի 22-րդ հոդվածը սահմանափակում է լիովին ավտոմատացված որոշումները, որոնք ունեն իրավական կամ նշանակալի հետևանքներ. Արհեստական ​​բանականության մասին օրենքի մարդկային վերահսկողության պահանջը հաճախ հանդես է գալիս որպես տեխնիկական երաշխիք, որը բացում է 22(2)(բ) կամ (գ) հոդվածի բացառությունները:
  • Համատեղ վերահսկիչի սցենարներ. երբ տեղակայողը ճշգրտում է մատակարարի կողմից տրամադրված GPAI-ը, երկուսն էլ կարող են դառնալ համատեղ վերահսկիչGDPR-ի համաձայն՝ համապատասխանաբար պլանավորեք տվյալների մշակման համաձայնագրերը։
  • Թափանցիկության կրկնակի հպման պարտականություն. արհեստական ​​բանականության մասին օրենքը պարտադրում է օգտատերերի բացահայտումները («արհեստական ​​բանականության կողմից ստեղծված»), մինչդեռ GDPR-ի 12-14-րդ հոդվածները պահանջում են գաղտնիության մասին ծանուցումներ, որոնք մանրամասնորեն կներկայացնեն տվյալների հոսքերը, պահպանումը և իրավունքները: Մշակեք մեկ շերտավոր ծանուցում, որը կներառի երկուսն էլ:

Կիբերանվտանգություն և NIS2 սիներգիաներ

NIS2-ը պահանջում է ռիսկերի գնահատում, միջադեպերին արձագանքում և մատակարարման շղթայի անվտանգություն «էական» և «կարևոր» կազմակերպությունների համար: Արհեստական ​​բանականության մասին օրենքը արտացոլում է դա՝ պահանջելով կայունության թեստավորում, խոցելիության մոնիթորինգ և խախտումների մասին հաղորդում 15 օրվա ընթացքում: Օգտագործեք մեկ SOC աշխատանքային հոսք.

  1. Արհեստական ​​բանականության մասին օրենքի համապատասխանության գնահատման ընթացքում անցկացրեք հակառակորդական կայունության թեստեր։
  2. Արդյունքները մուտքագրեք NIS2 ռիսկերի գրանցամատյան։
  3. Երկու ռեժիմների համար էլ օգտագործեք միջադեպերի մասին հաղորդելու նույն 72-ժամյա ձեռնարկը։

Ինտեգրում գործող ապրանքային օրենսդրության հետ

Եթե ​​ձեր արհեստական ​​ինտելեկտը կարգավորվող արտադրանքի (բժշկական սարք, մեքենա, խաղալիք, վերելակ, ավտոմոբիլային համակարգ) անվտանգության բաղադրիչ է, դուք պետք է կատարեք հետևյալը. ամուրի համապատասխանության գնահատում, որը ներառում է՝

  • Ընդհանուր անվտանգության կամ կատարողականի պահանջներ՝ համաձայն ոլորտային օրենսդրության, և
  • Արհեստական ​​բանականության ակտի հիմունքներ (ռիսկերի կառավարում, տվյալների կառավարում, մարդկային վերահսկողություն):

Նոր օրենսդրական շրջանակի համաձայնեցված ստանդարտները շուտով կհղվեն պահանջների երկու հավաքածուներին՝ թույլ տալով ունենալ մեկ տեխնիկական ֆայլ և մեկ CE նշում։

Ոլորտային առանձնահատկությունների օրինակներ

  • Ֆինանսական ծառայություններ. համատեղեք արհեստական ​​բանականության մասին օրենքի գրանցումը Եվրոպական բանականության բանկի փողերի լվացման դեմ պայքարի ուղեցույցների հետ՝ արդարության և բացատրելիության մոդելավորման համար։
  • Էներգետիկ ցանցի կառավարում. ցանցային արհեստական ​​բանականության ակտի ռիսկերի վերահսկում՝ SCADA համակարգերի համար ENTSO-E կիբերանվտանգության պահանջներով։
  • Ավտոմոբիլային. ՄԱԿ-ի ԵՏՀ WP.29-ը պարտադրում է ծրագրային ապահովման թարմացումների կառավարում. այդ թարմացումների գրանցամատյանները ներառեք ձեր «Արհեստական ​​բանականության մասին» օրենքի շուկայավարումից հետո մոնիթորինգի մեջ։
  • Առողջապահություն. զուգակցեք ISO 13485 QMS արտեֆակտները արհեստական ​​բանականության մասին ակտի տվյալների բազայի փաստաթղթերի հետ՝ ավելորդ աուդիտներից խուսափելու համար։

Միջազգային համեմատություններ

Գլոբալ ընկերությունները պետք է համաձայնեցնեն ԵՄ արհեստական ​​բանականության մասին օրենքը (AI Act) այլուր ի հայտ եկող կանոնների հետ.

Իրավասություն Հիմնական գործիք Նշանակալի տարբերություն
US Գործադիր կարգադրություն և NIST AI RMF Կամավոր է, բայց կարող է դառնալ դաշնային գնումների բազային գիծ
ճենապակի Ժամանակավոր գեներալ-արհեստական ​​բանականության միջոցառումներ Իրական անվան գրանցումը և բովանդակության զտումը պարտադիր են
UK Նորարարությանն աջակցող շրջանակ Կարգավորող մարմնին հատուկ ուղեցույց, դեռևս հորիզոնական օրենք չկա

Վաղ փուլում համընկնումները քարտեզագրելով՝ միջազգային թիմերը կարող են նախագծել վերահսկողության շրջանակներ, որոնք նախ կբավարարեն ամենախիստ կանոնների հավաքածուն, ապա կսահմանափակվեն տեղական օրենքներով։

Գործնական համապատասխանության ստուգաթերթիկ և լավագույն փորձ

ԵՄ արհեստական ​​բանականության մասին օրենքի (AI Act) հոդվածներն ու դրույթները առօրյա գործունեության վերածելը կարող է վախեցնող թվալ: Հնարքն այն է, որ գործընթացը բաժանեք կարճ գործողությունների, որոնք կարող են իրականացնել իրավաբանական, արտադրանքի և անվտանգության թիմերը: Օգտագործեք ստորև բերված 12 քայլից բաղկացած ճանապարհային քարտեզը որպես կենդանի նախագծի պլան՝ վերանայեք այն յուրաքանչյուր սպրինտի ցուցադրության և խորհրդի նիստի ժամանակ մինչև 2027 թվականի օգոստոսը:

  1. Գույքագրեք արտադրության և հետազոտությունների ու զարգացման մեջ առկա յուրաքանչյուր արհեստական ​​բանականության կամ ալգորիթմական բաղադրիչ։
  2. Դասակարգեք յուրաքանչյուր համակարգի ռիսկի մակարդակը և ձեր գործողի դերը (մատակարար, օգտատեր, ներմուծող, դիստրիբյուտոր):
  3. Քարտեզագրեք կիրառելի օրենքները (GDPR, NIS2, ոլորտային կանոններ) և բացահայտեք համընկնումները։
  4. Կատարել բացթողումների վերլուծություն արհեստական ​​բանականության մասին օրենքի հիմնական պահանջների համեմատ։
  5. Մշակեք կամ թարմացրեք ձեր որակի կառավարման համակարգը (ՈԿՀ):
  6. Ստեղծեք բազմամասնագիտական ​​​​կառավարման կառուցվածք։
  7. Կազմեք տեխնիկական փաստաթղթերի ձևանմուշներ և սկսեք լրացնել դրանք։
  8. Կառուցեք տվյալների կառավարման և կողմնակալության ստուգման խողովակաշարեր։
  9. Անցկացրեք նախնական համապատասխանության գնահատումներ կամ չոր փորձարկման աուդիտներ։
  10. Վերապատրաստել անձնակազմին՝ ինժեներներին, ռիսկերի պատասխանատուներին և հաճախորդների սպասարկմանը։
  11. Գործարկել շուկայավարումից հետո մոնիթորինգի և միջադեպերի մասին հաղորդման աշխատանքային հոսքերը։
  12. Պլանավորեք պարբերական վերանայումներ և շարունակական կատարելագործման ցիկլեր։

Պատրաստվածության գնահատում և բացթողումների վերլուծություն

Սկսեք աղյուսակով կամ տոմսերի տախտակով, որտեղ նշված է. համակարգի անվանումը, նպատակը, վերապատրաստման տվյալների աղբյուրները, ռիսկի մակարդակը, առկա վերահսկողության մեխանիզմները և բաց բացթողումները: Յուրաքանչյուր բացթողմանը նշանակեք պատասխանատու և վերջնաժամկետ: Յուրաքանչյուր փակումից հետո վերագնահատեք մնացորդային ռիսկը. կարգավորող մարմինները սիրում են տեսնել այդ կրկնվող բարելավման հետքը:

Ճիշտ կառավարման կառուցվածքի կառուցում

Կառավարման տակ դրեք մարդկանց, ոչ միայն քաղաքականությանը։

  • Արհեստական ​​​​ինտելեկտի համապատասխանության սպա. մեկ կոկորդով խեղդվելու համար։
  • Միջֆունկցիոնալ էթիկայի հանձնաժողով՝ արտադրանքի, իրավաբանական, անվտանգության, մարդկային ռեսուրսների։
  • Արտաքին վերանայող կամ տեղեկացված մարմնի հետ կապող անձ։
  • Սերտ կապ պահպանեք ձեր տվյալների պաշտպանության պատասխանատուի և տվյալների պաշտպանության պատասխանատուի (CISO) հետ՝ մեկուսացված որոշումների կայացումից խուսափելու համար։

Փաստաթղթավորեք հանդիպման ռիթմը, որոշումների կայացման իրավունքը և էսկալացիայի ուղիները։

Փաստաթղթեր և գործիքներ

Ստանդարտացրեք արտեֆակտները, որպեսզի ինժեներները չվերագտնեն անիվը։

Կաղապար Նպատակ Առաջարկվող ձևաչափ
Մոդելի քարտ Հնարավորություններ, սահմանափակումներ, չափանիշներ Markdown + JSON
Տվյալների թերթ Աղբյուր, լիցենզավորում, կողմնակալության թեստեր Աղյուսակ
Թափանցիկության հաշվետվություն Օգտատիրոջ առջև բացահայտում HTML / PDF
Հիմնարար իրավունքների մասին IA Հանրային հատվածի տեղակայողներ Ձևաթղթի վրա հիմնված գործիք

Բաց կոդով օգնություն. ԵՄ արհեստական ​​բանականության գործիքակազմ, ISO/IEC 42001 նախագծերի ստուգաթերթիկներ և GitHub պահոցներ՝ կողմնակալության չափանիշների համար։

Մատակարարների և մատակարարման շղթայի կառավարում

Հոսքի արհեստական ​​բանականության մասին օրենքի պարտականությունները ներքևում.

  • Համապատասխանության գնահատման երաշխիքներն ու աուդիտի իրավունքները ավելացնել պայմանագրերը.
  • Պահանջել մատակարարներից կիսվել մոդելային քարտերով, կայունության թեստերի արդյունքներով և միջադեպերի գրանցամատյաններով։
  • Ստեղծեք համատեղ Slack կամ տոմսերի հերթ՝ խոցելիությունների արագ բացահայտման համար։

Մոդելի շարունակական մոնիթորինգ և կյանքի ցիկլի թարմացումներ

Տեղակայումից առաջ, շահագործման ընթացքում և տեղակայումից հետո մոնիթորինգը պետք է իրականացվի նույն հեռաչափման հարթակից։ Վերագնահատում սկսել, երբ՝

  • Մուտքային տվյալների բաշխման տեղաշարժեր (KL divergence > նախապես սահմանված շեմ):
  • Ճշգրտությունը իջնում ​​է հայտարարված նվազագույնից ցածր։
  • Գրանցվում է լուրջ միջադեպ կամ վթարի մոտալուտ դեպք։

Ավարտեք ցիկլը՝ եռամսյակային կառավարման վերանայումների և տարեկան արտաքին աուդիտի միջոցով, ինչը ապացուցում է, որ համապատասխանությունը միանվագ նախագիծ չէ, այլ մշտական ​​կարողություն։

Հաճախակի տրվող հարցեր. Արագ պատասխաններ հաճախակի տրվող հարցերին

Արդյո՞ք ԵՄ արհեստական ​​բանականության մասին օրենքն արդեն ուժի մեջ է։
Այո՛։ (ԵՄ) 2024/1689 կանոնակարգը ուժի մեջ է մտել 1 թվականի օգոստոսի 2024-ին։ Այնուամենայնիվ, կոնկրետ պարտավորությունների մեծ մասը փուլ առ փուլ ուժի մեջ է մտնում ավելի ուշ. արգելված գործելակերպը վերանում է մինչև 2025 թվականի փետրվարը, թափանցիկության կանոնները ուժի մեջ են մտնում 2025 թվականի օգոստոսին, բարձր ռիսկայնության տուրքերը ուժի մեջ են մտնում 2026 թվականի օգոստոսին (կենսաչափական տվյալները՝ 2027 թվականի օգոստոսին)։ Այսպիսով, ժամանակը սպառվում է, չնայած լիարժեք կիրառումը դեռևս փուլում է։

Որո՞նք են ռիսկի չորս մակարդակները։
ԵՄ արհեստական ​​բանականության մասին օրենքը համակարգերը դասակարգում է հետևյալ խմբերի՝ (1) անընդունելի ռիսկ՝ լիովին արգելված, (2) բարձր ռիսկ՝ թույլատրվում է միայն համապատասխանության գնահատումից և CE նշագրումից հետո, (3) սահմանափակ ռիսկ՝ հիմնականում թափանցիկության պարտականություններ (օրինակ՝ չաթբոտներ, խորը կեղծիքներ) և (4) նվազագույն ռիսկ՝ խիստ կանոններ չկան, բայց խրախուսվում են կամավոր կոդերը: Ձեր առաջին աշխատանքը յուրաքանչյուր մոդելը այս մակարդակներից մեկին համապատասխանեցնելն է:

Արդյո՞ք օրենքը փոխարինել է արհեստական ​​բանականության ազգային ռազմավարություններին։
Ոչ։ Անդամ պետությունները կարող են պահպանել կամ ստեղծել ազգային ռազմավարություններ, փորձնական հարթակներ և ֆինանսավորման սխեմաներ։ Օրենքը պարզապես ներդաշնակեցնում է կարգավորումը պահանջներ, որպեսզի բիզնեսները բախվեն մեկ կանոնագրքի ամբողջ ԵՄ-ում: Տեղական նախաձեռնությունները չպետք է հակասեն Կանոնակարգի ռիսկերի շրջանակին կամ խաթարեն դրա կիրառման մեխանիզմները:

Արդյո՞ք ստարտափները ունեն բացառություններ։
Ոչ այնքան։ Կանոնները կիրառվում են անկախ ընկերության չափից, քանի որ պարտավորությունները որոշվում են ռիսկով, այլ ոչ թե եկամուտով։ Այնուամենայնիվ, «փորձարկվող» համակարգերը, որոշ GPAI մոդելների համար ավելի թեթև փաստաթղթավորումը և Հանձնաժողովի կողմից ֆինանսավորվող ուղեցույցը նպատակ ունեն նվազեցնել ՓՄՁ-ների համար վարչական դժվարությունները։ Համապատասխանության անտեսումը «փոքր» լինելու պատճառով վտանգավոր սխալ պատկերացում է։

Ինչպե՞ս է «Արհեստական ​​բանականության մասին» օրենքը վերաբերվում բաց կոդով մոդելներին։
Մոդելի կշիռների հրապարակայնորեն հրապարակումը ձեզ չի ազատում պատասխանատվությունից: Դուք դեռ պետք է տրամադրեք ուսումնական տվյալների ամփոփագրեր, ջրանիշի միջոցով ստեղծված բովանդակություն և հրապարակեք օգտագործման հրահանգներ: Պարտավորություններն ավելի թեթև են, քան փակ առևտրային մոդելների դեպքում, բայց եթե ձեր բաց կոդով համակարգը դառնում է «համակարգային GPAI», ապա ուժի մեջ են մտնում լրացուցիչ թեստավորման և հաշվետվությունների պարտականություններ:

Օրենքը հրահանգ է՞
Ոչ։ Սա կանոնակարգ է՝ ուղղակիորեն կիրառելի յուրաքանչյուր անդամ պետությունում՝ առանց ազգային մակարդակով դրա փոխակերպման։ Պատկերացրեք այն որպես GDPR. ուժի մեջ մտնելուց հետո իրավական պարտավորությունները գործում էին ամբողջ ԵՄ-ում, և միայն տեղական մակարդակով կարող են տարբեր լինել գործնական կիրառման ուղեցույցները։

Ի՞նչ է պատահում, եթե իմ մատակարարը գտնվում է ԵՄ-ից դուրս։
Հետևում է տարածքային հասանելիությանը արտադրանք, ոչ թե գլխավոր գրասենյակը։ Եթե արտասահմանյան մատակարարի համակարգը շուկայահանվում է ԵՄ-ում կամ դրա արդյունքները օգտագործվում են այստեղ, մատակարարը պետք է համապատասխանի ԵՄ արհեստական ​​բանականության մասին օրենքի պահանջներին և նշանակի ԵՄ-ում գործող օրինական ներկայացուցիչ։ Միության ներսում տեղադրողները դեռևս կրում են օգտագործողի պարտավորություններ, ուստի մատակարարներին ուշադիր ընտրեք։

Հիմնական տուփեր

Դեռևս թերթո՞ւմ եք։ Ահա գաղտնագրերի ցանկը.

  • «Արհեստական ​​բանականության մասին ԵՄ օրենքը» (AI Act) այլևս նախագիծ չէ. այն եղել է… ուժի մեջ է 1 թվականի օգոստոսի 2024-ից և ամենուրեք բերում է առաջին հորիզոնական, ռիսկերի վրա հիմնված արհեստական ​​բանականության օրենքը։
  • Ռիսկի դասակարգումը որոշում է ամեն ինչ. անընդունելի համակարգերը արգելված են, բարձր ռիսկի համակարգերը պահանջում են CE նշում և գրանցում գրանցամատյանում, մինչդեռ սահմանափակ և նվազագույն ռիսկի գործիքները ենթարկվում են ավելի թեթև, բայց ոչ զրոյական պարտականությունների։
  • Անհամապատասխանությունը թանկ է՝ մինչև 35 միլիոն եվրո կամ համաշխարհային շրջանառության 7%-ը արգելված գործունեության համար, գումարած ԵՄ առաջիկա դիրեկտիվների համաձայն հնարավոր քաղաքացիական պատասխանատվության համար։
  • Պարտավորությունները տարածվում են մատակարարման շղթայի բոլոր մասերի վրա. մատակարարները, օգտագործողները, ներմուծողները և դիստրիբյուտորները յուրաքանչյուրն ունի հատուկ ստուգաթերթիկներ, իսկ ընդհանուր նշանակության մոդելներն այժմ ունեն անհատական ​​կանոններ։
  • Օրենքը չի փոխարինում GDPR-ին, NIS2-ին կամ արտադրանքի անվտանգության մասին օրենքներին. դուք պետք է բոլոր շրջանակները միավորեք մեկ ինտեգրված կառավարման ծրագրի մեջ։

Օգնություն է պետք իրավական տեքստը գործող կոդի, քաղաքականության և պայմանագրերի վերածելու հարցում: Տեխնոլոգիաների և գաղտնիության իրավունքի փաստաբանները՝ Law & More կարող է իրականացնել արհեստական ​​բանականության մասին օրենքի պատրաստվածության արագ սկանավորում, կազմել անհրաժեշտ փաստաթղթերը և ուղեկցել ձեզ համապատասխանության գնահատման գործընթացում՝ նախքան աուդիտորների դուռը թակելը։

Law & More