Բարի գալուստ արհեստական բանականության նոր աշխարհ, որտեղ անհավանական չաթբոտ տեխնոլոգիան գլխիվայր շպրտվում է շատ լուրջ իրավական իրականության մեջ։ Բիզնեսների համար իրական հանելուկը կայանում է նրանում, թե ինչպես օգտագործել արհեստական բանականության ուժը՝ առանց հեղինակային իրավունքի և համապատասխանության կանոնների բարդ ցանցի մեջ ընկնելու։ Սա ճիշտ անելը միայն տուգանքներից խուսափելը չէ. այն վստահելի և երկարակյաց արհեստական բանականության ռազմավարություն մշակելու մեջ է։
Արհեստական բանականության կարգավորման նոր իրականությունը
Արհեստական բանականության չաթբոտների պայթյունը ստիպել է քննադատական քննարկում սկսել այն մասին, թե որտեղ է ավարտվում նորարարությունը և օրենք սկսվում է։ Նիդեռլանդներում կամ ԵՄ որևէ այլ երկրում գործող ցանկացած բիզնեսի համար արհեստական բանականության իրավական կանոնակարգը գրվում է հենց այս պահին, և դուք չեք կարող անտեսել այն։ Սա հեռավոր ակադեմիական բանավեճ չէ. այն տեղի է ունենում հենց հիմա, երբ իրական փողն ու հեղինակությունը վտանգված են։
Այս նոր միջավայրը հասկանալու համար դուք պետք է հասկանաք ձեր կողմից տեղակայվող ցանկացած չաթբոտի վրա ազդող երեք հիմնական իրավական հիմնասյուները: Համապատասխանության վերաբերյալ գրեթե յուրաքանչյուր քննարկում և կարգավորող գործողություն վերադառնում է դրանց:
- Հեղինակային իրավունքի մասին օրենք. Սա վերաբերում է նրան, թե ով է տիրապետում արհեստական բանականության մոդելների մարզման համար օգտագործվող տվյալների լեռներին և արդյոք նրանց ստեղծած բովանդակությունը իսկապես օրիգինալ է։
- Տվյալների պաշտպանություն. Սա հիմնականում տարածքն է GDPRԱմեն ինչ կախված է նրանից, թե ինչպես է ձեր չաթբոտը հավաքում, մշակում և պահպանում իր օգտատերերի անձնական տեղեկությունները։
- Թափանցիկության պարտավորություններ՝ Սա ավելի նոր, բայց կարևորագույն պահանջ է։ Դա նշանակում է, որ դուք պետք է անկեղծ լինեք այն մասին, թե երբ և ինչպես է օգտագործվում արհեստական բանականությունը, որպեսզի մարդիկ չմոլորվեն։
Եվրոպայի կարևորագույն օրենսդրության ուսումնասիրություն
Պազլի ամենամեծ կտորը դա է ԵՄ AI ակտԱյս օրենքը կիրառում է ռիսկի վրա հիմնված մոտեցում՝ արհեստական բանականության համակարգերը դասակարգելով տարբեր կատեգորիաների՝ կախված դրանց վնասի ներուժից։ Պատկերացրեք այսպես. հաճախորդների հարցերին պատասխանող պարզ չաթբոտը կարող է համարվել ցածր ռիսկային։ Բայց մարդկանց վարձելու կամ ֆինանսական խորհրդատվություն տրամադրելու համար օգտագործվող արհեստական բանականության գործիքը՞։ Այն ենթարկվելու է շատ ավելի խիստ կանոնների։
Այս աստիճանական համակարգը նախագծված է նորարարությունը ցածր ռիսկի գոտիներում ծաղկելու հնարավորություն տալու համար՝ միաժամանակ խիստ պաշտպանիչ պատնեշներ սահմանելով այնտեղ, որտեղ խաղադրույքները բարձր են։ Ձեզ համար դա նշանակում է, որ ցանկացած արհեստական բանականության նախագծի առաջին քայլը պետք է լինի ռիսկերի հստակ գնահատումը՝ պարզելու համար, թե որ կանոններն են ընդհանրապես կիրառվում։
Այստեղ՝ Նիդեռլանդներում, Նիդեռլանդների տվյալների պաշտպանության մարմինը (DPA) արդեն ուժեղացրել է իր վերահսկողությունը՝ համաձայն ԵՄ արհեստական բանականության մասին օրենքի։ Նրանք սկսել են պայքարել բարձր ռիսկային արհեստական բանականության կիրառությունների դեմ, որոնք նրանք համարում են անօրինական, այդ թվում՝ հոգեկան առողջության աջակցության համար օգտագործվող որոշ չաթբոտների դեմ։ Այս նախաձեռնողական դիրքորոշումը հստակ ազդանշան է ուղարկում. թեթև համապատասխանության դարաշրջանն ավարտվել է։ Դուք կարող եք ավելին իմանալ՝ հետևելով Նիդեռլանդներում արհեստական բանականության վերջին միտումներին և զարգացումներին։
Իրավական շրջանակը այլևս պարզապես ուղեցույցների ամբողջություն չէ, այլ պատասխանատու նորարարության պարտադիր ստուգաթերթիկ։ Հեղինակային իրավունքի, տվյալների գաղտնիության և թափանցիկության հարցերը սկզբից չլուծելը այլևս կենսունակ բիզնես ռազմավարություն չէ։
Նիդեռլանդներում արհեստական բանականության չաթբոտների առջև ծառացած իրավական մարտահրավերները բազմակողմանի են՝ շոշափելով տվյալների գաղտնիությունը, մտավոր սեփականությունը և սպառողների պաշտպանությունը: Ստորև ներկայացված է աղյուսակ, որը ամփոփում է այն հիմնական ոլորտները, որոնց ձեր բիզնեսը պետք է ուշադիր հետևի:
Արհեստական բանականության չաթբոտների հիմնական իրավական մարտահրավերները Նիդեռլանդներում
| Իրավական տարածք | Առաջնային մտահոգություն | Կարգավորող կարգավորման օրինակ |
|---|---|---|
| Տվյալների պաշտպանություն և գաղտնիություն | Անձնական օգտատիրոջ տվյալների, մասնավորապես՝ զգայուն տեղեկատվության անօրինական հավաքագրում և մշակում։ | Ընդհանուր տվյալների պաշտպանության կանոնակարգ (GDPR) |
| Հեղինակային իրավունք և մտավոր սեփականություն | Հեղինակային իրավունքով պաշտպանված նյութերի օգտագործումը մոդելներ մարզելու և գոյություն ունեցող աշխատանքների նկատմամբ իրավունքները խախտող բովանդակություն ստեղծելու համար։ | Հեղինակային իրավունքի մասին հոլանդական օրենք (Auteurswet) |
| Թափանցիկություն և սպառողական իրավունք | Օգտատերերի կողմից արհեստական բանականության հետ փոխազդեցության չբացահայտումը հանգեցնում է խաբեության կամ թյուրըմբռնման։ | ԵՄ արհեստական բանականության մասին օրենք (թափանցիկության պարտավորություններ) |
| Արհեստական բանականության արդյունքների պատասխանատվություն | Չաթբոտի կողմից ստեղծված վնասակար, անճշտ կամ զրպարտչական բովանդակության համար պատասխանատու անձի որոշումը։ | Զարգացող դատական պրակտիկա և պատասխանատվության վերաբերյալ առաջարկվող հրահանգներ |
Այս ոլորտներից յուրաքանչյուրը ներկայացնում է համապատասխանության յուրահատուկ խոչընդոտների ամբողջություն, որը պահանջում է ուշադիր պլանավորում և շարունակական զգոնություն։
Վերջին հաշվով, արհեստական բանականության իրավական կողմը ճիշտ հասկանալը նշանակում է ավելին, քան պարզապես պաշտպանություն խաղալը։ Այն վստահության վրա հիմնված մրցակցային առավելություն կառուցելու մասին է։ Իրավականորեն հիմնավորված և էթիկապես կառուցված չաթբոտը ոչ միայն կխուսափի կարգավորող մարմինների հետ խնդիրներից, այլև կվաստակի ձեր օգտատերերի վստահությունը։ Եվ այս խաղում դա ամենաարժեքավոր ակտիվն է, որը դուք կարող եք ունենալ։ Այս ուղեցույցը ձեզ կուղեկցի այս մարտահրավերների միջով՝ տալով ձեզ անհրաժեշտ գործնական պատկերացումները։
Արհեստական բանականության ուսուցման տվյալների հեղինակային իրավունքի վերծանումը
Յուրաքանչյուր հզոր չաթբոտ կառուցված է տվյալների լեռան վրա, բայց այս հիմքի վրա կանգնած է կարևոր հարց. ո՞ւմ է պատկանում այդ տեղեկատվությունը: Ահա թե որտեղ է առաջադեմ արհեստական բանականության գործիքների աշխարհը բախվում վաղուց հաստատված հեղինակային իրավունքի օրենքին՝ ստեղծելով այսօրվա բիզնեսների համար ամենակարևոր իրավական մարտահրավերներից մեկը:
Պատկերացրեք արհեստական բանականության մոդելը որպես հսկայական թվային գրադարանի ուսանող։ Գրել, դատողություններ անել և ստեղծագործել սովորելու համար այն նախ պետք է «կարդա» կամ մշակի անթիվ գրքեր, հոդվածներ, պատկերներ և կոդի կտորներ։ Այս նյութի մեծ մասը պաշտպանված է հեղինակային իրավունքով, ինչը նշանակում է, որ այն պատկանում է որոշակի ստեղծողի կամ հրատարակչի։ Արհեստական բանականության կողմից այս տվյալների կլանման գործողությունը՝ օրինաչափություններ, ոճեր և փաստեր սովորելու համար, իրավական վեճի կենտրոնական կետն է։
Այս գործընթացը ուղղակիորեն մարտահրավեր է նետում ավանդական իրավական հասկացություններին: Շատ իրավասություններում «արդար օգտագործման» կամ «տեքստի և տվյալների արդյունահանման» (TDM) նման բացառությունները թույլ են տվել հեղինակային իրավունքով պաշտպանված աշխատանքների սահմանափակ օգտագործումը հետազոտությունների կամ մեկնաբանությունների համար: Այնուամենայնիվ, մեծ լեզվական մոդելների (LLM) մասշտաբները և առևտրային բնույթը այս բացառությունները հասցնում են իրենց կրիտիկական կետին, ինչը հանգեցնում է արհեստական բանականության մշակողների դեմ բարձր մակարդակի դատական հայցերի ալիքի:
Մեծ տվյալների բանավեճը. Արդար օգտագործում, թե՞ անօրինական խաղ։
Իրավական վեճի հիմքում ընկած է այն հարցը, թե արդյոք արհեստական բանականությանը հեղինակային իրավունքով պաշտպանված տվյալների վրա մարզելը խախտում է համարվում: Ստեղծագործներն ու հրատարակիչները պնդում են, որ իրենց աշխատանքը պատճենվում և օգտագործվում է առևտրային արտադրանք ստեղծելու համար՝ առանց իրենց թույլտվության կամ որևէ փոխհատուցման: Նրանք դա համարում են իրենց ապրուստի միջոցների ուղղակի սպառնալիք:
Դատարանի մյուս կողմում արհեստական բանականության մշակողները հաճախ պնդում են, որ այս գործընթացը փոխակերպող է։ Նրանք պնդում են, որ արհեստական բանականությունը ոչ միայն անգիր է սովորում և վերարտադրում բովանդակությունը, այլև սովորում է հիմքում ընկած օրինաչափությունները՝ ճիշտ այնպես, ինչպես մարդ ուսանողը սովորում է տարբեր աղբյուրներից՝ առանց խախտելու դրանցից յուրաքանչյուրի իրավունքները։
Իրավական երկիմաստությունը նշանակալի է։ Մասնագետների շրջանում վերջերս անցկացված համաշխարհային հարցումը ցույց տվեց, որ 52% մտավոր սեփականության խախտումը համարել գեներատիվ արհեստական բանականության օգտագործման հիմնական ռիսկ, որը երկրորդն է միայն փաստական անճշտության ռիսկից հետո։
Այս իրավական անորոշությունը ստեղծում է ուղղակի պատասխանատվության ռիսկեր ոչ միայն արհեստական բանականության մշակողների, այլև իրենց չաթբոտները տեղակայող բիզնեսների համար։ Եթե մոդելը մարզվել է սխալ աղբյուրներից ստացված տվյալների հիման վրա, ձեր կազմակերպությունը կարող է ենթարկվել իրավական մարտահրավերների՝ պարզապես արհեստական բանականության արդյունքն օգտագործելու և տարածելու համար։
Ձեր պատասխանատվության հասկացումը. Պատասխանատվության շղթան
Երբ դուք ձեր գործողությունների մեջ ինտեգրում եք երրորդ կողմի չաթբոտ, դուք դառնում եք պատասխանատվության շղթայի օղակ։ Պատասխանատվությունը միայն արհեստական բանականության մշակողի վրա չի սահմանափակվում։ Դիտարկեք հետևյալ հնարավոր ձախողման կետերը.
- Ուսուցման տվյալների խախտում. Արհեստական ինտելեկտի մշակողը օգտագործել է հեղինակային իրավունքով պաշտպանված աշխատանքներ առանց լիցենզիայի, ինչը հիմնարար մոդելը ենթարկել է իրավական պահանջների։
- Արդյունքի խախտում՝ Չաթբոտը ստեղծում է բովանդակություն, որը էապես նման է իր հեղինակային իրավունքով պաշտպանված ուսումնական տվյալներին, ստեղծելով խախտման նոր դեպք։
- Փոխհատուցման բացթողումներ՝ Արհեստական ինտելեկտի մատակարարի հետ ձեր պայմանագիրը կարող է բավարար չափով չպաշտպանել ձեզ երրորդ կողմի հեղինակային իրավունքի խախտման պահանջներից, ինչը ձեր բիզնեսը ֆինանսապես խոցելի կդարձնի։
Հիմնական եզրակացությունն այն է, որ անտեղյակությունը պաշտպանություն չէ: Արհեստական բանականության գործիքի պարզապես օգտագործումը՝ առանց դրա տվյալների ծագումը հասկանալու, ռիսկային ռազմավարություն է: Անհրաժեշտ է իրականացնել պատշաճ ուսումնասիրություն և պահանջել թափանցիկություն ձեր արհեստական բանականության մատակարարներից՝ իրենց ուսուցման տվյալների և լիցենզավորման պրակտիկայի վերաբերյալ: Սեփականության նրբությունների մեջ ավելի խորը ուսումնասիրության համար կարող եք ավելին իմանալ... երբ բովանդակությունը համարվում է հանրային՝ հեղինակային իրավունքի մասին օրենքի համաձայն մեր մանրամասն ուղեցույցում։
Կառուցվելով ամուր իրավական հիմքի վրա
Այսպիսով, ինչպե՞ս կարող եք կողմնորոշվել այս բարդ միջավայրում: Առաջ շարժվելու ամենապատասխանատու ուղին ներառում է հեղինակային իրավունքի պահպանման նախաձեռնողական մոտեցում: Սա սկսվում է ձեր արհեստական բանականության մատակարարներին դժվար հարցեր տալուց՝ նրանց տվյալների աղբյուրների վերաբերյալ: Մատակարարը, որը թափանցիկ է իր լիցենզավորման և տվյալների կառավարման հարցում, շատ ավելի անվտանգ գործընկեր է:
Ավելին, բիզնեսները պետք է ուսումնասիրեն արհեստական ինտելեկտի գործիքներ, որոնք մարզվում են լիցենզավորված կամ բաց աղբյուրներից ստացված տվյալների բազաների վրա: Սա ապահովում է, որ մոդելը կառուցված լինի ամուր իրավական հիմքի վրա սկզբից ի վեր:
Քանի որ արհեստական ինտելեկտի գործիքների իրավական ապագան ձևավորվում է, մաքուր տվյալների շարքի ապացուցումը կդառնա կարևորագույն մրցակցային առավելություն: Խոսքը միայն դատական հայցերից խուսափելու մասին չէ, այլ վստահելի և կայուն արհեստական ինտելեկտի լուծումների ստեղծման մասին է: Զրույցը... չաթբոտներ, հեղինակային իրավունք և համապատասխանություն տեսական բանավեճից անցնում է գործնական բիզնես անհրաժեշտության։
ԵՄ արհեստական բանականության մասին օրենքի ռիսկերի շրջանակի ուսումնասիրություն
ԵՄ արհեստական բանականության մասին օրենքը պարզապես ևս մեկ կանոնակարգ չէ, որը պետք է ավելացվի կանոնակարգին. այն ներկայացնում է արհեստական բանականության կառավարման ձևի հիմնարար փոփոխություն: Չաթբոտ օգտագործող ցանկացած բիզնեսի համար ռիսկերի վրա հիմնված մոտեցման հետ ծանոթանալը այժմ համապատասխանության ռազմավարության անբաժանելի մասն է:
Կարևոր է նշել, որ օրենքը բոլոր արհեստական ինտելեկտները նույն կերպ չի դիտարկում։ Դրա փոխարեն, այն համակարգերը դասակարգում է տարբեր մակարդակների՝ հիմնվելով դրանց վնաս պատճառելու ներուժի վրա։
Պատկերացրեք դա որպես տրանսպորտային միջոցների անվտանգության չափորոշիչներ: Հեծանիվը շատ քիչ կանոններ ունի, մեքենան՝ ավելի շատ, իսկ վտանգավոր նյութեր տեղափոխող բեռնատարը ենթարկվում է աներևակայելի խիստ վերահսկողության: «Արհեստական բանականության մասին» օրենքը նույն տրամաբանությունն է կիրառում տեխնոլոգիայի նկատմամբ՝ ապահովելով, որ կարգավորման մակարդակը համապատասխանի ռիսկի մակարդակին: Այս շրջանակը արհեստական բանականության գործիքների իրավական ապագայի անկյունաքարն է:
Այս աստիճանական համակարգը նշանակում է, որ նախքան հեղինակային իրավունքի նման բաների մասին անհանգստանալը, ձեր առաջին գործը կլինի պարզել, թե որտեղ է տեղավորվում ձեր չաթբոտը։ Այս սխալ գործելը կարող է հանգեցնել կամ անիմաստ համապատասխանության ծախսերի, կամ, ավելի վատը՝ լուրջ իրավական պատժամիջոցների՝ ձեր պարտավորությունները չկատարելու համար։
Հասկանալով չորս ռիսկի մակարդակները
ԵՄ արհեստական բանականության մասին օրենքը ստեղծում է չորս առանձին կատեգորիաներ, որոնցից յուրաքանչյուրն ունի իր սեփական կանոնների ամբողջությունը։ Չաթբոտների դասակարգումը կախված է նրանից, թե ինչպես և ինչու են դրանք օգտագործվում։
- Անընդունելի ռիսկ. Սա վերաբերում է արհեստական բանականության համակարգերին, որոնք համարվում են մարդկանց անվտանգության, կենսապահովման և իրավունքների համար ակնհայտ սպառնալիք։ Այն ներառում է համակարգեր, որոնք մանիպուլացնում են մարդկային վարքագիծը կամ օգտագործվում են կառավարությունների կողմից սոցիալական գնահատման համար։ Սրանք ԵՄ-ում ամբողջությամբ արգելված են։
- Բարձր ռիսկի. Սա արհեստական բանականության ամենաբարդ և կարգավորվող կատեգորիան է, որը դեռևս թույլատրվում է։ Չաթբոտները հայտնվում են այստեղ, եթե դրանք օգտագործվում են կարևորագույն ոլորտներում, որտեղ կարող են լուրջ ազդեցություն ունենալ մեկի կյանքի կամ հիմնարար իրավունքների վրա՝ պատկերացրեք արհեստական բանականության օգտագործումը հավաքագրման, վարկային գնահատման կամ որպես բժշկական սարքավորման մեջ։
- Սահմանափակ ռիսկ. Այս խմբի չաթբոտները պետք է համապատասխանեն թափանցիկության հիմնական կանոններին: Հիմնական պահանջն այն է, որ օգտատերերին պետք է տեղեկացվի, որ նրանք խոսում են արհեստական բանականության հետ: Սա նրանց թույլ է տալիս տեղեկացված որոշում կայացնել զրույցը շարունակելու վերաբերյալ: Ընդհանուր հաճախորդների սպասարկման բոտերի մեծ մասը ընկնում է այս կատեգորիայի մեջ:
- Նվազագույն ռիսկ. Այս մակարդակը ներառում է արհեստական ինտելեկտի համակարգեր, որոնք քիչ կամ ընդհանրապես ռիսկ չեն ներկայացնում: Լավ օրինակներ են սպամի ֆիլտրերը կամ տեսախաղերում արհեստական ինտելեկտը: Օրենքն այստեղ որևէ կոնկրետ իրավական պարտավորություններ չի սահմանում, չնայած խրախուսում է կամավոր վարքագծի կանոնագրքերը:
Բարձր ռիսկի համակարգերը և դրանց խիստ պարտավորությունները
Եթե ձեր չաթբոտը դասակարգվում է որպես բարձր ռիսկային, դուք հենց նոր ակտիվացրեցիք համապատասխանության մի շարք պարտականություններ: Սրանք առաջարկություններ չեն, դրանք պարտադիր պահանջներ են, որոնք մշակվել են անվտանգությունը, արդարությունը և հաշվետվողականությունն ապահովելու համար:
Բարձր ռիսկի արհեստական բանականության կարգավորման հիմնական գաղափարը վստահելիությունն է: Կարգավորող մարմինները պահանջում են, որ այս համակարգերը չլինեն «սև արկղեր»: Դրանք պետք է լինեն թափանցիկ, կայուն և ունենան իմաստալից մարդկային վերահսկողություն՝ վնասակար հետևանքները կանխելու համար, նախքան դրանք տեղի կունենան:
Բարձր ռիսկի արհեստական ինտելեկտի պարտավորությունները լայնածավալ են, և դուք պետք է նախաձեռնող լինեք։ Ճիշտ իրավական համապատասխանություն և ռիսկերի կառավարում կարևոր են այս պահանջները առանց խոչընդոտների հաղթահարելու համար: Ավելի խորը ուսումնասիրության համար դիտեք մեր ուղեցույցը արդյունավետ իրավական համապատասխանության և ռիսկերի կառավարման ռազմավարություններ.
Ավելի հստակեցնելու համար ստորև բերված աղյուսակը ցույց է տալիս, թե ինչպես կարող են տարբեր չաթբոտային հավելվածները դասակարգվել ԵՄ արհեստական բանականության մասին օրենքի համաձայն և որոնք կլինեն դրանց համապատասխանության հիմնական բեռը։
ԵՄ արհեստական բանականության մասին օրենքը չաթբոտների կիրառման ռիսկի մակարդակների մասին
ԵՄ ռիսկերի վրա հիմնված շրջանակը նախատեսված է համամասնական վերահսկողություն կիրառելու համար, ինչը նշանակում է, որ բիզնեսի պարտավորությունները ուղղակիորեն կապված են նրանց արհեստական ինտելեկտի կիրառման կողմից ներկայացվող հնարավոր վնասի հետ։ Ահա գործնականում, թե ինչպես է դա վերլուծվում չաթբոտների տարածված սցենարների համար։
| Ռիսկի մակարդակ | Չաթբոտի օրինակ | Հիմնական համապատասխանության պարտավորություն |
|---|---|---|
| Նվազագույն ռիսկ | Բլոգում չաթբոտ, որը պատասխանում է գրառումների կատեգորիաների վերաբերյալ հիմնական հարցերին։ | Հատուկ պարտավորություններ չկան, առաջարկվում են կամավոր վարքագծի կանոններ։ |
| Սահմանափակ ռիսկ | Հաճախորդների սպասարկման չաթբոտ էլեկտրոնային առևտրի կայքի համար, որը զբաղվում է վերադարձներով։ | Պետք է հստակորեն բացահայտվի, որ օգտատերը փոխազդում է արհեստական բանականության համակարգի հետ։ |
| Բարձր ռիսկային | Չաթբոտ, որն օգտագործվում է աշխատանքի դիմորդներին նախնական զննելու կամ ֆինանսական վարկային խորհրդատվություն տրամադրելու համար։ | Պարտադիր համապատասխանության գնահատում, տվյալների հուսալի կառավարում և մարդկային վերահսկողություն։ |
| Անընդունելի ռիսկ | Չաթբոտ, որը նախատեսված է որոշակի խմբի խոցելիությունները շահագործելու համար՝ ֆինանսական շահույթ ստանալու համար։ | Արգելված է և ամբողջությամբ արգելված է ԵՄ շուկայից։ |
Վերջիվերջո, ձեր արհեստական բանականության գործիքների չափումը այս շրջանակի հետ առաջին կարևոր քայլն է: Այս վերլուծությունը կսահմանի ձեր հետագա ուղին՝ ձևավորելով ամեն ինչ՝ տվյալների կառավարման քաղաքականությունից մինչև մարդկային վերահսկողության արձանագրություններ: Այն թույլ է տալիս ձեզ համապատասխանեցնել ձեր նորարարությունը Եվրոպայի կարևորագույն օրենսդրությանը՝ ապահովելով ձեր մոտեցումը... չաթբոտներ, հեղինակային իրավունք և համապատասխանություն հիմնված է կայուն և կայուն իրավական հիմքի վրա։
Թափանցիկության և մարդկային վերահսկողության իրականացում
Կարո՞ղ են ձեր օգտատերերը և կարգավորող մարմինները իսկապես վստահել ձեր չաթբոտի պատասխաններին: Այս հարցը ուղղակիորեն վերաբերում է արհեստական բանականության հաջորդ խոշոր իրավական մարտադաշտին՝ թափանցիկությանը և մարդկային վերահսկողությանը: Անթափանցիկ, «սև արկղի» արհեստական բանականության մոդելները արագորեն դառնում են լուրջ խնդիր բիզնեսների համար՝ թե՛ Նիդեռլանդներում, թե՛ ամբողջ ԵՄ-ում:
Կարգավորող մարմինները այլևս չեն բավարարվում արհեստական ինտելեկտի համակարգերով, որոնք պարզապես պատասխաններ են տալիս առանց որևէ բացատրության: Նրանք այժմ պահանջում են, որ բիզնեսները բարձրացնեն իրենց «կապոտը» և ցույց տան, թե ինչպես է իրականում աշխատում իրենց արհեստական ինտելեկտը, հատկապես, երբ դրա որոշումները ազդում են մարդկանց կյանքի վրա: Խոսքը միայն համապատասխանության վանդակը նշելու մասին չէ, այլ ձեր օգտատերերի հետ իրական վստահություն կառուցելու մասին է:
Սև արկղի արհեստական բանականության խնդիրը
«Սև արկղի» արհեստական բանականությունը մի համակարգ է, որտեղ նույնիսկ դրա ստեղծողները չեն կարող լիովին բացատրել, թե ինչու է այն կայացրել որոշակի որոշում: Կարգավորող մարմինների համար այդ թափանցիկության բացակայությունը լուրջ կարմիր դրոշ է: Այն բացում է դուռը թաքնված կողմնակալությունների, անբացատրելի սխալների և հիմնարար իրավունքները ոտնահարող որոշումների համար:
Բիզնեսի համար նման մոդելի վրա հույսը դնելը մեծ ռիսկ է։ Եթե ձեր չաթբոտը վնասակար խորհուրդներ է տալիս կամ խտրական արդյունքներ է տալիս, ասելը, որ չգիտեք, թե ինչու է դա տեղի ունեցել, պարզապես չի կարող իրավական պաշտպանություն լինել։ Ապացուցման բեռը ուղղակիորեն ընկնում է արհեստական բանականությունը կիրառողի ուսերին։
Դրանից առաջ անցնելու համար կազմակերպությունները պետք է ներդնեն թափանցիկության գործնական միջոցառումներ: Սրանք այլևս պարզապես «լավագույն փորձ» չեն. դրանք արագորեն դառնում են իրավական անհրաժեշտություն:
- Հստակ բացահայտում. Միշտ տեղեկացրեք օգտատերերին, երբ նրանք խոսում են չաթբոտի, այլ ոչ թե անձի հետ։ Սա ԵՄ արհեստական բանականության մասին օրենքի հիմնարար պահանջ է համակարգերի մեծ մասի համար։
- Բացատրելի արդյունքներ՝ Որտեղ հնարավոր է, ներկայացրեք որոշակի պատկերացում այն մասին, թե ինչու է չաթբոտը տվել որոշակի պատասխան։ Դա կարող է լինել պարզապես նրա տվյալների աղբյուրները մեջբերելը կամ դրա հետևած պատճառաբանությունը ուրվագծելը։
- Հասանելի քաղաքականություններ՝ Ձեր արհեստական բանականության կառավարման և տվյալների օգտագործման քաղաքականությունը պետք է հեշտ լինի օգտատերերի համար գտնելու և, նույնքան կարևոր է, հասկանալու համար։
Սա պարզապես տեսություն չէ, այն գործնականում կիրառվում է ազգային մակարդակով: Նիդեռլանդներում պետական մարմինները բարձրացնում են իրենց համակարգված կառավարումը՝ արհեստական բանականության համապատասխանությունը լուրջ ընդունելու համար: Օրինակ՝ Նիդեռլանդների հետազոտական տվյալների ենթակառուցվածքը (RDI) խորհուրդ է տվել հիբրիդային վերահսկողության մոդել: Այս մոտեցումը համատեղում է Նիդեռլանդների տվյալների պաշտպանության մարմնի կողմից կենտրոնացված վերահսկողությունը մասնագիտացված, ոլորտային մարմինների հետ՝ թափանցիկության և մարդկային վերահսկողության ուշադիր հետևման համար: Դուք կարող եք ավելի մանրամասն տեղեկություններ ստանալ... Նիդեռլանդներում արհեստական բանականության վերահսկողության այս համակարգված մոտեցումը.
Մարդկային միջամտության կարևորագույն դերը
Բացի պարզապես թափանցիկ լինելուց, կարգավորող մարմիններն այժմ պարտադրում են իմաստալից մարդկային միջամտությունԳաղափարը պարզ է. արհեստական ինտելեկտի կողմից կայացվող բարձր ռիսկային որոշումների համար մարդը պետք է պահպանի վերահսկողությունը։ Մարդը ցիկլում պարզապես անվտանգության ցանց չէ. այն իրավական պահանջ է արհեստական ինտելեկտի բարձր ռիսկայնության բազմաթիվ կիրառությունների համար։
Մարդու կողմից արհեստական բանականության առաջարկության վրա «հաստատել» կոճակը սեղմելը՝ առանց դա հասկանալու, իմաստալից վերահսկողություն չէ: Իրական միջամտությունը պահանջում է, որ մարդ-վերահսկիչն ունենա արհեստական բանականության որոշումը չեղյալ համարելու համար անհրաժեշտ լիազորությունները, կարողությունները և տեղեկատվությունը:
Սա բացարձակապես կարևոր է այնպիսի ոլորտներում, ինչպիսիք են ֆինանսները, հավաքագրումը և իրավաբանական ծառայությունները: Պատկերացրեք չաթբոտ, որը մերժում է մեկին վարկ տրամադրել: Իմաստալից մարդկային վերահսկողությունը կնշանակեր, որ որակավորված անձը պետք է վերանայի արհեստական բանականության գնահատականը, ստուգի հիմնական գործոնները և կայացնի վերջնական որոշումը: Նույն տրամաբանությունը գործում է նաև ձեր կազմակերպության ներսում: Տվյալների վերահսկիչների և մշակողների դերերի հետ ծանոթանալը հիմնարար քայլ է այս վերահսկողության մեխանիզմները կառուցելու գործում: Դուք կարող եք գտնել մեր ուղեցույցը հետևյալի վերաբերյալ: GDPR-ի համաձայն վերահսկիչի և մշակողի դերերի միջև տարբերությունը օգտակար է այստեղ։
Իրական աշխարհի հետևանքները հսկայական են, հատկապես, երբ նայում եք այնպիսի գործիքների, ինչպիսիք են՝ Turnitin-ի ChatGPT-ը հայտնաբերելու ունակությունը, որտեղ մարդկային դատողությունը կենսական նշանակություն ունի արհեստական բանականության կողմից պայմանավորված գրագողության մասին հաղորդագրությունները մասնագիտական և կրթական համատեքստում մեկնաբանելու համար։
Վերջին հաշվով, ձեր արհեստական բանականության ռազմավարության մեջ ամուր թափանցիկության և մարդկային վերահսկողության ներդրումը անվիճելի է: Այն է, թե ինչպես են առաջատար ընկերությունները վայելում օգտատերերի վստահությունը և գոհացնում կարգավորող մարմիններին՝ ապացուցելով, որ իրենց մոտեցումը... չաթբոտներ, հեղինակային իրավունք և համապատասխանություն և՛ հաշվետու է, և՛ պատասխանատու։
Սովորելով իրական աշխարհի համապատասխանության ձախողումներից
Մի բան է տեսականորեն խոսել համապատասխանության ռիսկերի մասին, բայց բոլորովին այլ բան է տեսնել դրանց պայթեցումը իրական աշխարհում: Այս պահերը ամենաարժեքավոր դասերն են տալիս: Խաչմերուկը չաթբոտներ, հեղինակային իրավունք և համապատասխանություն Սա միայն ակադեմիական հանելուկ չէ. այն ունի շատ իրական հետևանքներ, հատկապես, երբ գործ ունեք զգայուն հանրային գործընթացների հետ: Այս առումով հզոր օրինակ է բերվում ուղիղ Նիդեռլանդներից՝ ծառայելով որպես խիստ նախազգուշացում այն մասին, թե ինչ է պատահում, երբ արհեստական բանականությունը կիրառվում է առանց իսկապես խիստ, անաչառ փորձարկումների:
Այս պատմությունը կենտրոնանում է արհեստական բանականության չաթբոտների վրա, որոնք նախատեսված են մարդկանց օգնելու իրենց ընտրական քվեների հարցում: Չնայած թվացյալ պատշաճ պաշտպանության միջոցներով ստեղծված լինելուն, այս գործիքները զարմանալիորեն ձախողվել են չեզոք խորհուրդներ տալու հարցում: Սա հասարակական կյանքում անթափանց ալգորիթմների թաքնված վտանգների կատարյալ օրինակ է:
Ալգորիթմական կողմնակալության դեպք
Նիդեռլանդների տվյալների պաշտպանության մարմինը (DPA) որոշեց հետաքննություն սկսել, և այն, ինչ նրանք հայտնաբերեցին, խորապես խնդրահարույց էր։ Վարչությունը բացահայտեց կողմնակալության հստակ օրինաչափություն այս ընտրական չաթբոտներում. նրանք անհամաչափորեն խորհուրդ էին տալիս ընդամենը երկու կոնկրետ քաղաքական կուսակցություն։ Եթե դուք ձախակողմյան կողմնորոշում ունեցող ընտրող էիք, խորհուրդը գրեթե միշտ GroenLinks-PvdA էր։ Եթե դուք աջակողմյան կողմնորոշում ունեիք, ձեզ ուղղորդում էին դեպի PVV-ն։
Այս աներևակայելի նեղ ուշադրության կենտրոնում արդյունավետորեն ջնջվեցին բազմաթիվ այլ քաղաքական կուսակցություններ զրույցից՝ ընտրողներին տալով աղավաղված և թերի պատկերացում իրենց իրական տարբերակների մասին: Այս ձախողումը դասագրքային օրինակ է այն բանի, թե որքան հեշտությամբ կարող է արհեստական բանականությունը, նույնիսկ օգտակար առաքելություն ունեցողը, արդյունքում ստանալ կողմնակալ և բևեռացնող արդյունքներ: Դուք կարող եք կարդալ ամբողջական վերլուծությունը հետևյալ հղումով: DPA-ի զեկույցը արհեստական բանականության և ալգորիթմական ռիսկերի վերաբերյալ.
Դեմոկրատական կուսակցության զեկույցը կարևոր հիշեցում է այն մասին, որ բարի մտադրությունները պարզապես բավարար չեն: Երբ արհեստական բանականությունը ազդում է այնպիսի հիմնարար բանի վրա, ինչպիսին ընտրություններն են, նրա չեզոքությունը չի կարող լինել պարզապես ենթադրություն. այն պետք է ապացուցելի լինի: Այս միջադեպը ընդգծում է այն լուրջ իրավական և հեղինակության վնասը, որը սպասում է թերի արհեստական բանականության համակարգերի ստեղծողներին:
Այս աղմկահարույց խառնաշփոթը ստիպեց Նիդեռլանդների Դեմոկրատական կուսակցությանը (ԴԴԿ) կոշտ դիրքորոշում ընդունել։ Իշխանությունը կտրուկ նախազգուշացում տվեց քաղաքացիներին՝ խորհուրդ տալով չօգտագործել այս համակարգերը ընտրական որոշումներ կայացնելու համար։
Ավելի կարևոր է, որ ՀԴԿ-ն պաշտոնապես դասակարգեց ընտրություններին ազդող արհեստական բանականության գործիքները որպես բարձր ռիսկային ԵՄ արհեստական բանականության մասին օրենքի շրջանակներում։ Սա պարզապես ապտակ չէ։ Այս դասակարգումը առաջացնում է եվրոպական օրենսդրությամբ նախատեսված ամենախիստ համապատասխանության պահանջները՝ այս գործիքները դնելով լայնածավալ կարգավորիչ մանրադիտակի տակ։
Հիմնական դասեր ձախողումից
Այս գործի հետևանքները մեզ հստակ ուղեցույց են տալիս այն մասին, թե ինչ չպետք է անել զգայուն իրավիճակների համար արհեստական բանականություն ստեղծելիս։ Այս գործիքների իրավական ապագան կձևավորվի նման նախադեպերով՝ ստիպելով մշակողներին և բիզնեսներին առաջնահերթություն տալ արդարությանը և թափանցիկությանը։
Առանձնանում են մի քանի կարևոր դասեր՝
- Խիստ փորձարկումը բանակցելի չէ. Մինչև մեկնարկը, ձեր թեստավորումը պետք է շատ ավելի լայն լինի, քան պարզապես ֆունկցիոնալության ստուգումներ։ Այն պետք է ակտիվորեն որոնի թաքնված կողմնակալությունները և խտրական արդյունքների հնարավորությունը օգտատիրոջ մուտքագրումների լայն շրջանակում։
- Չեզոքությունը պետք է ստուգելի լինի. Բավարար չէ պարզապես ասել, որ ձեր արհեստական բանականությունը չեզոք է։ Մշակողները պետք է կարողանան ցույց տալ և փաստաթղթավորել ալգորիթմական արդարությունն ապահովելու և ապացուցելու համար ձեռնարկված քայլերը, որոնք կօգնեն ձեզ որոշակի արդյունքներ չառաջարկել մյուսների նկատմամբ։
- Բարձր ռիսկը նշանակում է բարձր պատասխանատվություն. Բարձր ռիսկի ոլորտում գործող ցանկացած չաթբոտ, օրինակ՝ քաղաքականության, ֆինանսների կամ առողջապահության ոլորտներում, կենթարկվի չափազանց բարձր չափանիշների։ Սխալ թույլ տալու համար նախատեսված իրավական և ֆինանսական պատժամիջոցները խիստ են։
Այս ուսումնասիրությունը իրական աշխարհի վտանգների հզոր օրինակ է։ Քանի որ կազմակերպությունները շտապում են չաթբոտներ ինտեգրել իրենց գործունեության մեջ, նրանք պետք է սովորեն այդ սխալներից։ Հակառակ դեպքում, նրանք դատապարտված են կրկնել դրանք։
Ապագային դիմակայող արհեստական բանականության կառավարման ռազմավարության կառուցում
Երբ գործ ունեք արհեստական բանականության հետ, համապատասխանության նկատմամբ ռեակտիվ մոտեցումը պարտվողական խաղ է։ Արհեստական բանականության գործիքների իրավական դաշտը փոխվում է մեր ոտքերի տակ, և առաջատար մնալու համար ձեզ անհրաժեշտ է նախաձեռնողական շրջանակ, որը պատասխանատվություն է ներդնում մշակման և տեղակայման յուրաքանչյուր փուլում։ Խոսքը ստուգաթերթիկի վանդակները նշելու մասին չէ, այլ կայուն համակարգ ստեղծելու մասին, որը կարող է հարմարվել կանոնների զարգացմանը զուգընթաց։
Սա նշանակում է, որ դուք պետք է անցնեք անկանոն լուծումներից այն կողմ և մշակեք արհեստական բանականության կառավարման պաշտոնական ծրագիր: Մտածեք այս ծրագրի մասին որպես ձեր կազմակերպության կենտրոնական նյարդային համակարգի՝ արհեստական բանականության հետ կապված ամեն ինչի համար: Այն ապահովում է, որ իրավական և էթիկական սկզբունքները լինեն ոչ միայն երկրորդական միտք, այլև ձեր նորարարությունների հիմնական մասը: Նպատակն է ստեղծել մի կառուցվածք, որը ոչ միայն կպաշտպանի ձեր բիզնեսը, այլև կստեղծի իրական վստահություն ձեր օգտատերերի մոտ:
Դիմացկուն շրջանակի հիմնական սյուները
Արհեստական բանականության կառավարման ամուր ռազմավարությունը կառուցված է մի քանի հիմնական հենասյուների վրա։ Դրանցից յուրաքանչյուրը լուծում է չաթբոտների, հեղինակային իրավունքի և համապատասխանության հետ կապված ռիսկերի որոշակի ոլորտ՝ ձևավորելով համապարփակ պաշտպանություն ցանկացած հնարավոր իրավական մարտահրավերի դեմ։
- Ընթացիկ ռիսկերի գնահատումներ. Դուք պետք է պարբերաբար գնահատեք ձեր արհեստական բանականության գործիքները ԵՄ արհեստական բանականության մասին օրենքի ռիսկի մակարդակների համեմատ: Սկզբնական գնահատումը պարզապես բավարար չէ: Քանի որ ձեր չաթբոտի հնարավորությունները ընդլայնվում են կամ դրա օգտագործման դեպքերը փոխվում են, դրա ռիսկի պրոֆիլը կարող է փոխվել՝ հանկարծակի առաջացնելով նոր իրավական պարտավորություններ:
- Տվյալների ուժեղ կառավարում. Կիրառեք խիստ արձանագրություններ ձեր արհեստական ինտելեկտի մարզման և գործարկման համար օգտագործվող տվյալների համար: Սա ներառում է ձեր տվյալների ստացման աղբյուրի ստուգումը՝ հեղինակային իրավունքի խախտման ռիսկերը կանխելու և անձնական տվյալների մշակման բոլոր գործընթացները լիովին համապատասխանեցնելու համար:
- Ալգորիթմական թափանցիկություն և փաստաթղթավորում. Պահպանեք ձեր արհեստական ինտելեկտի մոդելների մանրակրկիտ գրառումները: Սա պետք է ներառի մարզման տվյալները, որոշումների կայացման տրամաբանությունը և բոլոր փորձարկման արդյունքները: Այս փաստաթղթային հետքը բացարձակապես կարևոր է համապատասխանությունը ցույց տալու և ձեր չաթբոտի վարքագիծը կարգավորող մարմիններին բացատրելու համար, եթե նրանք ձեզ թակեն:
- Մարդկային վերահսկողության հստակ արձանագրություններ. Սահմանեք և փաստաթղթավորեք իմաստալից մարդկային միջամտության ընթացակարգերը: Սա նշանակում է նշել, թե ով է պատասխանատու արհեստական բանականության վերահսկման համար, ինչ որակավորումներ ունեն նրանք և ինչ հանգամանքներում նրանք պետք է միջամտեն և անտեսեն համակարգի արդյունքները:
Սկզբունքներից մինչև պրակտիկա
Այս շրջանակը գործողության մեջ դնելը պահանջում է մտածելակերպի փոփոխություն՝ պարզապես օգտագործելով Արհեստական բանականությունը պատասխանատու կերպով կառավարող դա։ Սա ենթադրում է ներքին քաղաքականության ստեղծում, որը ձեր կազմակերպության բոլոր աշխատակիցները՝ մշակողներից մինչև մարքեթինգային թիմը, հասկանում և հետևում են։ Իրապես առաջ անցնելու համար արժե ուսումնասիրել այն։ արհեստական բանականության կառավարման համապարփակ ռազմավարություններ որոնք վերաբերում են արհեստական բանականության գործիքների ողջ կյանքի ցիկլին։
Արհեստական բանականության կառավարման արդյունավետ ռազմավարությունը կենդանի փաստաթուղթ է, այլ ոչ թե միանվագ նախագիծ։ Այն պետք է պարբերաբար վերանայվի և թարմացվի՝ արտացոլելու նոր իրավական նախադեպերը, տեխնոլոգիական առաջընթացները և հասարակության փոփոխվող սպասումները։
Վերջիվերջո, այս սկզբունքները ձեր գործունեության մեջ խորը ներդնելով, դուք կարող եք վստահորեն նորարարություններ մտցնել: Ապագային ուղղված ռազմավարությունը ապահովում է, որ դուք ոչ միայն համապատասխանում եք այսօրվա օրենքներին, այլև պատրաստ եք վաղվա կարգավորող մարտահրավերներին: Այն համապատասխանությունը բեռից վերածում է իրական մրցակցային առավելության:
Հաճախակի տրվող հարցեր
Երբ չաթբոտները, հեղինակային իրավունքը և համապատասխանությունը հանդիպում են, հասկանալի է, որ կոնկրետ հարցեր են առաջանում ինչպես բիզնեսների, այնպես էլ մշակողների համար: Այս բաժինը անդրադառնում է ամենատարածված հարցերից մի քանիսին՝ ձեզ տալով արագ ակնարկ մեր կողմից քննարկված հիմնական իրավական սկզբունքների վերաբերյալ:
Ո՞վ է պատասխանատու, եթե չաթբոտը խախտում է հեղինակային իրավունքը։
Չաթբոտի կողմից հեղինակային իրավունքի խախտման համար պատասխանատվության հարցը բարդ հարց է, և պատասխանն այն է, որ դա հաճախ համատեղ պատասխանատվություն է։ Սովորաբար մեղքը ընկնում է և՛ գործիքը մշակող արհեստական բանականության մշակողի, և՛ այն օգտագործող կազմակերպության վրա։ ԵՄ և Նիդեռլանդների օրենսդրության համաձայն, մշակողները կարող են հայտնվել դժվարին իրավիճակում՝ իրենց մոդելներին մարզելու համար հեղինակային իրավունքով պաշտպանված նյութ օգտագործելու համար՝ նախապես համապատասխան թույլտվություններ չստանալով։
Միևնույն ժամանակ, չաթբոտ օգտագործող բիզնեսը կարող է պատասխանատվություն կրել արհեստական բանականության կողմից արտադրվող և տարածվող ցանկացած խախտող բովանդակության համար: Այս ռիսկից խուսափելու համար կարևոր է, որ բիզնեսները պնդեն, որ արհեստական բանականության մատակարարները թափանցիկություն ապահովեն ուսուցման տվյալների աղբյուրների վերաբերյալ: Մեկ այլ կարևոր պաշտպանիչ շերտ է մատակարարների հետ կնքված պայմանագրերում փոխհատուցման հստակ կետերի ապահովումը:
Արդյո՞ք GDPR-ը վերաբերում է չաթբոտների կողմից մշակվող տվյալներին։
Այո, անկասկած։ Եթե ձեր չաթբոտը մշակում է ԵՄ-ում գտնվող անձանց անձնական տվյալներ, օրինակ՝ անուններ, էլեկտրոնային փոստի հասցեներ կամ նույնիսկ զրույցի տվյալներ, որոնք կարող են նույնականացնել մեկին, ապա GDPR-ը կիրառվում է ամբողջությամբ.
Սա անմիջապես ուժի մեջ է մտցնում մի քանի հիմնական պարտականություններ.
- Դուք պետք է ունենաք տվյալների մշակման հստակ, օրինական պատճառ։
- Դուք պետք է օգտատերերին հստակ տեղեկացնեք, թե ինչպես են օգտագործվում իրենց տվյալները։
- Դուք պետք է հավաքեք միայն այն տվյալները, որոնք բացարձակապես անհրաժեշտ են (տվյալների նվազագույնի հասցնելը).
- Դուք պարտավոր եք հարգել օգտատիրոջ իրավունքները, ներառյալ նրանց տվյալները տեսնելու կամ ջնջելու իրավունքը։
Այս պարտականությունների նկատմամբ աչք փակելը տարբերակ չէ: Չկատարելը կարող է հանգեցնել հսկայական տուգանքների՝ մինչև Ձեր ընկերության տարեկան համաշխարհային շրջանառության 4%-ը- և լուրջ վնաս հասցնել ձեր հեղինակությանը։
Ո՞րն է մեր չաթբոտի համապատասխանությունը ապահովելու առաջին քայլը։
Ամենակարևոր առաջին քայլը ԵՄ արհեստական բանականության մասին օրենքի շրջանակի հիման վրա մանրակրկիտ ռիսկի գնահատում անցկացնելն է: Դուք պետք է պարզեք, թե որտեղ է տեղավորվում ձեր չաթբոտը՝ հիմնվելով նրա գործառույթների և պատճառած հնարավոր վնասի վրա: Այս գործընթացը այն կդասակարգի որոշակի կատեգորիայի մեջ, ինչպիսիք են՝ նվազագույն, սահմանափակ կամ բարձր ռիսկի:
Օրինակ, պարզ Հաճախակի տրվող հարցերի բոտը, որը պատասխանում է միայն հիմնական հարցերին, հավանաբար կդիտարկվի որպես ցածր ռիսկի գործիք՝ շատ քիչ պարտավորություններով: Այնուամենայնիվ, աշխատանքի դիմորդներին ստուգելու, բժշկական տեղեկատվություն տրամադրելու կամ ֆինանսական խորհրդատվություն առաջարկելու համար օգտագործվող չաթբոտը գրեթե անկասկած կդասակարգվի որպես բարձր ռիսկի: Այս դասակարգումն է, որը թելադրում է ձեր կոնկրետ իրավական պարտականությունները թափանցիկության, տվյալների կառավարման և մարդկային վերահսկողության վերաբերյալ՝ ըստ էության ձեզ տալով հստակ ուղեցույց ձեր ամբողջ համապատասխանության ռազմավարության համար: