ներկայացված պատկեր a76d8fb2 9f26 4531 83c3 70dc2787f425

Արհեստական ​​բանականությունը և քրեական իրավունքը. Ո՞վ է պատասխանատու, երբ մեքենան հանցագործություն է կատարում։

Երբ արհեստական ​​բանականության համակարգը ներքաշվում է հանցագործության մեջ, օրենքը մատը չի թափ տալիս մեքենայի վրա։ Դրա փոխարեն, քրեական պատասխանատվությունը կապված է մարդկային գործողի հետ— լինի դա օգտատերը, ծրագրավորողը, թե արտադրողը, ով կամ վերահսկողություն ուներ արհեստական ​​բանականության գործողությունների նկատմամբ, կամ էլ չէր կարողանում կանխել դրա պատճառած վնասը։

Արհեստական ​​բանականության և քրեական պատասխանատվության բացահայտումը

Ստեղնաշարի վրա դրված մուրճ, որը խորհրդանշում է իրավունքի և տեխնոլոգիայի հատման կետը։
Արհեստական ​​բանականությունը և քրեական իրավունքը. Ո՞վ է պատասխանատու, երբ մեքենան հանցագործություն է կատարում: 7

Պատկերացրեք սա. արհեստական ​​ինտելեկտով աշխատող առաքման անօդաչու թռչող սարքը անսարք է դառնում, շեղվում է իր ծրագրավորված ուղղությունից և լուրջ վթարի պատճառ դառնում: Քրեական մեղադրանքներ են առաջադրվում: Բայց ո՞վ կամ ի՞նչն է իրականում պատասխանատու:

Դատարանները չեն կարող հետապնդել անօդաչու թռչող սարքի դեպքը։ ​​Մեր ամբողջ իրավական համակարգը կառուցված է մարդկային մտադրության և գործողությունների շուրջ։ Այս հիմնարար խնդիրը մեզ ստիպում է պարզել ալգորիթմի շերտերը և գտնել այն անձին, որի որոշումները կամ անփութությունը հանգեցրել են վնասակար արդյունքի։

Քրեական գործի կենտրոնական հենասյունը օրենք հասկացությունն է mens reaկամ «մեղավոր միտք»։ Հանցագործության մեջ մեղավոր ճանաչվելու համար անձը պետք է ունենա մեղավոր մտածելակերպ, լինի դա դիտավորյալ, անխոհեմ, թե անփույթ։ Արհեստական ​​բանականությունը, անկախ նրանից, թե որքան բարդ է, պարզապես չունի գիտակցություն, հույզեր կամ իրական մտադրության ունակություն։ Այն աշխատում է կոդի և տվյալների, այլ ոչ թե բարոյական կողմնացույցի հիման վրա։

Քանի որ արհեստական ​​բանականությունը չի կարող ձևավորել «մեղավոր միտք», այն չի կարող քրեական պատասխանատվության ենթարկվել գործող իրավական շրջանակների համաձայն։ Ուշադրության կենտրոնում անխուսափելիորեն գործիքից (արհեստական ​​բանականությունից) անցնում է գործիքի օգտագործողին կամ ստեղծողին։

Այս շրջադարձը իրավական ուշադրության կենտրոնում է դնում արհեստական ​​բանականության կյանքի ցիկլում ներգրավված մարդկանց։ Արհեստական ​​բանականությունը և քրեական պատասխանատվությունը ճիշտ կերպով բացահայտելու համար կարևոր է դառնում հասկանալ, թե ինչպես են մարդիկ կառավարում այս համակարգերը, ներառյալ այնպիսի բաներ, ինչպիսիք են՝ արագ ինժեներիայի բարդությունները.

Մեքենայի հետևում թաքնված մարդու բացահայտումը

Երբ դատարանը խորանում է արհեստական ​​բանականության հետ կապված հանցագործության մեջ, նրա առաջին գործը մարդկային գործունեության շղթան հետևելն է և պարզելը, թե իրականում որտեղ է պատասխանատվությունը։ Կախված գործի առանձնահատկություններից՝ մի քանի տարբեր կողմեր ​​կարող են պատասխանատվության ենթարկվել։

Որպեսզի պարզաբանվի, թե որտեղ կարող է ընկնել պատասխանատվությունը, ստորև բերված աղյուսակում ներկայացված են հիմնական մարդկային դերակատարները և նրանց պատասխանատվության ենթարկելու իրավական հիմնավորումները։

Արհեստական ​​բանականության գործողությունների համար մարդկային հաշվետվողականության քարտեզագրում

Հավանական պատասխանատու կողմ Իրավական պատասխանատվության հիմքը Նկարազարդ սցենար
Օգտատեր/Օպերատոր Արհեստական ​​բանականության ուղղակի օգտագործումը որպես հանցագործություն կատարելու գործիք. հստակ հանցավոր մտադրություն։ Անհատը օգտագործում է արհեստական ​​ինտելեկտի գործիք՝ համոզիչ ֆիշինգային էլեկտրոնային նամակներ ստեղծելու և լայնածավալ խաբեություն իրականացնելու համար։
Ծրագրավորողը/Մշակողը Կոպիտ անփութություն նախագծման կամ չարամիտ հնարավորությունների դիտավորյալ կառուցման մեջ։ Մշակողը ստեղծում է ինքնավար առևտրային բոտ՝ անզգուշորեն անտեսելով շուկայի մանիպուլյացիայի կանոնները, ինչը հանգեցնում է փլուզման։
Արտադրողը/Ընկերությունը Կորպորատիվ անփութություն. թերի ապրանքի գիտակցաբար վաճառք՝ առանց պատշաճ պաշտպանության միջոցների։ Տեխնոլոգիական ընկերությունը շուկայահանում է ինքնավար մեքենա՝ գիտակցելով, որ իր ծրագրային ապահովումն ունի կարևոր, չշտկված թերություն, որը կարող է վթարների պատճառ դառնալ։
Սեփականատերը Արհեստական ​​​​ինտելեկտի համակարգի պատշաճ պահպանման, վերահսկողության կամ անվտանգության չկատարումը։ Ինքնավար անվտանգության դրոնի սեփականատերը չի կարողանում տեղադրել անհրաժեշտ անվտանգության թարմացումները, և անսարքության պատճառով այն վնասվածք է պատճառում անցորդին։

Ինչպես տեսնում եք, պատասխանատվության թեկնածուները սովորաբար բաժանվում են մի քանի հիմնական կատեգորիաների: Չնայած տեխնոլոգիան նոր է, իրավական սկզբունքները հաճախ լավ հաստատված են:

Վերջին հաշվով, օրենքը փորձում է պատասխանել մի պարզ, հիմնարար հարցի. որ մարդն ուներ իրավասություն և հնարավորություն կանխելու հանցագործության տեղի ունենալը։ Այդ անձին նույնականացնելով՝ իրավական համակարգը կարող է կիրառել քրեական պատասխանատվության հաստատված սկզբունքները, նույնիսկ երբ գործը ներառում է այսօրվա ամենաբարդ տեխնոլոգիաները։

Ավանդական օրենքների կիրառումը ժամանակակից արհեստական ​​ինտելեկտի հանցագործությունների նկատմամբ

Երբ հանցագործության մեջ ներգրավված է արհեստական ​​բանականության նման նոր տեխնոլոգիա, կարող եք մտածել, որ մեր դարավոր իրավական համակարգերը լիովին անպատրաստ են։ Սակայն իրականում դատարանները զրոյից չեն սկսում։ Նրանք հարմարեցնում են առկա իրավական դոկտրինները՝ պարզելու համար, թե ով է պատասխանատու, երբ մեքենան հանցագործություն է կատարում, փաստորեն փնտրելով «վարագույրի ետևում գտնվող մարդուն»։

Այս մոտեցումը նշանակում է արհեստական ​​բանականության քառակուսի խարիսխը տեղադրել ավանդական քրեական իրավունքի կլոր անցքի մեջ։ Արհեստական ​​բանականության համար բոլորովին նոր օրենքներ հորինելու փոխարեն, իրավական համակարգը պատասխանատվության հաստատված սկզբունքներ է կիրառում այդ ինտելեկտուալ համակարգերը ստեղծող, տեղակայող և վերահսկող մարդկանց նկատմամբ։ Ուշադրության կենտրոնում մնում է մարդկային գործոնը, նույնիսկ երբ գործողությունները կատարում է ալգորիթմը։

Ֆունկցիոնալ կատարման վարդապետությունը

Այս բացը լրացնելու համար օգտագործվող հիմնական հասկացությունը, հատկապես Նիդեռլանդների նման իրավասություններում, հետևյալն է. ֆունկցիոնալ կատարումՄտածեք այսպես. եթե ինչ-որ մեկը մուրճ է օգտագործում հանցագործություն կատարելու համար, մենք պատասխանատու ենք համարում անձին, այլ ոչ թե մուրճին։ Ֆունկցիոնալ կատարումը պարզապես տարածում է այս տրամաբանությունը բարձր առաջադեմ գործիքների վրա, այդ թվում՝ արհեստական ​​բանականության վրա։

Այս դոկտրինի համաձայն, անձը կարող է դիտվել որպես արհեստական ​​բանականության կողմից կատարված հանցագործության «գործառնական կատարող», եթե նա ուներ մեքենայի վարքագիծը որոշելու լիազորություն և ընդունում էր հանցագործության հնարավորության ռիսկը: Այս շրջանակը կենսական նշանակություն ունի, քանի որ շատ դեպքերում հոլանդական օրենսդրությունը չունի արհեստական ​​բանականության համակարգերի համար քրեական պատասխանատվության հատուկ դրույթներ: Դրա փոխարեն, արհեստական ​​բանականության հետ կապված պատասխանատվությունը լուծելու համար օգտագործվում են ընդհանուր շրջանակներ, որտեղ ֆունկցիոնալ կատարումը մարդուն պատասխանատվություն վերագրելու հիմնական գործիքն է:

Սա նշանակում է, որ օրենքը հաշվի է առնում երկու հիմնական տարր.

  1. Power: Արդյո՞ք անհատն ուներ իրավասություն կամ կարողություն վերահսկելու կամ դադարեցնելու արհեստական ​​բանականության գործողությունները։
  2. Ընդունում ` Արդյո՞ք նրանք գիտակցաբար ընդունեցին այն ռիսկը, որ արհեստական ​​բանականության վարքագիծը կարող է հանգեցնել հանցավոր հետևանքների։

Եթե ​​երկուսին էլ կարող եք պատասխանել «այո», արհեստական ​​բանականության հետևում կանգնած անձը կարող է քրեական պատասխանատվության ենթարկվել, կարծես ինքն է կատարել այդ արարքը։

Կորպորատիվ քրեական պատասխանատվություն

Պատասխանատվության որոնումները չեն սահմանափակվում անհատներով։ Երբ ընկերության կողմից տեղադրված արհեստական ​​բանականության համակարգը վնաս է պատճառում, ամբողջ կազմակերպությունը կարող է պատասխանատվության ենթարկվել հետևյալ սկզբունքի համաձայն։ կորպորատիվ քրեական պատասխանատվություն.

Սա գործի է դրվում, երբ հանցագործությունը կարող է վերագրվել ընկերության մշակույթին, քաղաքականությանը կամ ընդհանուր անփութությանը։ Օրինակ, եթե ընկերությունը արհեստական ​​բանականությամբ աշխատող ֆինանսական առևտրային բոտ է շտապեցնում շուկա՝ անորակ անվտանգության թեստավորմամբ, և այն ի վերջո մանիպուլյացիաներ է անում շուկայի հետ, ապա ընկերությունը կարող է քրեական մեղադրանքների ենթարկվել։

Իրավական պատճառաբանությունն այստեղ այն է, որ արհեստական ​​բանականության գործողությունները արտացոլում են կազմակերպության կոլեկտիվ որոշումներն ու առաջնահերթությունները: Պատշաճ վերահսկողություն չիրականացնելը կամ կորպորատիվ մշակույթը, որը շահույթը անվտանգությունից վեր է դասում, կարող է բավարար հիմք լինել պատասխանատվության համար:

Սա ապահովում է, որ ընկերությունները չեն կարող պարզապես թաքնվել իրենց ալգորիթմների ետևում՝ կանխատեսելի վնասի պատասխանատվությունից խուսափելու համար։ Համակարգչային և կիբեռհանցագործություններին վերաբերող իրավական շրջանակը Նիդեռլանդներում առաջարկում է ավելի խորը ուսումնասիրություն այն մասին, թե ինչպես են կազմակերպությունները պատասխանատվության ենթարկվում թվային հանցագործությունների համար։

Արտադրանքի պատասխանատվությունը քրեական իրավունքում

Մեկ այլ լավ հաստատված իրավական ուղի է արտադրանքի պատասխանատվությունԹեև մենք սա սովորաբար կապում ենք քաղաքացիական գործերի հետ, օրինակ՝ անսարք տոստերի պատճառով հրդեհի դեպքում, դրա սկզբունքները կարող են անկասկած կիրառվել քրեական համատեքստում։

Եթե ​​արտադրողը գիտակցաբար կամ անփութորեն թողարկում է վտանգավոր թերություն ունեցող արհեստական ​​ինտելեկտի արտադրանք, և այդ թերությունն ուղղակիորեն հանգեցնում է հանցագործության, նա կարող է քրեական պատասխանատվության ենթարկվել։ Պատկերացրեք ինքնավար անվտանգության անօդաչու թռչող սարք, որը նախագծված է ագրեսիվ «հետապնդման» ալգորիթմով, որը չի կարող տարբերակել իրական սպառնալիքները անմեղ անցորդներից։

Եթե ​​արտադրողը տեղյակ լիներ այս թերության մասին, բայց այնուամենայնիվ վաճառեր ապրանքը, և անօդաչու թռչող սարքը վնասվածք հասցներ մեկին, նա կարող էր քրեական պատասխանատվության ենթարկվել անփութության կամ անզգուշության համար: Սա արտադրողներից պահանջում է բարձր չափանիշներ՝ ստիպելով նրանց ապահովել, որ իրենց արհեստական ​​բանականության համակարգերը ոչ միայն գործունակ լինեն, այլև բավականաչափ անվտանգ լինեն իրենց նախատեսված օգտագործման և ցանկացած կանխատեսելի չարաշահման համար: Իր էությամբ օրենքը հարցնում է, թե արդյոք քրեական արդյունքը ապրանքի դիզայնի կանխատեսելի հետևանք էր:

Երբ արհեստական ​​բանականության համակարգերը վնաս են պատճառում իրական աշխարհին

Մոխրագույն երկնքի տակ հանդիսավոր տեսքով կառավարական շենք, որը արտացոլում է Նիդեռլանդների մանկական խնամքի նպաստների սկանդալի լուրջ բնույթը։
Արհեստական ​​բանականությունը և քրեական իրավունքը. Ո՞վ է պատասխանատու, երբ մեքենան հանցագործություն է կատարում: 8

Իրավական դոկտրինները կարող են թվալ վերացական, մինչև որ դրանք չեն բախվում իրականությանը։ Երբ արհեստական ​​բանականության համակարգը սխալ է թույլ տալիս, հետևանքները միայն տեսական չեն. դրանք կարող են լինել ավերիչ՝ կործանելով կյանքեր և խարխլելով հանրային վստահությունը։ Խաղադրույքները իսկապես հասկանալու համար մենք պետք է անցնենք հասկացություններից այն կողմ և նայենք այն դեպքին, երբ ալգորիթմի որոշումները ազգային ճգնաժամ են առաջացրել։

Հենց սա է տեղի ունեցել Նիդեռլանդներում՝ մանկական նպաստների սկանդալի հետ կապված, որը հայտնի է որպես… «Տոեսլագենաֆաեր»Սա վառ, հզոր օրինակ է այն բանի, թե ինչպես արհեստական ​​բանականությունը, երբ վատ է նախագծված և անվերահսկելի է մնում, կարող է հսկայական մարդկային տառապանք պատճառել։ Այս ուսումնասիրությունը հիմք է հանդիսանում ամբողջ բանավեճի համար։ Արհեստական ​​բանականությունը և քրեական իրավունքը համակարգային ձախողման շոշափելի, անմոռանալի պատմության մեջ։

Աղետների համար նախատեսված համակարգ

Սկանդալը սկսվեց հոլանդական հարկային մարմինների կողմից օգտագործվող ինքնուսուցանվող ալգորիթմից: Դրա նպատակը բավականին պարզ էր՝ մատնանշել երեխայի խնամքի նպաստ ստացող ընտանիքների շրջանում հնարավոր խարդախությունը: Սակայն իրականացումը աղետալի էր: Ալգորիթմը լիարժեք «սև արկղ» էր, որի որոշումների կայացման գործընթացը առեղծված էր նույնիսկ այն պաշտոնյաների համար, ովքեր ապավինում էին դրան:

Անհատական ​​դեպքերը արդարացիորեն գնահատելու փոխարեն, ալգորիթմը հազարավոր ծնողների մատնանշեց որպես խարդախներ, հաճախ՝ աննշան վարչական սխալների համար: Հետևանքները արագ և դաժան էին: Ընտանիքներին հրամայվեց վերադարձնել տասնյակ հազարավոր եվրոներ, սովորաբար առանց հստակ պատճառի կամ բողոքարկման արդար հնարավորության: Մարդիկ կորցրեցին իրենց տները, աշխատանքները և խնայողությունները: Կյանքեր կործանվեցին:

Այս համակարգային անսարքությունը բացահայտեց ալգորիթմական կողմնակալության և անթափանց որոշումների կայացման թաքնված վտանգները: Դա միայն տեխնիկական խափանում չէր. դա մարդկային աղետ էր, որը պայմանավորված էր թերի տեխնոլոգիայով և վերահսկողության բացակայությամբ:

«Toeslagenaffaire»-ը դարձավ հայտնի օրինակ այն բանի, թե ինչպես ինքնուսուցանող արհեստական ​​բանականությունը կարող է կայացնել կողմնակալ, սխալ որոշումներ՝ իրական աշխարհի համար լուրջ հետևանքներով։ Ի պատասխան՝ Նիդեռլանդների կառավարությունը հրատարակեց «Նախագծով խտրականության դեմ ձեռնարկը» 2021, պնդելով ալգորիթմական ավելի մեծ թափանցիկության և հիմնարար իրավունքների պահպանման վրա՝ նման աղետի կրկնությունը կանխելու համար։

Պատասխանատվության անպատասխան հարցը

Սկանդալը ստիպեց ցավոտ ազգային քննարկում սկսել. ո՞վ է իրականում պատասխանատու, երբ մեքենայի գործողությունները հանգեցնում են նման լայնածավալ վնասի: Դուք չեք կարող դատի տալ ալգորիթմին, բայց դրա որոշումները անհերքելի վնաս են պատճառել: Դրա բարձրացրած իրավական և էթիկական հարցերն այժմ կենտրոնական են արհեստական ​​բանականության կառավարման ապագայի համար:

  • Ալգորիթմական կողմնակալություն. Համակարգը, կարծես, անհամաչափորեն թիրախավորում էր կրկնակի քաղաքացիություն ունեցող ընտանիքներին՝ առաջացնելով լուրջ հարցեր խտրականության վերաբերյալ: Կարո՞ղ է ալգորիթմը խտրական լինել, և ո՞վ է պատասխանատու, երբ դա այդպես է:
  • Թափանցիկության բացակայություն. Պաշտոնյաները չկարողացան բացատրել ինչու Ալգորիթմը նշումներ էր անում որոշակի ընտանիքների վրա, ինչը զոհերի համար անհնար էր դարձնում իրենց պաշտպանելը: Այս անորոշությունը պաշտպանում էր համակարգի թերությունները ցանկացած իրական ուսումնասիրությունից:
  • Մարդու հրաժարումը. Առավել մտահոգիչ, թերևս, «ավտոմատացման կողմնակալության» ակնհայտ դեպքն էր՝ մարդկանց միտումը չափազանց շատ վստահելու և կուրորեն ընդունելու ավտոմատացված համակարգերի արդյունքը։ Պետական ​​ծառայողները վստահում էին ալգորիթմի դատավճիռներին, ինչը սկիզբ էր դնում անարդար մեղադրանքների մի ամբողջ շարքի։

Թեև այս գործը հիմնականում հանգեցրեց վարչական և քաղաքացիական հետևանքների, այն ընդգծում է նույն հաշվետվողականության բացերը, որոնք խանգարում են քրեական իրավունքի բանավեճին: Այլ ինքնավար համակարգերի հետ զուգահեռները հստակ են, ինչպես երևում է այս գործի շուրջ առկա իրավական մարտահրավերներից: վիճահարույց ինքնագնաց մեքենաների վթարներ, որտեղ մեղքը վերագրելը նույնքան բարդ է։

Նիդեռլանդներում մանկական խնամքի հետ կապված սկանդալը մեզ հիշեցնում է, որ երբ մենք որոշումները վստահում ենք արհեստական ​​բանականությանը, պատասխանատվությունը ոչ միայն չի վերանում։ Այն ցրվում և մթագնում է, այլև, ի վերջո, մնում է այդ հզոր համակարգերը նախագծող, տեղակայող և վերահսկող մարդկանց վրա։

Ինչպես են համաշխարհային կանոնակարգերը զսպում բարձր ռիսկի արհեստական ​​բանականությունը

Փոխկապակցված հանգույցների և գծերի թվային պատկերազարդում, որը կազմում է համաշխարհային ցանց և խորհրդանշում է միջազգային արհեստական ​​բանականության կանոնակարգերը։
Արհեստական ​​բանականությունը և քրեական իրավունքը. Ո՞վ է պատասխանատու, երբ մեքենան հանցագործություն է կատարում: 9

Քանի որ արհեստական ​​բանականությունն ավելի կարողունակ է դառնում, աշխարհի կառավարությունները վերջապես քննարկումներից անցնում են վճռական գործողությունների: Արհեստական ​​բանականությանը տեխնոլոգիական վայրի արևմուտքի պես վերաբերվելու օրերը հստակորեն հաշված են: Նախաձեռնողական կարգավորման համար զգալի ջանքեր են գործադրվում՝ նպատակ ունենալով սահմանել հստակ իրավական պաշտպանիչ պատնեշներ՝ նախքան որևէ անդառնալի վնասի առաջացումը:

Այս համաշխարհային շարժումը նորարարությունը խիստ արգելքներով խեղդելու մասին չէ: Փոխարենը, կարգավորող մարմինները իմաստուն կերպով ընդունում են նրբերանգային մոտեցում: ռիսկի վրա հիմնված մոտեցումԿարող եք պատկերացնել դա այնպես, ինչպես մենք կարգավորում ենք տրանսպորտային միջոցները. մենք չենք արգելում բոլոր մեքենաները, բայց մենք ունենք աներևակայելի խիստ կանոններ հզոր մրցարշավային մոդելների և ծանր բեռնատարների համար, քանի որ դրանց վնաս հասցնելու ներուժը շատ ավելի մեծ է: Նույն կերպ, արհեստական ​​բանականության նոր կանոնակարգերը թիրախավորում են որոշակի բարձր ռիսկային կիրառություններ՝ միաժամանակ թույլ տալով, որ ցածր ռիսկային կիրառությունները ծաղկեն:

Այս մղումը գլխավորում է Եվրոպական Միության խորհրդանշական կետը AI ActԱյս օրենսդրությունը ճանապարհին է դառնալու համաշխարհային չափանիշ՝ արհեստական ​​բանականության համակարգերը դասակարգելով կատեգորիաների՝ հիմնվելով վնաս պատճառելու դրանց ներուժի վրա և համապատասխանաբար կիրառելով կանոնները։ Սա պրագմատիկ ռազմավարություն է, որը մշակված է քաղաքացիներին պաշտպանելու համար՝ առանց խեղդելու տեխնոլոգիական առաջընթացը։

Կարմիր գծերի գծում, որոնք արգելում են անընդունելի արհեստական ​​բանականությունը

ԵՄ արհեստական ​​բանականության մասին օրենքը և նմանատիպ շրջանակները վերաբերում են ոչ միայն ռիսկերի կառավարմանը, այլև ավազի վրա կոշտ էթիկական սահմաններ գծելուն: Արհեստական ​​բանականության որոշ կիրառություններ համարվում են այնքան վտանգավոր մեր հիմնարար իրավունքների համար, որ դրանք ամբողջությամբ արգելվում են օրենքից: Սրանք այն համակարգերն են, որոնք կարգավորող մարմինների կարծիքով՝ ներկայացնում են «անընդունելի ռիսկ»:

Արգելված արհեստական ​​բանականության այս կատեգորիան ներառում է տեխնոլոգիաներ, որոնք արմատապես հակասում են ժողովրդավարական արժեքներին և մարդկային արժանապատվությանը: Ամբողջ իմաստն այն է, որ կանխվի ամենաանճաշակ սցենարների իրականություն դառնալը:

Արգելված գործողությունների ցանկը կոնկրետ է և նպատակային.

  • Մանիպուլյատիվ տեխնոլոգիաներ. Ցանկացած համակարգ, որն օգտագործում է ենթագիտակցական տեխնիկա՝ անձի վարքագիծը այնպես աղավաղելու համար, որ կարող է նրան ֆիզիկական կամ հոգեբանական վնաս պատճառել, խստիվ արգելվում է։
  • Սոցիալական գնահատման համակարգեր. Պետական ​​մարմինների կողմից «սոցիալական գնահատման» համար օգտագործվող արհեստական ​​բանականությունն արգելված է, այսինքն՝ մարդկանց վստահելիությունը գնահատելու կամ դասակարգելու համար՝ հիմնվելով նրանց սոցիալական վարքագծի կամ անձնական հատկանիշների վրա։
  • Խոցելիության շահագործում. Արգելվում է նաև օգտագործել արհեստական ​​բանականություն, որը շահագործում է որոշակի խմբերի խոցելիությունները՝ պայմանավորված նրանց տարիքով կամ որևէ ֆիզիկական կամ մտավոր հաշմանդամությամբ։

Այս արգելքները անհերքելի ուղերձ են հղում. որոշ տեխնոլոգիական ուղիներ պարզապես չափազանց վտանգավոր են դրանցից օգտվելու համար։ Դրանք դիպչում են բանավեճի էությանը։ Արհեստական ​​բանականությունը և քրեական իրավունքը կանխելով չարամիտ կամ ճնշող նպատակների համար բնածին կերպով նախագծված համակարգերի տեղակայումը։

Իրական աշխարհի ազդեցությունը Նիդեռլանդներում

Այս կանոնակարգերը ապագայի համար նախատեսված վերացական հասկացություններ չեն. դրանք հենց հիմա ունեն իրենց շոշափելի ազդեցությունը։ Օրինակ՝ Նիդեռլանդներում կառավարությունը շտապել է համաձայնվել ԵՄ ուղղությանը։

2025 թվականի սկզբից ի վեր Նիդեռլանդները արգելքներ է սահմանել որոշակի արհեստական ​​բանականության համակարգերի նկատմամբ՝ ռիսկերը վերահսկելու համար, մասնավորապես՝ քրեական իրավունքի և պետական ​​հատվածի կիրառություններում: Սա ներառում է հանցագործությունների համար արհեստական ​​բանականության վրա հիմնված կանխատեսողական ռիսկերի գնահատման արգելքը, որը նախկինում կիրառվում էր կանխատեսողական ոստիկանության մեջ:

Նիդեռլանդների կազմակերպությունները պարտավոր էին փուլ առ փուլ վերացնել այս արգելված արհեստական ​​բանականության գործիքները մինչև… Փետրվար 2025թ․ կամ կարող են լուրջ տուգանքներ ստանալ կարգավորող մարմինների կողմից։ Այս վճռական գործողությունը ցույց է տալիս, թե որքան լուրջ են կառավարությունները վերաբերվում բարձր ռիսկի արհեստական ​​բանականությանը՝ ստեղծելով հստակ իրավական հրամայական բիզնեսների համար՝ համապատասխանելու համար։ Դուք կարող եք ավելին իմանալ կոնկրետի մասին։ Նիդեռլանդների կառավարությունն արգելել է արհեստական ​​բանականության կիրառումը և թե ինչպես են դրանք ազդում կազմակերպությունների վրա։

Բիզնեսների և մշակողների համար եզրակացությունը պարզ է. այս նոր կարգավորող միջավայրի ըմբռնումը և դրան հարմարվելը այլևս ընտրովի չէ: Իրավական դաշտը ամրապնդվում է, և չկատարման համար նախատեսված պատժամիջոցները խիստ են՝ այն, ինչը նախկինում էթիկական նկատառումները վերածում է կոնկրետ բիզնես ռիսկերի: Այս կանոններին հետևելը այժմ ցանկացած արհեստական ​​բանականության համակարգի ներդրման կարևորագույն մասն է կազմում:

Առաջ նայելով. արհեստական ​​բանականությունը հաշվետու պահելու նոր եղանակներ

Քանի որ արհեստական ​​բանականությունը դառնում է ավելի ու ավելի ինքնավար, մեր առկա իրավական ձեռնարկները սկսում են հնացած թվալ: Հին մեթոդները՝ պարզապես մատնացույց անել մարդ օգտատիրոջը կամ սկզբնական ծրագրավորողին, պարզապես չեն արդարացնում, երբ արհեստական ​​բանականությունը սկսում է ինքնուրույն որոշումներ կայացնել: Այս իրականությունը ստիպում է իրավաբանական մտածողներին տալ բավականին դժվար հարց. ի՞նչ է հաջորդը:

Զրույցը տեղափոխվում է դեպի պատասխանատվության իսկապես նոր մոդելներ, որոնք կառուցված են առաջադեմ արհեստական ​​բանականության եզակի մարտահրավերների համար: Այստեղ մենք չենք խոսում փոքր փոփոխությունների մասին: Սա հիմնարար վերանայում է այն մասին, թե ինչ է նշանակում մեղքը վերագրել, երբ գործողության հետևում կանգնած «միտքը» բարդ ալգորիթմ է: Այս գաղափարները ձևավորում են արդարադատության ապագան մի աշխարհում, որն օրեցօր ավելի ավտոմատացված է դառնում:

Էլեկտրոնային անհատականության շուրջ վիճահարույց բանավեճը

Սեղանին դրված ամենահամարձակ և ամենավիճահարույց գաղափարներից մեկը էլեկտրոնային անհատականությունՀայեցակարգը որոշակի առաջադեմ արհեստական ​​ինտելեկտին սահմանափակ իրավական կարգավիճակ շնորհելն է, ինչպես որ կորպորացիային վերաբերվում են որպես «իրավաբանական անձ»։ Խոսքը արհեստական ​​ինտելեկտին մարդու իրավունքներ տալու մասին չէ։ Փոխարենը, խոսքը մի կազմակերպության ստեղծման մասին է, որը կարող է տիրապետել սեփականության, կնքել պայմանագրեր և, ամենակարևորը, պատասխանատվություն կրել իր պատճառած վնասների համար։

Պատկերացրեք լիովին ինքնավար արհեստական ​​բանականության ներդրումային ֆոնդ, որը շուկայի փլուզում է առաջացնում որևէ անկանխատեսելի առևտրային ռազմավարությամբ: Էլեկտրոնային անհատականության դեպքում արհեստական ​​բանականությունն ինքը կարող է պատասխանատվության ենթարկվել, իսկ դրա ակտիվները կարող են օգտագործվել կորցրածներին փոխհատուցելու համար: Այն պատասխանատվության թիրախ է ստեղծում, երբ ակնհայտորեն ոչ մի մարդ մեղավոր չէ:

Այնուամենայնիվ, գաղափարը լուրջ դիմադրության է բախվում։

  • Բարոյական վտանգ. Քննադատները մտահոգված են, որ սա բանտից ազատման քարտ է։ Կարո՞ղ են մշակողներն ու ընկերությունները պարզապես մեղադրել իրենց արհեստական ​​ինտելեկտի ստեղծագործությունները՝ պատասխանատվությունից խուսափելու համար։ Սա իրական ռիսկ է։
  • Էթիկական մտահոգություններ. Շատերի համար մեքենային որևէ տեսակի անհատականություն շնորհելը հատում է վտանգավոր փիլիսոփայական սահման՝ մշուշոտելով մարդու և տեխնոլոգիայի միջև եղած տարբերությունը։
  • Գործնականություն. Տեսականորեն լավ է հնչում, բայց ինչպե՞ս է այն իրականում աշխատելու։ Ինչպե՞ս է արհեստական ​​բանականությունը տուգանք վճարում կամ «պատիժ կրում»։ Ոչ մարդկային էակին պատժելու իրական մարտահրավերները հսկայական են։

Բաշխված պատասխանատվություն մատակարարման շղթայի ողջ տարածքում

Ավելի գործնական և տարածված մոդել է բաշխված պատասխանատվությունՄեկ մեղավոր փնտրելու փոխարեն, այս մոտեցումը պատասխանատվությունը բաշխում է արհեստական ​​բանականության ստեղծման և տեղակայման մեջ ներգրավված բոլոր անձանց վրա: Պատկերացրեք դա որպես խոշոր շինարարական վթար. մեղքը կարող է կիսվել ճարտարապետի, նյութերի մատակարարի, շինարարական ընկերության և շինհրապարակի ղեկավարի միջև:

Երբ արհեստական ​​բանականությունը ձախողվում է, մեղքը կարող է բաժանվել մի քանի կողմերի միջև.

  1. Տվյալների մատակարարը՝ Եթե ​​նրանք տրամադրել են կողմնակալ կամ աղավաղված վերապատրաստման տվյալներ։
  2. Ալգորիթմի մշակող. Ակնհայտ, կանխատեսելի ռիսկերով համակարգ նախագծելու համար։
  3. Արտադրող. Արհեստական ​​բանականությունը ապրանքի մեջ տեղադրելու համար՝ առանց պատշաճ անվտանգության ստուգման։
  4. Վերջնական օգտագործողը. Համակարգը անզգույշ օգտագործելու կամ անվտանգության նախազգուշացումները անտեսելու համար։

Այս մոդելը հասկանում է, որ արհեստական ​​բանականության ձախողումները հաճախ համակարգային խնդիրներ են, որոնք ծնվում են տարբեր մարդկանց կողմից կայացված որոշումների ամբողջ շղթայից։ Այն գործընթացի բոլոր մասնակիցներին մղում է լուրջ վերաբերվել անվտանգությանը և էթիկային՝ սկզբից մինչև վերջ։

Համատեղ պատասխանատվության այս գաղափարը նոր չէ. այն արտացոլում է սկզբունքներ, որոնք մենք տեսնում ենք այլ մասնագիտական ​​ոլորտներում: Երբ մենք դիտարկում ենք, թե ինչպես կառավարել արհեստական ​​բանականությունը, արժե դիտարկել առկա շրջանակները, ինչպիսիք են՝ ակադեմիական ազնվության ուղեցույցներ, որոնք ուրվագծում են կրթության մեջ արհեստական ​​բանականության պատասխանատու օգտագործման ընդհանուր էթիկական չափանիշները։

Սև արկղի խնդրի լուծում

Հնարավոր է՝ ապագա իրավական մոդելի ամենամեծ խոչընդոտը «սև արկղի» խնդիրըԱյսօրվա ամենահզոր արհեստական ​​բանականության համակարգերից շատերը, մասնավորապես խորը ուսուցման մոդելները, աշխատում են այնպես, որ առեղծված են նույնիսկ դրանք կառուցողների համար։ Դրանք կարող են պատասխան տալ՝ առանց իրենց աշխատանքը ցուցադրելու։

Այս թափանցիկության բացակայությունը աներևակայելիորեն դժվարացնում է պարզելը ինչու Արհեստական ​​բանականությունը սխալ է թույլ տվել, որը հանգեցրել է հանցագործության: Արդյո՞ք դա նախագծման թերություն էր: Վատ տվյալներ՞, թե՞ որևէ տարօրինակ, անկանխատեսելի վարքագիծ, որը ոչ ոք չէր կանխատեսում: Առանց պատասխանների, մեղքը վերագրելը պարզապես ենթադրություն է:

Ապագայի ցանկացած գործունակ իրավական շրջանակ պետք է պահանջի ավելի մեծ թափանցիկություն: Սա նշանակում է այնպիսի հատկանիշների պահանջ, ինչպիսիք են հստակ աուդիտի հետքերը և նախագծված «բացատրելիությունը», որոնք ապահովում են, որ երբ ինչ-որ բան այնպես չի ընթանում, հետաքննողները կարողանան գոնե հետևել մեքենայի թվային հետքերին` ձախողման աղբյուրը գտնելու համար:

Արհեստական ​​բանականության իրավական ռիսկերի մեղմացման գործնական շրջանակ

Մարդու ձեռքը կառույցի վրա տեղադրում է «պատասխանատվություն» պատկերակով փայտե խորանարդիկ, որը խորհրդանշում է արհեստական ​​բանականության էթիկայի և հաշվետվողականության շրջանակի կառուցումը։
Արհեստական ​​բանականությունը և քրեական իրավունքը. Ո՞վ է պատասխանատու, երբ մեքենան հանցագործություն է կատարում: 10

Նավարկություն բարդ խաչմերուկում Արհեստական ​​բանականությունը և քրեական իրավունքը պահանջում է ոչ միայն տեսական ըմբռնում։ Այն պահանջում է նախաձեռնողական, գործնական քայլեր՝ ձեր իրավական ազդեցությունը նվազագույնի հասցնելու համար։ Արհեստական ​​բանականություն մշակող կամ տեղակայող ցանկացած կազմակերպության համար ամուր ներքին շրջանակի ստեղծումը պարզապես լավ էթիկա չէ, այլ կարևորագույն բիզնես անհրաժեշտություն՝ ապահովելու համար, որ դուք պատասխանատու չեք լինի, երբ մեքենան հանցագործություն է կատարում։

Այս շրջանակը պետք է կառուցվի երեք հիմնական հենասյուների վրա՝ թափանցիկություն, արդարություն, եւ պատասխանատվությունՄտածեք այս սկզբունքների մասին որպես ձեր ուղեցույց՝ ոչ միայն արդյունավետ, այլև իրավաբանորեն պաշտպանելի արհեստական ​​բանականության համակարգեր կառուցելու համար: Այս արժեքները ձեր մշակման կյանքի ցիկլում ներդնելով սկզբից՝ դուք ստեղծում եք հզոր պաշտպանություն անփութության կամ անզգուշության հնարավոր պնդումների դեմ:

Ձեր արհեստական ​​բանականության հաշվետվողականության ստուգաթերթիկի կազմումը

Այս սկզբունքները գործողության վերածելու համար կազմակերպությունները կարող են ներդնել կարևորագույն գործելակերպերի հստակ ստուգաթերթիկ: Այս քայլերը օգնում են ստեղծել ձեր պատշաճ ուսումնասիրության ստուգելի գրանցամատյան՝ ապացուցելով, որ դուք ձեռնարկել եք ողջամիտ միջոցներ՝ կանխատեսելի վնասը կանխելու համար:

Սկսեք այս հիմնական գործողություններից.

  • Ալգորիթմական ազդեցության գնահատումների (ԱԱԳ) իրականացում. Նախքան արհեստական ​​բանականության համակարգի տեղակայման մասին մտածելը, դուք պետք է խստորեն գնահատեք դրա հնարավոր հասարակական ազդեցությունը։ Սա ներառում է կողմնակալության, խտրական հետևանքների և քրեական պատասխանատվության հանգեցնող չարաշահման ցանկացած հնարավորության գնահատում։
  • Ստեղծեք տվյալների կայուն կառավարում. Ձեր արհեստական ​​բանականությունը լավն է այնքանով, որքանով լավն են նրա տվյալները։ Կարևոր է կիրառել խիստ արձանագրություններ՝ ապահովելու համար, որ ձեր մարզումների տվյալները ճշգրիտ, ներկայացուցչական լինեն և զերծ լինեն կողմնակալություններից, որոնք կարող են արհեստական ​​բանականությանը դրդել անօրինական որոշումներ կայացնելու։
  • Պահպանել մանրակրկիտ աուդիտի հետքեր. Վարեք արհեստական ​​բանականության գործողությունների, նրա որոշումների և տեղի ունեցող ցանկացած մարդկային միջամտության մանրամասն գրանցամատյաններ: Միջադեպի դեպքում այս գրառումները անփոխարինելի են՝ պարզելու համար, թե ինչն է սխալ ընթացել և ցույց տալու համար, թե ինչպես է համակարգը գործել:

Ռիսկերի մեղմացման ցանկացած ռազմավարության կարևորագույն բաղադրիչ է բարձր ռիսկային որոշումների համար «մարդը ցիկլում» (HITL) համակարգերի ներդրումը: Սա ապահովում է, որ մարդ-օպերատորը պահպանի վերջնական վերահսկողությունը և կարողանա անտեսել արհեստական ​​բանականությունը՝ պահպանելով հաշվետվողականության հստակ շղթա:

Մարդկային վերահսկողությունը որպես վերջնական պաշտպանություն

«Մարդը ցիկլում» մոդելը ոչ միայն տեխնիկական առանձնահատկություն է, այլև իրավական։ Կարևոր գործողությունների համար մարդկային հաստատում պահանջելով՝ կազմակերպությունը կարող է արդյունավետորեն պնդել, որ արհեստական ​​բանականությունը պարզապես բարդ գործիք է, այլ ոչ թե ինքնուրույն որոշումներ կայացնող ինքնավար գործակալ։ Այս մոտեցումը զգալիորեն ամրապնդում է այն իրավական դիրքորոշումը, որ վերջնական, վճռորոշ ընտրությունը կատարել է մարդը, այլ ոչ թե մեքենան։

Վերջին հաշվով, այս իրավական ռիսկերի մեղմացումը ենթադրում է պատասխանատվության մշակույթի ձևավորում, որը կտարածվի ամբողջ կազմակերպությունում: պատասխանատվության և վնասի փոխհատուցման պահանջներ Նիդեռլանդներում կարող է արժեքավոր համատեքստ ապահովել այս ներքին քաղաքականությունները մշակելու համար: Նպատակն է ստեղծել արհեստական ​​բանականություն, որը ոչ միայն նորարարական է, այլև թափանցիկ, էթիկական և ակնհայտորեն մարդկային վերահսկողության տակ:

Հաճախակի տրվող հարցեր արհեստական ​​բանականության և քրեական իրավունքի վերաբերյալ

Արհեստական ​​բանականության և քրեական իրավունքի հատման կետը բարդ ոլորտ է, որն այժմ լի է ավելի շատ հարցերով, քան պատասխաններով։ Քանի որ արհեստական ​​բանականությունն ավելի ու ավելի է ներծծվում մեր առօրյա կյանքում, կարևոր է հասկանալ, թե ով է պատասխանատու, երբ ինտելեկտուալ համակարգը ներգրավված է հանցագործության մեջ։ Ահա ամենատարածված հարցերից մի քանիսը, որոնց մենք հանդիպում ենք։

Կարո՞ղ է արդյոք արհեստական ​​բանականությունը դատարանում հանդես գալ որպես վկա։

Կարճ պատասխանն է՝ ոչ, գոնե ոչ ներկայիս իրավական դաշտում։ Վկայի հասկացությունը հիմնարար մարդկային է։ Վկա լինելու համար անձը պետք է կարողանա երդվել՝ խոստանալով ճշմարտությունն ասել։ Նա նաև պետք է անձնական գիտելիքներ ունենա վիճելի իրադարձությունների վերաբերյալ և կարողանա դիմակայել խաչաձև հարցաքննությանը, որտեղ մանրակրկիտ ստուգվում են նրա հիշողությունը, ընկալումը և հավաստիությունը։

Արհեստական ​​բանականությունը պարզապես չի համապատասխանում այս չափանիշներին: Այն չունի գիտակցություն, չի կարող երդվել և չունի անձնական հիշողություններ մարդկային իմաստով: Լավագույն դեպքում այն ​​կարող է ներկայացնել իր կողմից մշակված տվյալները: Սա այն դարձնում է շատ ավելի նման ապացույցի, օրինակ՝ տեսախցիկի ձայնագրության, քան իրական վկայի: Արհեստական ​​բանականության արդյունքը, անշուշտ, կարող է ներկայացվել դատարանում, բայց իրականում որպես վկա հանդես կգա մարդ-փորձագետը, որը բացատրում է այդ տվյալները:

Ո՞րն է արհեստական ​​բանականության համար քաղաքացիական և քրեական պատասխանատվության տարբերությունը։

Այս տարբերակումը կարևոր է, երբ արհեստական ​​բանականությունը վնաս է պատճառում։ Թեև քաղաքացիական և քրեական գործերը ենթադրում են իրավական պատասխանատվություն, դրանց նպատակը, ապացուցման բեռը և պատժամիջոցները բոլորովին այլ աշխարհներ են։

Ահա դրա մասին մտածելու մի պարզ ձև.

  • Քաղաքացիական պատասխանատվություն. Սա վերաբերում է զոհի վերամիավորմանը։ Ուշադրության կենտրոնում են վնասի փոխհատուցումը, ինչպիսիք են՝ ալգորիթմի անսարքությունից ֆինանսական կորուստները կամ ինքնավար տրանսպորտային միջոցի վնասվածքները։ Ապացույցի չափանիշն ավելի ցածր է՝ հաճախ «հավանականությունների հավասարակշռություն»։
  • Քրեական պատասխանատվություն. Սա վերաբերում է հասարակության դեմ ուղղված անօրինական գործողությունների համար պատժին։ Այն պահանջում է մեղքի ապացուցում «հիմնավոր կասկածից վեր»՝ շատ ավելի բարձր խոչընդոտ, և կարող է հանգեցնել խիստ պատիժների, ինչպիսիք են ազատազրկումը կամ խոշոր տուգանքները։

Երբ խոսքը արհեստական ​​բանականության մասին է, ընկերությունը կարող է քաղաքացիական հայց ներկայացնել իր արտադրանքի պատճառած վնասի համար։ Սակայն, որպեսզի քրեական մեղադրանքները ուժի մեջ մնան, դատախազը պետք է ապացուցի, որ մարդ-գործիչը «մեղավոր մտադրություն» է ունեցել (mens rea)։ Հենց սա է պատճառը, որ պատասխանատվությունը կապված է անձի հետ, այլ ոչ թե մեքենայի հետ։

Ինչպե՞ս կարող է իմ կազմակերպությունը պատրաստվել ԵՄ արհեստական ​​բանականության մասին օրենքին։

Կանոնակարգերով, ինչպիսիք են ԵՄ AI ակտ Հորիզոնում, կանոնների լիարժեք կիրառմանը սպասելը ռիսկային ռազմավարություն է: Կանոններին նախազգուշական համապատասխանությունը իրավական ռիսկերը արդյունավետորեն մեղմելու միակ միջոցն է:

Ահա մի քանի հիմնական քայլեր՝ սկսելու համար.

  1. Դասակարգեք ձեր արհեստական ​​բանականության համակարգերը. Նախ, դուք պետք է որոշեք, թե ձեր արհեստական ​​բանականության կիրառությունները որ ռիսկի կատեգորիային են պատկանում՝ անընդունելի, բարձր, սահմանափակ կամ նվազագույն: Այս դասակարգումը կորոշի ձեր կոնկրետ համապատասխանության պարտավորությունները:
  2. Իրականացնել ռիսկերի գնահատում. Բարձր ռիսկի ցանկացած համակարգի համար դուք պետք է մանրակրկիտ գնահատումներ կատարեք՝ հիմնարար իրավունքներին հասցվող հնարավոր վնասները բացահայտելու և դրանց հասցեագրելու համար: Սա պարզապես վանդակներ լրացնելու վարժություն չէ, սա ձեր համակարգի ազդեցության խորը վերլուծություն է:
  3. Ապահովել թափանցիկությունը և փաստաթղթավորումը. Պահպանեք ձեր արհեստական ​​ինտելեկտի դիզայնի, ուսուցման համար օգտագործվող տվյալների հավաքածուների և որոշումների կայացման գործընթացների մանրակրկիտ գրառումները: Այս փաստաթղթավորումը կարևոր է միջադեպի դեպքում համապատասխանությունը և հաշվետվողականությունը ցույց տալու համար:
Law & More