Սկզբից պարզ լինի. Նիդեռլանդների և ԵՄ գործող օրենսդրության համաձայն, ալգորիթմը չի կարող քրեական պատասխանատվության ենթարկվել հանցագործության համար: Դա անհիմն է: Հիմնական իրավական հասկացություններ, ինչպիսիք են հանցավոր մտադրությունը (mens rea) և իրավաբանական անձը նախատեսված է միայն մարդկանց, իսկ որոշակի դեպքերում՝ նաև կորպորացիաների համար։
Սակայն այդ պարզ պատասխանը շատ ավելի բարդ զրույցի սկիզբն է միայն։ Ալգորիթմի գործողությունները դառնում են բացարձակապես կենտրոնական՝ դրանք ստեղծող, տեղակայող և վերահսկող մարդկանց մեղքը կամ անմեղությունը ապացուցելու համար։
Կարո՞ղ է ալգորիթմը մեղավոր լինել հանցագործության մեջ։
Երբ մենք խոսում ենք արհեստական բանականության մասին քրեական աշխարհում օրենք համատեքստում իրական հարցն այն է, թե արդյոք ալգորիթմը կարող է հայտնվել մեղադրյալի աթոռին։ Իրավական առումով, այսօր պատասխանը միանշանակ «ոչ» է։ Անկախ նրանից, թե որքան բարդ է այն, ալգորիթմը պարզապես զուրկ է դատավարությանը դիմակայելու համար անհրաժեշտ հիմնարար հատկանիշներից։ Այն չունի գիտակցություն, անձնական ակտիվներ, որոնք կարող են բռնագրավվել, և ազատություն, որը կարող են խլել։
Այս իրավական իրականությունը ստիպում է ուշադրության կենտրոնում լինել գործիքից օգտագործողի վրա։ Օգտակար է մտածել, որ առաջադեմ արհեստական բանականությունը (AI) բարդ, բայց, վերջին հաշվով, անշունչ գործիք է՝ նման ինքնավար մեքենային կամ ավտոմատացված գործարանային մեքենային։ Եթե մեքենան վնաս է պատճառում, օրենքը չի հետապնդում մեքենան, այլ հետաքննում է դրա հետևում կանգնած մարդկանց։
Իրավաբանական անձի և մտադրության խոչընդոտները
Քրեական օրենսդրությունը կառուցված է երկու սյուների վրա, որոնք արհեստական բանականությունը պարզապես չի կարող բավարարել՝ իրավաբանական անձի կարգավիճակը և հանցավոր մտադրությունը: Որպեսզի որևէ կազմակերպություն ենթարկվի քրեական հետապնդման, օրենքը պետք է այն ճանաչի որպես «անձ», ինչը նշանակում է կամ ֆիզիկական անձ (մարդ), կամ իրավաբանական անձ (օրինակ՝ ընկերություն): Արհեստական բանականության համակարգերը չեն տեղավորվում ոչ մի կատեգորիայի մեջ:
Ավելի կարևոր է այն, որ լուրջ հանցագործությունների մեծ մասը պահանջում է ապացույցներ, mens rea—«մեղավոր միտք»։ Սա վերաբերում է այն բանին, որ ապացուցվի, որ մեղադրյալը գործել է որոշակի հոգեկան վիճակով՝ լինի դա մտադրություն, գիտելիք, թե անզգուշություն։ Ալգորիթմը գործում է կոդի և տվյալների հիման վրա. այն չի ձևավորում մտադրություններ կամ չի ընկալում իր գործողությունների բարոյական անարդարությունը։
Կենտրոնական դժվարությունը բխում է համակարգի՝ անկախ ընտրելու և գործելու կարողությունից, այդպիսով մարդկային մտադրության և դրա հետևանքով առաջացած վնասի միջև ոչ մարդկային գործակալի ներմուծմամբ։ Սա խաթարում է քրեական իրավունքում պատասխանատվություն վերագրելու ավանդական մոդելը։
Անմիջապես անցնելով թեմային, օրենքը բախվում է մի շարք էական խոչընդոտների՝ դարավոր իրավական սկզբունքները ինքնավար տեխնոլոգիաների վրա կիրառելու հարցում: Ստորև բերված աղյուսակը ամփոփում է հիմնական խնդիրը:
Ալգորիթմական քրեական պատասխանատվության ներկայիս վիճակը
| Իրավական հայեցակարգ | Կիրառումը մարդկանց համար | Կիրառումը արհեստական բանականության համակարգերում |
|---|---|---|
| Իրավաբանական անձ | Մարդիկ «ֆիզիկական անձինք» են՝ օրենքով սահմանված իրավունքներով և պարտականություններով։ Ընկերությունները կարող են լինել «իրավաբանական անձինք»։ | Արհեստական բանականության համակարգը համարվում է սեփականություն կամ գործիք։ Այն չունի անկախ իրավական կարգավիճակ։ |
| Հանցագործական մտադրություն (Տղամարդկանց ռեա) | Մեղադրողները պետք է ապացուցեն «մեղավոր մտքի» առկայությունը, ինչպիսիք են մտադրությունը, անզգուշությունը կամ չարագործության գիտակցումը: | Ալգորիթմը գործում է իր ծրագրավորման և մուտքային տվյալների հիման վրա։ Այն չունի գիտակցություն, համոզմունքներ կամ ցանկություններ։ |
| Ֆիզիկական գործողություն (Ակտուս Ռեուս) | Անձը պետք է կատարած լինի կամավոր ֆիզիկական գործողություն (կամ մեղավոր անգործություն): | Արհեստական բանականության «գործողությունները» կոդի արդյունք են։ Դրանք կամավոր գործողություններ չեն մարդկային իմաստով։ |
| Պատիժ | Պատժամիջոցները ներառում են ազատազրկում, տուգանքներ կամ համայնքային աշխատանքներ՝ ուղղված վրեժխնդրությանը և կանխմանը։ | Արհեստական բանականությունը չի կարող բանտարկվել կամ տուգանվել։ Կոդը «պատժելը» (օրինակ՝ այն ջնջելը) չի տեղավորվում իրավական շրջանակների մեջ։ |
Ինչպես տեսնում եք, կա հիմնարար անհամապատասխանություն։ Քրեական իրավունքի ամբողջ կառուցվածքը կառուցված է մարդկային գործունության շուրջ, որը բացակայում է արհեստական բանականության մեջ։
Վերագրվող պատասխանատվությունը որպես իրավական շրջանակ
Այսպիսով, քանի որ ալգորիթմը չի կարող մեղավոր ճանաչվել, հոլանդական օրենսդրությունը հենվում է հետևյալ հասկացության վրա։ վերագրվող պատասխանատվությունՍա պարզապես նշանակում է, որ արհեստական բանականության գործողությունների համար պատասխանատվությունը վերագրվում է կամ վերագրվում է մարդկային կամ կորպորատիվ գործողի։ Այս դեպքում արհեստական բանականության արդյունքը դառնում է կարևոր ապացույց, որը մատնանշում է մարդկային վերահսկիչների գործողությունները կամ անփութությունը։
Այս մոտեցումը հեղափոխական չէ։ Այն ուղղակիորեն արտացոլում է, թե ինչպես է օրենքը կարգավորում այլ բարդ գործիքների միջոցով կատարված հանցագործությունները։ Օրինակ, եթե ընկերությունը գիտակցաբար վաճառում է վտանգավոր թերի արտադրանք, որը վնասվածք է պատճառում, պատասխանատվություն են կրում ընկերությունը և դրա ղեկավարները, այլ ոչ թե արտադրանքը։
Այս ոլորտում կողմնորոշվող սկզբունքները համապատասխանում են հաստատված իրավական դոկտրիններին: Այս ոլորտում կողմնորոշվող իրավաբանական մասնագետների համար առկա շրջանակների լավ ըմբռնումը կարևոր մեկնարկային կետ է: Մեր մանրամասն ուղեցույցը այս թեմայի վերաբերյալ քրեական դատավարությունը Նիդեռլանդներում հիանալի ներածություն է տալիս այն մասին, թե ինչպես են այս գործերը անցնում քննությունից դեպի դատավճիռ: Այժմ մարտահրավերը նոր օրենքներ զրոյից հորինելը չէ, այլ այս ապացուցված սկզբունքները ինքնավար համակարգերի եզակի բարդություններին հարմարեցնելը:
Ինչպես է Նիդեռլանդների օրենքը մեղավոր համարում արհեստական բանականության միջոցով իրականացվող հանցագործությունները
Քանի որ ալգորիթմն ինքնին չի կարող դատվել, հոլանդական իրավական համակարգը դիմում է գոյություն ունեցող, մարդակենտրոն դոկտրիններին՝ պատասխանատվությունը պատշաճ կերպով վերագրելու համար: Այս խնդրի հիմնական իրավական գործիքը դոկտրինն է: ֆունկցիոնալ կատարում (ֆունկցիոնալ դադերշապ).
Այս հզոր սկզբունքը թույլ է տալիս դատարանին քրեական պատասխանատվության ենթարկել անձին կամ ընկերությանը այնպիսի արարքի համար, որը նրանք ֆիզիկապես չեն կատարել, քանի դեռ նրանք արդյունավետորեն վերահսկել են իրավիճակը։
Մտածեք այսպես. շինարարական ընկերության տնօրենը անձամբ չի շահագործում շինհրապարակում գտնվող բոլոր կռունկները: Բայց եթե նրանք գիտակցաբար հրամայեն օպերատորին օգտագործել անսարք կռունկ և տեղի ունենա վթար, ապա տնօրենն է պատասխանատու: Նույն տրամաբանությունը գործում է, երբ «կռունկը» բարդ արհեստական բանականության համակարգ է: Ուշադրության կենտրոնում ալգորիթմի արածից անցնում են մարդկային որոշումներին, որոնք թույլ են տվել դա տեղի ունենալ:
Սա կարևորագույն հասկացություն է արհեստական ինտելեկտի հետ աշխատող յուրաքանչյուրի համար, քանի որ այն դատախազներին ուղիղ ուղի է տալիս արհեստական ինտելեկտի վնասակար արդյունքը կապելու անձի կամ կորպորացիայի հետ։ Այն կոկիկորեն շրջանցում է ալգորիթմի «մտադրությունը» ապացուցելու անհնարին խնդիրը և փոխարենը կենտրոնանում է դրա մարդ-տիրապետողների մտադրության և անփութության վրա։
Ֆունկցիոնալ կատարման երկու թեստերը
Որպեսզի դատախազը դատարանում հաջողությամբ վիճարկի ֆունկցիոնալ կատարողականը, նա պետք է բավարարի երկու հիմնական չափանիշ։ Այս չափանիշներն այն հիմնասյուներն են, որոնք որոշում են, թե արդյոք անձը կամ ընկերությունը կարող է համարվել արհեստական բանականության միջոցով կատարված հանցագործության «ֆունկցիոնալ» հեղինակ։
-
Վերահսկողության ուժ (Բեշիկկինգսմախտ)Արդյո՞ք անհատը կամ ընկերությունն ունեին իրական լիազորություններ որոշելու, թե արդյոք տեղի կունենա արհեստական ինտելեկտի հանցավոր վարքագիծը։ Սա վերաբերում է լիազորություններին և վերահսկողությանը՝ այնպիսի բաների, ինչպիսիք են արհեստական ինտելեկտի գործունեության կանոնների սահմանումը, այն անջատելու կարողությունը կամ դրա որոշումները կարգավորող պարամետրերի սահմանումը։
-
Ընդունում (Ընդունում)Արդյո՞ք անհատը կամ ընկերությունը ընդունել է հանցավոր արարքի հնարավորության ռիսկը։ Կարևոր է, որ սա ուղղակի դիտավորություն չի պահանջում։ Այն կարող է ապացուցվել, եթե նրանք գիտեին, որ վնասակար արդյունքի հավանականություն կա, բայց գիտակցաբար որոշել են բավարար երաշխիքներ չձեռնարկել։
Այս երկու սյուները՝ վերահսկողությունը և ընդունումը, հիմք են հանդիսանում այն բանի համար, թե ինչպես է հոլանդական օրենսդրությունը պատասխանում «Կարո՞ղ է ալգորիթմը մասամբ պատասխանատու լինել» հարցին: Պատասխանը միանշանակ ոչ է, բայց դրա մարդկային վերահսկիչը կարող է պատասխանատու լինել: ամբողջությամբ պատասխանատու.
Գործնական սցենար. Ինքնավար անօդաչու թռչող սարքի վնասվածք
Եկեք սա կիրառենք իրական աշխարհի սցենարի վրա։ Պատկերացրեք, որ լոգիստիկ ընկերությունը տեղակայում է ինքնավար առաքման անօդաչու թռչող սարքերի մի ամբողջ նավատորմ։ Արհեստական բանականության նավիգացիոն համակարգով կառավարվող անօդաչու թռչող սարքերից մեկը խափանվում է մարդաշատ հրապարակում և լուրջ վնասվածք է պատճառում։
Ընկերության դեմ գործ հարուցող դատախազը մեծապես կհենվի ֆունկցիոնալ հանցագործության շրջանակի վրա.
-
Վերահսկողության հաստատումՆրանք կցույց տային, որ ընկերությունն ամբողջությամբ տիրապետում էր անօդաչու թռչող սարքերի պարկին։ Ընկերությունը սահմանում էր առաքման երթուղիները, կառավարում ծրագրային ապահովման թարմացումները և պահում էր «անջատիչ կոճակը»՝ ցանկացած պահի անօդաչու թռչող սարքերը գետնին ամրացնելու համար։
-
Ընդունման ապացույցԿարող են ի հայտ գալ ապացույցներ, որոնք ցույց կտան, որ ընկերությունը տեղյակ էր, որ իր արհեստական ինտելեկտն ուներ 5% սխալի մակարդակը խիտ բնակեցված քաղաքային տարածքներում, բայց որոշեց այնուամենայնիվ տեղակայել այն՝ ծախսերը կրճատելու համար: Համակարգը շահագործելով այս հայտնի ռիսկին չնայած՝ ընկերությունը փաստացի ընդունեց վնասակար արդյունքի հնարավորությունը:
Այս դոկտրինի համաձայն՝ ընկերությունը դառնում է հանցագործության կատարողը (օրինակ՝ անփութության պատճառով ծանր մարմնական վնասվածք հասցնելը): Արհեստական բանականությունը պարզապես գործիք է. ընկերության որոշումները՝ տեղակայելու և այն պատշաճ կերպով չվերահսկելու վերաբերյալ, կազմում են հանցավոր արարք:
Կորպորատիվ պատասխանատվություն և կոպիտ անփութություն
Գործառնական կատարման այս հասկացությունը ուղղակիորեն տարածվում է կորպորատիվ քրեական պատասխանատվության վրա: Կազմակերպությունը կարող է պատասխանատվության ենթարկվել, եթե հանցավոր արարքը կարող է ողջամտորեն վերագրվել դրան: Սա հաճախ դեր է խաղում կոպիտ անփութության դեպքերում, երբ ընկերության քաղաքականությունը՝ կամ դրա բացակայությունը, ստեղծել է մի միջավայր, որտեղ արհեստական բանականության կողմից իրականացվող հանցագործությունը ոչ միայն հնարավոր էր, այլև կանխատեսելի:
Թեև իրավական սկզբունքները լավ հաստատված են, դրանց կիրառումը արհեստական ինտելեկտի վրա դեռևս ձևավորման փուլում է։ Նիդեռլանդներում, 2025 թվականի դրությամբ, չկան հրապարակված դատական որոշումներ, որոնք հատուկ վերաբերում են պատճառված վնասի համար քրեական պատասխանատվությանը։ Բացառապես արհեստական բանականության համակարգի ինքնավար որոշմամբ։ Սա ցույց է տալիս, որ իրավական ոլորտը դեռևս փորձում է հասնել տեխնոլոգիաներին։
Առայժմ դատախազները հարմարեցնում են այս ընդհանուր դոկտրինները՝ պատասխանատվության ենթարկելով անձանց, եթե նրանք վերահսկել են արհեստական ինտելեկտը և ընդունել են դրա անօրինական գործողությունների ներուժը, ինչպիսիք են անզգուշությամբ կատարված սպանության դեպքերը, որոնք առաջացել են արհեստական ինտելեկտի անզգույշ գործողություններից: Դուք կարող եք ավելին կարդալ ներկայիս վիճակի մասին: Արհեստական բանականությունը հոլանդական իրավունքում և դրա հետևանքները.
Իրավաբանական խորհրդատուի համար այս իրականությունը կենտրոնանում է մեկ բանի վրա՝ պատասխանատու մարդկային վերահսկողության և ռիսկերի կառավարման նկատմամբ նախաձեռնողական մոտեցման ցուցադրում: Վերահսկողության բացակայության ապացուցումը կամ վնասակար արդյունքի իսկապես անկանխատեսելի լինելու փաստարկը կենտրոնական դեր կխաղա նման մեղադրանքներից պաշտպանվելու համար:
ԵՄ արհեստական բանականության մասին օրենքի ազդեցությունը քրեական պատասխանատվության վրա
Մինչդեռ Նիդեռլանդների ներքին օրենսդրությունը, ինչպես օրինակ՝ ֆունկցիոնալ դադերշապ ապահովում է մեղքը վերագրելու շրջանակ, սակայն իրավիճակը կտրուկ վերաձևավորվում է շատ ավելի լայն նախաձեռնության՝ Եվրոպական Միության կողմից Արհեստական ինտելեկտի մասին ակտՍա պարզապես կարգավորման ևս մեկ մաս չէ. սա համապարփակ ռիսկերի վրա հիմնված շրջանակ է, որը մշակված է միասնական շուկայում արհեստական բանականության համակարգերի մշակման և տեղակայման կարգը կարգավորելու համար։
Իրավաբանների և բիզնեսների համար արհեստական բանականության մասին օրենքին ծանոթանալը կարևորագույն նշանակություն ունի, քանի որ այն ստեղծում է նոր համապատասխանության պարտականություններ, որոնք անմիջականորեն կապված են քրեական պատասխանատվության հետ։ Դրա խիստ պահանջները չկատարելը կարող է դատախազների կողմից օգտագործվել որպես անփութության կամ անզգուշության հզոր ապացույց՝ հիմք հանդիսանալով քրեական մեղադրանքների համար, երբ արհեստական բանականության համակարգը վնաս է պատճառում։ Այս օրենսդրությունը քննարկումը տեղափոխում է վնասին պարզապես արձագանքելուց դեպի դրա կանխարգելիչ կանխարգելումը։
Արհեստական բանականության մասին օրենքը սահմանում է հստակ հիերարխիա՝ դասակարգելով արհեստական բանականության համակարգերը՝ հիմնվելով անվտանգությանը կամ հիմնարար իրավունքներին վնաս հասցնելու դրանց ներուժի վրա: Այս կառուցվածքը քրեական իրավունքի հետ դրա կապը հասկանալու բանալին է:
Հասկանալով ռիսկերի կատեգորիաները
Օրենքի ամենակարևոր ազդեցությունը գալիս է դրա աստիճանական մոտեցումից։ Այն բոլոր արհեստական ինտելեկտին նույն կերպ չի վերաբերվում։ Դրա փոխարեն, այն համակարգերը դասակարգում է կատեգորիաների, որոնցից յուրաքանչյուրն ունի տարբեր իրավական պարտավորություններ։
-
Անընդունելի ռիսկՍրանք համակարգեր են, որոնք համարվում են հիմնարար իրավունքների համար այնքան սպառնալիք, որ դրանք ամբողջությամբ արգելված են։ Պատկերացրեք կառավարության կողմից կառավարվող սոցիալական գնահատման համակարգերը կամ իրավապահ մարմինների կողմից հասարակական վայրերում իրական ժամանակում կենսաչափական նույնականացումը (սակավաթիվ բացառություններով):
-
Բարձր ռիսկայինՍա քրեական իրավունքի ամենակարևոր կատեգորիան է։ Այն ներառում է արհեստական ինտելեկտը, որն օգտագործվում է զգայուն ոլորտներում, ինչպիսիք են կարևորագույն ենթակառուցվածքները, բժշկական սարքավորումները և, ամենակարևորը, իրավապահ մարմինները և արդարադատության իրականացումը։ Կանխատեսող ոստիկանության գործիքները և արհեստական ինտելեկտով կառավարվող դատավճիռների ծրագրակազմը ուղղակիորեն ընկնում են այս խմբի մեջ։
-
Սահմանափակ ռիսկԱյս համակարգերը, ինչպիսիք են չաթբոտները, ունեն ավելի թեթև թափանցիկության պարտավորություններ։ Օգտատերերը պարզապես պետք է տեղյակ լինեն, որ փոխազդում են արհեստական բանականության հետ։
-
Նվազագույն ռիսկԱյս կատեգորիան ներառում է արհեստական ինտելեկտի կիրառությունների մեծ մասը, ինչպիսիք են սպամի ֆիլտրերը կամ տեսախաղերում արհեստական ինտելեկտը, որոնք մեծ մասամբ չեն կարգավորվում։
«Անընդունելի ռիսկի» կատեգորիայում համակարգի տեղակայումը ուղղակի խախտում է, որը կարող է հեշտությամբ հիմք հանդիսանալ քրեական անփութության գործի հարուցման համար, եթե այն հանգեցնի վնասի: Սակայն հիմնական իրավական մարտադաշտը կլինի բարձր ռիսկի համակարգերի շուրջ:
Բարձր ռիսկի համակարգեր և քրեական անփութություն
Բարձր ռիսկի արհեստական ինտելեկտի համար Օրենքը սահմանում է խիստ պահանջներ, որոնք գործում են որպես խնամքի իրավական չափանիշ: Այս պարտավորությունները առաջարկություններ չեն. դրանք պարտադիր պարտականություններ են մշակողների և տեղակայողների համար:
Բարձր ռիսկային համակարգերի հիմնական պահանջներից են՝ տվյալների հուսալի կառավարումը՝ կողմնակալությունը կանխելու համար, տեխնիկական փաստաթղթավորման ամբողջականությունը, օգտատերերի համար լիակատար թափանցիկությունը, մարդկային վերահսկողության հնարավորության ապահովումը ցանկացած պահի և ճշգրտության ու կիբերանվտանգության բարձր մակարդակի պահպանումը։
Պատկերացրեք, որ ընկերությունը կիրառում է կանխատեսողական ոստիկանության ալգորիթմ՝ առանց պատշաճ կերպով ստուգելու վերապատրաստման տվյալները ռասայական կողմնակալության առկայության համար, ինչը Օրենքի տվյալների կառավարման կանոնների ակնհայտ խախտում է: Եթե այս կողմնակալ համակարգը հանգեցնում է անօրինական ձերբակալության, որը հանգեցնում է վնասի, դատախազն ունի պատրաստի փաստարկ: Նրանք կարող են մատնանշել Արհեստական բանականության մասին օրենքի չպահպանումը որպես ընկերության կողմից ողջամիտ զգուշություն ցուցաբերելու անկարողության ուղղակի ապացույց, ինչը կորպորատիվ անփութության մեղադրանքը շատ ավելի հեշտ է ապացուցել:
ԵՄ-ի ողջ տարածքում գործող «Արհեստական բանականության մասին» օրենքը, որը Նիդեռլանդներում ուժի մեջ է մտել 2025 թվականի փետրվարին, հիմնարար կերպով ձևավորում է այս իրավական դաշտը: Չպահպանելը կարող է հանգեցնել մինչև… 35 միլիոն եվրո կամ տարեկան ընդհանուր շրջանառության 7%-ըՆիդեռլանդների կառավարությունը պարտավորեցրել է կազմակերպություններին նույնականացնել և փուլ առ փուլ վերացնել ցանկացած արգելված համակարգ, ինչը արտացոլում է դեմքի ճանաչման սխալներից առաջացած անօրինական ձերբակալությունների ժամանակ նկատվող արհեստական բանականության թերի լինելու վերաբերյալ լուրջ մտահոգությունները: Քանի որ իրավաբանները պաշտպանում են մեղադրյալների համար արհեստական բանականության ապացույցները վիճարկելու ավելի մեծ իրավունքները, օրենքը հարթում է ճանապարհը ավելի խիստ դատական քննության համար: Այս նոր կանոնների վերաբերյալ ավելի մանրամասն տեղեկությունների համար կարող եք ուսումնասիրել... Արհեստական բանականության մասին օրենքի արգելքները, որոնք ուժի մեջ են մտել.
Դասեր հոլանդական մանկական խնամքի նպաստների սկանդալից
Մինչ իրավական տեսությունները մեզ շրջանակ են տալիս, ոչինչ այնքան լավ չի պատկերում ալգորիթմական ձախողման իրական վտանգները, որքան հոլանդական մանկական խնամքի նպաստների սկանդալը կամ… թոեսլագենաֆերԱյս ազգային ճգնաժամը համակարգային անարդարության սարսափելի ուսումնասիրություն է, որը պայմանավորված է ոչ թե մեկ չարամիտ գործողով, այլ անթափանց, ավտոմատացված համակարգով, որը լիովին դուրս է եկել վերահսկողությունից։
Սկանդալը բացահայտում է մարդկային կորուստները, երբ պատասխանատվությունը կորչում է «սև արկղի» ալգորիթմի ներսում: Իրավաբանների համար սա կարևոր դաս է այն մասին, թե ինչպես ավտոմատացված համակարգերը, նույնիսկ եթե իրենք քրեական հետապնդման չեն ենթարկվում, կարող են խորը վնաս հասցնել և խաթարել հանրային վստահությունը մեր հաստատությունների նկատմամբ:
Ինչպես է ալգորիթմը կեղծ մեղադրանքներ առաջադրել հազարավոր մարդկանց
Սկանդալի էությունը Նիդեռլանդների հարկային և մաքսային վարչության կողմից օգտագործվող ինքնուսուցման ալգորիթմն էր։ Դրա խնդիրն էր հայտնաբերել երեխայի խնամքի նպաստների պահանջներում հնարավոր խարդախությունը։ Չնայած նպատակը հիմնավոր էր, համակարգի ներքին տրամաբանությունը խորապես թերի էր և, ի վերջո, խտրական։
Ալգորիթմը սկսեց սխալմամբ հազարավոր ընտանիքների նշել որպես խարդախներ՝ հիմնվելով այնպիսի չափանիշների վրա, որոնք պետք է անվնաս լինեին: Մի փոքր վարչական սխալ, օրինակ՝ ստորագրության բացակայությունը, բավարար էր խարդախության լիարժեք հետաքննություն սկսելու համար: Հետևանքները աղետալի էին ավելի քան... 26,000 ընտանիք, որոնց հրամայվել էր վերադարձնել տասնյակ հազարավոր եվրոներ, ինչը շատերին հասցրել էր ֆինանսական սնանկացման։
Այս իրավիճակը ցույց է տալիս, թե որքան հզոր կարող է արհեստական բանականությունը մեծացնել անարդարությունը: Հարկային մարմինների ալգորիթմներում խտրական օրինաչափությունները անարդարացիորեն թիրախավորել են որոշակի խմբերի, ինչը հանգեցրել է լուրջ ֆինանսական և սոցիալական վնասների: Ազգային բողոքին ի պատասխան՝ Նիդեռլանդների կառավարությունը հրապարակել է «Նախագծով խտրականության դեմ ձեռնարկը»... 2021 ապագա արհեստական բանականության համակարգերում նման կողմնակալությունները կանխարգելելու համար։ Դուք կարող եք ավելի շատ տեղեկություններ գտնել Ինչպես է Նիդեռլանդների օրենսդրությունը հարմարվում արհեստական բանականությանը globallegalinsights.com կայքում.
Թափանցիկության և հաշվետվողականության կարևորագույն բացերը
թոեսլագենաֆեր բացեց մի քանի կարևոր բացթողումներ ավտոմատացված որոշումների կայացման իրավական և էթիկական վերահսկողության մեջ։ Այս ձախողումները կարևոր են հասկանալու համար, թե երբ է ալգորիթմի արդյունքը կարող բարձրացնել մարդկային օպերատորների քրեական պատասխանատվության հարցեր։
Առանձնացան երեք հիմնական անհաջողություններ՝
-
Թափանցիկության բացակայությունՏուժած ընտանիքներին երբեք հստակ պատճառ չի տրվել, թե ինչու են նրանք նշվել։ Համակարգը սև արկղ էր, ինչը նրանց համար անհնար էր դարձնում դրա եզրակացությունները վիճարկելը։
-
Մարդկային վերահսկողության բացակայությունԱլգորիթմի որոշումները հաճախ ընդունվում էին որպես իրականություն։ Մարդկային պաշտոնյաները համակարգային ձախողում էին կասկածի տակ դնել կամ անտեսել ավտոմատացված խարդախության դասակարգումները։
-
Մեղքի ենթադրությունԵրբ համակարգը որևէ ընտանիքի մեղավոր էր ճանաչում, նրանք համարվում էին մեղավոր։ Սա փոխում էր ապացուցման բեռը՝ ստիպելով նրանց անհնարին պայքարի մեջ մտնել անտեսանելի մեղադրողի դեմ իրենց անմեղությունն ապացուցելու համար։
Սկանդալը հստակ հիշեցում էր այն մասին, որ երբ ավտոմատացված համակարգը կայացնում է կյանքը փոխող որոշում, «բացատրություն ստանալու իրավունքը» շռայլություն չէ, այլ արդարադատության հիմնարար բաղադրիչ։ Առանց դրա իմաստալից բողոքարկում չի կարող լինել։
Նման մեղադրանքների առջև կանգնած յուրաքանչյուրի համար իրավական շրջանակի ըմբռնումը չափազանց կարևոր է: Խարդախության նկատմամբ հոլանդական մոտեցումը բարդ է, և սկանդալը ընդգծում է մասնագիտական ուղղորդման անհրաժեշտությունը: Իմացեք ավելին Հոլանդական իրավական մոտեցումը խարդախության և ֆինանսական հանցագործության նկատմամբ մեր հոդվածում.
Հետևանքները. կարգավորման համար մղում
Թեև ոչ մի ալգորիթմ դատի չտրվեց, մարդկային և քաղաքական հետևանքները հսկայական էին։ Դա հանգեցրեց ամբողջ Նիդեռլանդների կառավարության հրաժարականին 2001 թվականին։ 2021Սկանդալը դարձավ փոփոխությունների հզոր կատալիզատոր՝ անմիջականորեն ազդելով պետական կառավարման մեջ արհեստական բանականության օգտագործման ավելի խիստ ուղեցույցների մշակման վրա։
Այն ապացուցեց, որ նույնիսկ առանց օրենսգրքի դեմ քրեական մեղադրանքների, թերի, կողմնակալ համակարգի անզգուշորեն կիրառումը կարող է հետևանքներ ունենալ, որոնք համարժեք են լայնորեն տարածված ինստիտուցիոնալ անփութությանը: Այս զգուշացնող պատմությունն այժմ հիմք է հանդիսանում ամբողջ Եվրոպայում կարգավորող քննարկումների համար, այդ թվում՝ ԵՄ արհեստական բանականության մասին օրենքի, ապահովելով, որ թափանցիկությունը, արդարությունը և մարդկային վերահսկողությունը լինեն արհեստական բանականության ապագա ցանկացած կիրառման առաջնային պլանում:
Պաշտպանական ռազմավարություններ, երբ ներգրավված է արհեստական բանականությունը
Երբ հաճախորդը քրեական մեղադրանքի է ենթարկվում արհեստական ինտելեկտի համակարգի կողմից կատարված որևէ գործողության պատճառով, նրա իրավաբանը մտնում է մարտահրավերներով լի նոր աշխարհ։ Ստանդարտ իրավական ձեռնարկը կարիք ունի լուրջ վերանայման։ Հաստատուն պաշտպանությունը պետք է կենտրոնանա մեղադրական կողմի գործը մարդկային մտադրության կամ անփութության համար հերքելու վրա, և դա հաճախ նշանակում է կենտրոնանալ ալգորիթմի սեփական ինքնավար և երբեմն անկանխատեսելի բնույթի վրա։
Ցանկացած դատախազի համար ամենամեծ խոչընդոտը մարդու կողմից որոշակի հանցավոր մտադրություն ունենալն ապացուցելն է (...)mens rea) երբ վնասի անմիջական պատճառը բարդ ալգորիթմն էր։ Հենց այստեղ է պաշտպանության լավագույն հնարավորությունները։ Նպատակն է ստեղծել ողջամիտ կասկած՝ ցույց տալով, որ մարդը պարզապես չի ունեցել վերահսկողություն կամ հեռատեսություն՝ արհեստական բանականության անկախ որոշման համար քրեական պատասխանատվության ենթարկվելու համար։
Մարտահրավեր նետող մտադրություն սև արկղի պաշտպանության միջոցով
Ամենաուժեղ փաստարկներից մեկը, որը կարելի է գտնել, այն է, որ «Սև արկղի» պաշտպանությունԱյս ռազմավարությունը շահարկում է այն փաստը, որ շատ առաջադեմ արհեստական բանականության համակարգեր, հատկապես խորը ուսուցման կամ նեյրոնային ցանցերի վրա կառուցվածները, բնույթով անթափանց են։ Փաստարկը պարզ է. եթե համակարգը ստեղծած մարդիկ չեն կարող լիովին բացատրել, թե ինչպես է այն հանգել որոշակի եզրակացության, ինչպե՞ս կարելի է ակնկալել, որ օգտատերը կանխատեսել և մտադրել է հանցավոր արդյունք։
Այս պաշտպանությունը վերաբերում է մտադրության պահանջի էությանը: Փաստաբանը կարող է պնդել, որ արհեստական բանականության վնասակար գործողությունը եղել է անկանխատեսելի, անսպասելի վարքագիծ՝ մի տեսակ թվային պատահականություն, այլ ոչ թե պլանավորված հանցավոր գործողություն: Որքան ավելի բարդ և ինքնուրույն է արհեստական բանականությունը, այնքան ավելի համոզիչ է դառնում այս փաստարկը:
Որպեսզի այս պաշտպանությունը աշխատի, ձեզ անպայման անհրաժեշտ են համապատասխան մասնագետներ ձեր կողքին։
-
Թվային դատաբժշկական փորձագետներՆրանք կարող են խորանալ արհեստական ինտելեկտի կոդի, տվյալների գրանցամատյանների և որոշումների կայացման հետքերի մեջ՝ գտնելու այն ճշգրիտ կետը, որտեղ այն շեղվել է իր սպասվող վարքից։
-
Արհեստական բանականության էթիկայի մասնագետներ և համակարգչային գիտնականներԱյս փորձագետները կարող են վկայություն տալ որոշակի արհեստական բանականության մոդելների ներկառուցված անկանխատեսելիության մասին: Նրանք կարող են դատարանին բացատրել, թե ինչու է «խարդախ» արդյունքը տեխնիկական ձախողում, այլ ոչ թե պատասխանողի կամքի արդյունք:
Դեպքը որպես անկանխատեսելի անսարքություն ներկայացնելով՝ պաշտպանությունը կարող է արդյունավետորեն պնդել, որ դատապարտման համար անհրաժեշտ էական «մեղավորության գիտակցությունը» պարզապես բացակայում է։
Վերահսկողության բացակայության կամ մեղավոր անգործության ապացուցումը
Մեկ այլ արդյունավետ ռազմավարություն է վիճարկել դրա բացակայությունը արդյունավետ վերահսկողությունՀոլանդական իրավական սկզբունքի համաձայն ֆունկցիոնալ դադերշապ (գործառնական կատարում), պատասխանատվությունը պահանջում է, որ պատասխանողը լիազորություններ ունենա վերահսկելու գործողությունը: Պաշտպանությունը կարող է հակադարձել դրան՝ ցույց տալով, որ արհեստական բանականությունը գործարկվելուց հետո այն գործել է որոշակի ինքնավարությամբ, որը նրա գործողությունները դուրս է թողել պատասխանողի անմիջական ազդեցությունից:
Սա կարող է ներառել այն բանի ցույց տալը, որ համակարգը նախագծված է իրական ժամանակում սովորելու և հարմարվելու համար, ինչը դրա վարքագիծը դարձնում է ճկուն և ոչ լիովին կանխատեսելի: Պաշտպանության դիրքորոշումն այն է, որ պատասխանողը չի կարող պատասխանատու լինել այնպիսի գործողության համար, որը նա ո՛չ կարող էր ուղղակիորեն հրամայել, ո՛չ էլ ողջամտորեն կանխել:
Այս պաշտպանության միջուկը մարդկային մեղքի պատմությունը տեխնոլոգիական ինքնավարության պատմվածքից տեղափոխելն է։ Այն մեղադրյալին վերաձևակերպում է ոչ թե որպես հանցագործ, այլ որպես համակարգի անկանխատեսելի տրամաբանության զոհ։
Երբ արհեստական բանականության գործողությունները կարող են հանգեցնել քրեական պատասխանատվության, ունենալով ամուր Արհեստական ինտելեկտի գործակալների պաշտպանիչ ցանկապատեր տեղում լինելը ոչ միայն կարևորագույն կանխարգելիչ քայլ է, այլև ուժեղ պաշտպանության կարևոր մաս։ Այս տեսակի ժամանակակից անվտանգության միջոցառումների կիրառման ապացուցումը կարող է հզոր կերպով հիմնավորել այն փաստարկը, որ պատասխանողը անզգուշորեն չի ընդունել վնասակար արդյունքի ռիսկը։
Վերջին հաշվով, արդար պաշտպանության իրավունքը գերակա է, նույնիսկ տեխնիկապես բարդ դեպքերում: Մեղադրյալն ունի հիմնարար պաշտպանություն, ինչպես ցանկացած մարդակենտրոն հանցագործության դեպքում: Այս հիմնական սկզբունքները ավելի լայն համատեքստում հասկանալու համար կարող եք ավելին իմանալ... քրեական գործերով լռելու իրավունք և թե ինչպես է այն կիրառվում Նիդեռլանդների օրենսդրության շրջանակներում։
Գործնական համապատասխանության ուղեցույց արհեստական բանականություն օգտագործող բիզնեսների համար
Իրավական տեսությունները իմանալը մի բան է, բայց ամուր համապատասխանության շրջանակի ստեղծումը՝ բոլորովին այլ մարտահրավեր։ Նիդեռլանդներում և ամբողջ ԵՄ-ում արհեստական բանականություն օգտագործող բիզնեսների համար քրեական պատասխանատվության ռիսկը կառավարելու լավագույն միջոցը նախաձեռնողական կառավարումն է և կարողանալը ցույց տալ, որ դուք կատարել եք ձեր տնային աշխատանքը։ Հստակ ճանապարհային քարտեզը կարևոր է։
Սա նորարարությունը խեղդելու մասին չէ։ Սա վերաբերում է խելացի պաշտպանության մեխանիզմներ ներդնելուն՝ ձեր ընկերությունը, ձեր հաճախորդներին և ձեր հեղինակությունը պաշտպանելու համար։ Ստեղծելով ամուր ներքին շրջանակ՝ դուք նաև հզոր պաշտպանություն եք ստեղծում անփութության կամ անզգուշության ցանկացած պնդումից, եթե արհեստական բանականության համակարգը երբևէ անսպասելի վնաս պատճառի։
Կառուցեք ձեր արհեստական բանականության կառավարման հիմքը
Առաջին հերթին՝ ձեզ անհրաժեշտ է վերահսկողության և հաշվետվողականության հստակ կառուցվածք։ Սա միայն ՏՏ խնդիր չէ, սա բիզնեսի հիմնական պատասխանատվություն է, որը պահանջում է ձեր իրավաբանական, համապատասխանության և գործադիր թիմերի լիակատար աջակցությունը։ Հզոր Արհեստական բանականության կառավարման լավագույն փորձը կարևորագույն քայլ է ռիսկերի կառավարման և ձեր արհեստական բանականության օրինական և էթիկական կիրառումն ապահովելու համար։
Ձեր կառավարման մոդելը պետք է հիմնված լինի մի քանի հիմնական հենասյուների վրա.
-
Մարդկային ցիկլի վերահսկողությունԲարձր ռիսկային ցանկացած որոշման դեպքում վերջնական խոսքը պետք է ունենա մարդը։ Այս անձին կամ թիմին անհրաժեշտ է իշխանություն և տեխնիկական գիտելիքներ՝ միջամտելու, ուղղումներ կատարելու կամ արհեստական բանականության առաջարկները ամբողջությամբ անտեսելու համար։
-
Հստակ պատասխանատվության գծերԴուք պետք է ճշգրտորեն սահմանեք, թե ով է պատասխանատու արհեստական բանականության համակարգի համար յուրաքանչյուր փուլում՝ մշակումից և տվյալների աղբյուրից մինչև տեղակայում և շարունակական մոնիթորինգ: Այստեղ ցանկացած մոխրագույն գոտի ստեղծում է էական իրավական ռիսկեր:
-
Կանոնավոր ալգորիթմական աուդիտներԻնչպես դուք աուդիտ եք անցկացնում ձեր ընկերության ֆինանսների, այնպես էլ պետք է պարբերաբար աուդիտ անեք ձեր արհեստական բանականության համակարգերը: Այս աուդիտները պետք է իրականացվեն անկախ երրորդ կողմերի կողմից՝ ստուգելու համար կատարողականը, արդարությունը և համապատասխանությունը ԵՄ արհեստական բանականության մասին օրենքի նման կանոններին:
Շեշտը դնելով բացատրելիության և տվյալների ամբողջականության վրա
Եթե դուք չեք կարող բացատրել, թե ինչպես է աշխատում ձեր համակարգը, չեք կարող այն պաշտպանել դատարանում: «Սև արկղի» խնդիրը իրավական առումով լուրջ թույլ կետ է, ինչը թափանցիկության համար նախագծումը դարձնում է բացարձակապես կարևոր:
Բացատրելիությունը դիզայնով պետք է լինի անվիճելի սկզբունք։ Ձեր տեխնիկական թիմերը պետք է կառուցեն համակարգեր, որտեղ որոշումների կայացման գործընթացը կարող է փաստաթղթավորվել, հասկանալի լինել և բացատրվել ոչ տեխնիկական մասնագետների, ինչպիսիք են դատավորներն ու կարգավորող մարմինները։
Սա սկսվում է ձեր մոդելների մարզման համար օգտագործվող տվյալներից: Մանրակրկիտ տվյալների կառավարումը ձեր լավագույն պաշտպանությունն է կողմնակալության դեմ՝ ալգորիթմական վնասի հիմնական աղբյուրից: Համոզվեք, որ ձեր տվյալները բարձրորակ են, համապատասխան և պատշաճ կերպով ներկայացնում են այն մարդկանց, որոնց վրա դրանք ազդելու են: Փաստաթղթավորեք տվյալների աղբյուրների, մաքրման և մշակման յուրաքանչյուր քայլ՝ հստակ աուդիտի հետք ստեղծելու համար: Այս փաստաթղթավորումը անգնահատելի ապացույց է այն բանի, որ դուք պատշաճ ջանասիրություն եք ցուցաբերել:
ԵՄ արհեստական բանականության մասին օրենքի համապատասխանության ստուգաթերթիկ
ԵՄ արհեստական բանականության մասին օրենքը վերաբերում է նախաձեռնողական ռիսկերի կառավարմանը, հատկապես բարձր ռիսկային համակարգերի համար: Ձեր համապատասխանության ռազմավարությունը պետք է ցույց տա անվտանգության և արդարության նկատմամբ շարունակական հանձնառություն:
Գործնական ստուգաթերթիկը պետք է ներառի.
-
Ռիսկերի դասակարգումՊաշտոնապես դասակարգեք ձեր ընկերության կողմից օգտագործվող յուրաքանչյուր արհեստական բանականության համակարգ՝ համաձայն Օրենքի ռիսկի կատեգորիաների։
-
Ազդեցության գնահատումներԲարձր ռիսկի որևէ արհեստական բանականություն կիրառելուց առաջ անցկացրեք և փաստաթղթավորեք տվյալների պաշտպանության ազդեցության գնահատումները (DPIA) և հիմնարար իրավունքների վրա ազդեցության գնահատումները (FRIA):
-
Տեխնիկական փաստաթղթավորումՊահեք մանրամասն, թարմացված տեխնիկական փաստաթղթերը պատրաստ՝ կարգավորող մարմիններին տրամադրելու համար, երբ նրանք դա խնդրեն։
-
Շարունակական մոնիտորինգՍահմանեք շուկայականից հետո մոնիթորինգի գործընթացներ՝ արհեստական բանականության աշխատանքը հետևելու և դրա տեղակայումից հետո ի հայտ եկող ցանկացած անկանխատեսելի ռիսկ հայտնաբերելու համար։
Հաճախակի տրվող հարցեր
Արհեստական բանականության և քրեական իրավունքի խաչմերուկը, բնականաբար, բազմաթիվ հարցեր է առաջացնում: Այստեղ մենք անդրադառնում ենք իրավաբանների, մշակողների և բիզնեսի սեփականատերերի շրջանում ամենատարածված մտահոգություններից մի քանիսին, որոնք հետաքրքրում են, թե արդյոք ալգորիթմը կարող է մասամբ մեղավոր լինել հանցագործության համար:
Կարո՞ղ է ընկերությունը քրեական պատասխանատվության ենթարկվել, եթե նրա արհեստական բանականությունը խտրականություն է դրսևորում։
Այո, անկասկած կարող է։ Չնայած դուք չեք տեսնի արհեստական բանականության համակարգ մեղադրյալի աթոռին, այն ընկերությունը, որը կիրառել է այն, անկասկած կարող է քրեական պատասխանատվության ենթարկվել խտրական արդյունքների համար՝ համաձայն հոլանդական կորպորատիվ քրեական պատասխանատվության սկզբունքների։
Եթե ընկերության ղեկավարությունը տեղյակ լիներ արհեստական բանականության կողմնակալության ներուժի մասին և ոչինչ չձեռնարկեր, կամ եթե նրանք կոպիտ անփութություն ցուցաբերեին իրենց վերահսկողության հարցում, քրեական մեղադրանքները շատ իրական հնարավորություն են: ԵՄ արհեստական բանականության մասին օրենքը նաև սահմանում է խիստ կանխակալության դեմ պայքարի կանոններ բարձր ռիսկայնության համակարգերի համար: Այդ չափանիշներին չհամապատասխանելը կլինի անփութության հզոր ապացույց ցանկացած քրեական գործում: Իրավական ուշադրության կենտրոնում միշտ կլինեն արհեստական բանականության ստեղծման, ուսուցման և տեղակայման շուրջ մարդկային կայացված որոշումները:
Ո՞րն է արհեստական բանականության մեջ սև արկղի խնդիրը։
«Սև արկղի» խնդիրը բարդ արհեստական բանականության մոդելների համար նախատեսված տերմին է, որոնց դեպքում նույնիսկ դրանք կառուցողները չեն կարող լիովին հետևել, թե ինչպես է ստացվել որոշակի արդյունք։ Սա լուրջ խնդիր է, երբ արհեստական բանականությունը և քրեական օրենսդրությունը բախվում են։
Դատարանում սա կարող է իրականում դառնալ պաշտպանության անկյունաքարը։ Փաստաբանը կարող է պնդել, որ վնասակար արդյունքը լիովին անկանխատեսելի էր, ինչը նշանակում է, որ մեղադրյալը չուներ անհրաժեշտ հանցավոր մտադրությունը (mens rea)։ Փաստարկը պարզ է. ինչպե՞ս կարող էին նրանք նախատեսել այնպիսի արդյունք, որը չէին կարող կանխատեսել։
Սակայն դատախազները ուժեղ հակադարձում ունեն։ Նրանք կարող են պնդել, որ հզոր, անկանխատեսելի համակարգի կիրառումը առանց պատշաճ պաշտպանության միջոցների, ինքնին անզգուշության կամ կոպիտ անփութության դրսևորում է։ Եվ դա կարող է բավարար լինել քրեական պատասխանատվության համար անհրաժեշտ մտավոր տարրը բավարարելու համար։
Սա հիմք է ստեղծում կանխատեսելիության և հոգատարության պարտականության շուրջ բարձր խաղադրույքներով իրավական պայքարի համար։
Ո՞րն է մշակողների համար իրավական ռիսկը սահմանափակելու լավագույն միջոցը։
Իրավական ռիսկերից պաշտպանվելու համար մշակողների կողմից ամենաարդյունավետ բանը արհեստական բանականության կյանքի յուրաքանչյուր փուլում մանրակրկիտ, թափանցիկ փաստաթղթավորումն է: Պատկերացրեք դա որպես մանրամասն «աուդիտի հետքի» ստեղծում, որը կարող է դառնալ ձեր ամենակարևոր ապացույցը:
Այս փաստաթղթավորումը իսկապես պետք է ներառի ամեն ինչ՝ սկզբից մինչև վերջ.
-
Տվյալների աղբյուրներըՈրտեղի՞ց են վերցվել վերապատրաստման տվյալները, և ինչպե՞ս են ստուգվել դրանց որակը և կողմնակալությունը։
-
կողմնակալության մեղմացումԻ՞նչ կոնկրետ քայլեր են ձեռնարկվել տվյալների բազմություններից կողմնակալությունները գտնելու և վերացնելու համար։
-
Դիզայնի հիմնավորումԻ՞նչ տրամաբանություն էր ընկած հիմնական ճարտարապետական ընտրությունների և ալգորիթմների հետևում։
-
Փորձարկման արդյունքներՅուրաքանչյուր փորձարկման ամբողջական գրառում, ներառյալ ձախողումները և դրանց շտկման եղանակը։
Մարդկային վերահսկողության համար հստակ շրջանակի ստեղծումը նույնքան կարևոր է: Եթե երբևէ հետաքննություն տեղի ունենա, այս փաստաթղթերը կծառայեն որպես պատշաճ ջանասիրության անհերքելի ապացույց: Այն օգնում է ցույց տալ, որ պատճառված ցանկացած վնաս իսկապես անկանխատեսելի պատահար է եղել, այլ ոչ թե անփութության արդյունք, և դա կազմում է ամուր իրավական պաշտպանության հիմքը: