Այո՛, ալգորիթմը կարող է գնահատել ձեր աշխատանքը։ Իրականում, դա արդեն տեղի է ունենում երկրի աշխատավայրերում։ Ավանդական մարդկային վերահսկողությունից դեպի արհեստական բանականության վրա հիմնված կառավարում անցումը բերում է անհավանական արդյունավետություն, բայց նաև բացում է էական իրավական և էթիկական հարցեր։ Աշխատակիցների համար այս նոր իրականությունը պահանջում է իրենց իրավունքների նոր ըմբռնում։
Ալգորիթմական կառավարման իրականությունը
«Արհեստական բանականությունը որպես ձեր մենեջեր» գաղափարն այլևս հեռավոր հասկացություն չէ. այն ամենօրյա իրականություն է աճող թվով մարդկանց համար: Ընկերությունները ավելի ու ավելի շատ են օգտագործում ավտոմատացված համակարգեր՝ իրենց աշխատակիցներին վերահսկելու, գնահատելու և նույնիսկ ուղղորդելու համար, և այդ ամենը առաջնորդվում է անաչառ, տվյալների վրա հիմնված վերլուծությունների խոստումով, որոնք կարող են բարձրացնել արտադրողականությունը:
Պատկերացրեք արհեստական բանականության մենեջերին որպես անխոնջ սպորտային հետախույզի: Այն կարող է հետևել յուրաքանչյուր չափելի մանրուքի՝ ժամում կատարված առաջադրանքների քանակին, հաճախորդների գոհունակության գնահատականներին, ստեղնաշարի ակտիվությանը և սցենարների ճշգրտությանը: Այս թվային հետախույզը երբեք չի քնում և կարող է վայրկյանների ընթացքում մշակել տվյալների հսկայական քանակություն՝ նկատելով այնպիսի օրինաչափություններ, որոնք մարդ-մենեջերին կարող է ամիսներ պահանջվել նկատելու համար: Սակայն սա առաջ է քաշում մի կարևոր հարց. կարո՞ղ է այս հետախույզը իրականում տեսնել ամբողջ խաղը:
Հիմնական հակամարտությունը. Տվյալներն ընդդեմ համատեքստի
Ալգորիթմական կառավարման հիմնական խնդիրն այն է, թե ինչ է այս համակարգերը չի կարող հեշտությամբ չափելի։ Արհեստական բանականությունը կարող է գրանցել աշխատակցի աշխատանքի անկումը, բայց այն չի հասկանա համատեքստը։ Հնարավոր է՝ այդ աշխատակիցը օգնում էր նոր գործընկերոջը հարմարվել նորություններին, զբաղվում էր հատկապես դժվար հաճախորդի հետ կամ ստեղծագործական լուծում էր առաջարկում բարդ խնդրի համար։ Սրանք այն անշոշափելի ներդրումներն են, որոնք իսկապես սահմանում են թիմի արժեքավոր անդամին։
Սա ստեղծում է կենտրոնական հակամարտություն երկու հակադիր ուժերի միջև.
-
Բիզնեսի արդյունավետության ձգտումը. Տվյալների օգտագործման խթան՝ կատարողականի յուրաքանչյուր անկյունը օպտիմալացնելու համար, որը ղեկավարվում է չափելի հիմնական կատարողականի ցուցանիշներով (KPI):
-
Մարդկային արդարության կարիքը. Դատվելու իրավունքը՝ համատեքստի, կարեկցանքի և որակական աշխատանքի ըմբռնման հիման վրա, որը ալգորիթմները հաճախ անտեսում են։
Իրական խնդիրը այն չէ, թե արդյոք ալգորիթմը կարող գնահատել կատարողականը՝ կարևորը նրա գնահատումն է, թե արդյոք այն ամբողջական է, արդար և իրավաբանորեն հիմնավորված՝ առանց իմաստալից մարդկային վերահսկողության։
Լայնածավալ ընդունում Նիդեռլանդներում
Սա հեռավոր միտում չէ։ Հոլանդիայի աշխատուժն արդեն իսկ այս փոխակերպման կենտրոնում է։ Հետազոտությունները ցույց են տալիս, որ Հոլանդացի աշխատողների 61%-ը արդեն զգում են արհեստական բանականության ազդեցությունը իրենց աշխատանքի վրա։ Սա զարմանալի չէ, հաշվի առնելով, որ Հոլանդական կազմակերպությունների 95%-ը այժմ իրականացնում են արհեստական բանականության ծրագրեր՝ ամենաբարձր ցուցանիշը Եվրոպայում։
Արհեստական բանականության օգտագործումը աշխատակիցների գնահատման համար հատկապես տարածված է խոշոր ընկերություններում։ Փաստորեն, 500 կամ ավելի աշխատող ունեցող ընկերությունների 48%-ը օգտագործեք արհեստական բանականության տեխնոլոգիաները այնպիսի գործառույթների համար, ինչպիսին է կատարողականի գնահատումը: Դուք կարող եք ավելին իմանալ այն մասին, թե ինչպես են հոլանդական բիզնեսները առաջնորդում Եվրոպայի ավտոմատացման հեղափոխությունը:
Ինչպես են արհեստական բանականության համակարգերը իրականում գնահատում ձեր կատարողականը
Լսելը, որ ալգորիթմը կարող է գնահատել ձեր աշխատանքը, կարող է վերացական, նույնիսկ մի փոքր անհանգստացնող թվալ։ Այսպիսով, եկեք պարզենք, թե ինչպես են իրականում աշխատում այս «ալգորիթմական կառավարիչները»։ Խոսքը միայն մեկ, խորհրդավոր դատողության մասին չէ, այլ տվյալների հավաքագրման և վերլուծության անընդհատ ցիկլի։
Որպեսզի իսկապես հասկանաք, նախ պետք է հասկանաք Հետևման և չափման հիմնարար հասկացություններըԱրհեստական բանականության մենեջերը նախատեսված է երկուսում էլ գերազանցելու համար՝ անդադար հետևելով գործունեությանը՝ դրանք նախապես սահմանված նպատակների համեմատ չափելու համար։
Որպես օրինակ վերցնենք հաճախորդների սպասարկման թիմը։ Արհեստական բանականությունը հեռավոր դիտորդ չէ. այն միահյուսված է հենց այն թվային գործիքների հետ, որոնք թիմն օգտագործում է ամեն օր։ Յուրաքանչյուր սեղմում, յուրաքանչյուր զանգ, յուրաքանչյուր ուղարկված էլ. նամակ ստեղծում է տվյալների կետ, որը սնուցում է համակարգը։
Տվյալների հավաքագրման շարժիչը
Առաջին քայլը պարզապես տեղեկատվության հավաքագրումն է, որը հաճախ իրականացվում է տարբեր վայրերից: Մեր հաճախորդների սպասարկման գործակալի համար համակարգը կարող է հավաքագրել.
-
Քանակական չափումներ. Սրանք ճշգրիտ թվեր են։ Մտածեք այնպիսի բաների մասին, ինչպիսիք են՝ մշակված զանգերի ընդհանուր քանակը, զանգի միջին տևողությունը և խնդիրը լուծելու համար անհրաժեշտ ժամանակը։
-
Որակական տվյալներ՝ Արհեստական բանականությունը նաև խորանում է պարունակություն զրույցների։ Բնական լեզվի մշակման (NLP) միջոցով այն կարող է սկանավորել էլեկտրոնային նամակները և զանգերի տեքստերը՝ որոշակի բանալի բառերի կամ արտահայտությունների համար։
-
Զգացմունքային գնահատականներ՝ Հաճախորդի կողմից օգտագործված տոնն ու լեզուն վերլուծելով՝ համակարգը կարող է յուրաքանչյուր փոխազդեցությանը շնորհել գնահատական՝ դրական, չեզոք կամ բացասական։
Տվյալների այս անընդհատ հոսքը կառուցում է ձեր թվային կատարողականի պրոֆիլը՝ ստեղծելով ձեր ամենօրյա աշխատանքի պատկեր, որն շատ ավելի մանրամասն է, քան որևէ մարդկային ղեկավար կարող է երբևէ հույս ունենալ ձեռքով դիտարկել։
Պարզ կանոններից մինչև մեքենաների ուսուցում
Երբ այս բոլոր տվյալները հավաքագրվեն, համակարգը պետք է միջոց գտնի դրանք հասկանալու համար։ Ոչ բոլոր արհեստական բանականության մենեջերներն են նույն կերպ կառուցված. նրանց գնահատման մեթոդները սովորաբար բաժանվում են երկու հիմնական ճամբարի։
1. Կանոնների վրա հիմնված համակարգեր
Սրանք ալգորիթմական կառավարիչների ամենահիմնական ձևերն են։ Դրանք գործում են գործատուի կողմից սահմանված պարզ «եթե-սա-ապա-այն» տրամաբանությամբ։ Օրինակ, կանոնը կարող է նշել. «Եթե աշխատակցի զանգերի միջին տևողությունը գերազանցում է հինգ րոպեն, ավելի քան երեք շաբաթը մեկ անգամ նշել իրենց կատարողականը որպես «բարելավման կարիք ունեցող»։ Այն պարզ է, բայց կարող է բավականին կոշտ լինել և զուրկ լինել նրբերանգներից։
2. Մեքենայի ուսուցման մոդելներ
Ահա թե որտեղ է ամեն ինչ շատ ավելի բարդ դառնում: Պարզապես խիստ կանոններին հետևելու փոխարեն, մեքենայական ուսուցման (ML) մոդելները վերապատրաստված պատմական կատարողականի տվյալների հսկայական հավաքածուների վրա: Համակարգը սովորում է, թե որ օրինաչափություններն ու վարքագծերն են կապված «լավ» և «վատ» արդյունքների հետ՝ ուսումնասիրելով հաջողակ և անհաջողակ աշխատակիցների անցյալի օրինակները:
Արհեստական բանականությունը կարող է հայտնաբերել, որ լավագույն արդյունքներ ցուցաբերողները մշտապես օգտագործում են որոշակի հանգստացնող արտահայտություններ կամ ավելի արագ լուծում են որոշակի տեսակի խնդիրներ։ Այնուհետև այն օգտագործում է այս սովորած օրինաչափությունները՝ ներկայիս աշխատակիցներին գնահատելու համար, ըստ էության հարցնելով. «Որքանո՞վ է այս անձի վարքագիծը համապատասխանում մեր իդեալական աշխատակցի մոդելին»։
Թաքնված փոխկապակցվածություններ գտնելու այս ունակությունը հզոր է, բայց նաև այստեղ է, որ ի հայտ է գալիս էական խնդիր։
Սև արկղի դիլեման
Ավելի առաջադեմ մեքենայական ուսուցման մոդելների դեպքում արհեստական բանականության որոշումների կայացման գործընթացը կարող է դառնալ աներևակայելի բարդ։ Սա ստեղծում է այսպես կոչված «սև արկղի» խնդիրը։ Ալգորիթմը մշակում է հազարավոր տվյալների կետեր և դրանց փոխկապակցվածությունը այնպիսի եղանակներով, որոնք հեշտությամբ հասկանալի չեն, երբեմն նույնիսկ սեփական մշակողների համար։
Աշխատակիցը կարող է ցածր արդյունավետության գնահատական ստանալ, բայց ճշգրիտ պատճառը պարզելը գրեթե անհնար է։ Համակարգի տրամաբանությունը խորը թաքնված է իր բարդ նեյրոնային ցանցի մեջ, ինչը աներևակայելիորեն դժվարացնում է որոշումը արդյունավետորեն կասկածի տակ դնելը կամ բողոքարկելը։ Այս թափանցիկության պակասը կենտրոնական խնդիր է, երբ... Արհեստական բանականությունը ձեր մենեջերն է և հանձնարարված է գնահատեք ձեր կատարողականը.
Արհեստական բանականության կառավարման իրավական և էթիկական ռիսկերի ըմբռնումը
Թեև արհեստական բանականության վրա հիմնված արդյունավետության խոստումը գայթակղիչ է, սակայն իրավական դաշտը չհասկանալով ձեր թիմը գնահատելու համար ալգորիթմ կիրառելը նման է ականապատ դաշտում աչքերը կապած նավարկելուն։ Նիդեռլանդներում և ամբողջ ԵՄ-ում կանոնակարգերի ամուր շրջանակը պաշտպանում է աշխատակիցներին այն վտանգներից, որոնք կարող են ստեղծել վատ ներդրված արհեստական բանականության համակարգերը։
Գործատուների համար խաղադրույքները աներևակայելի բարձր են։ Ամենամեծ ռիսկերը ոչ միայն տեխնիկական խափանումներն են, այլև հիմնարար իրավական խախտումները։ Սրանք կարող են հանգեցնել հսկայական տուգանքների, հեղինակության վնասման և աշխատակիցների վստահության լիակատար խզման։ Վտանգները բաժանվում են մի քանի հիմնական, փոխկապակցված ոլորտների։
Թաքնված կողմնակալության և խտրականության վտանգը
Ալգորիթմը լավն է միայն այնքանով, որքանով այն տվյալներից է սովորում։ Եթե ձեր աշխատանքային պատմական տվյալները արտացոլում են անցյալի հասարակական կողմնակալությունները, իսկ մեծ մասն այդպես է անում, արհեստական բանականությունը կարող է հեշտությամբ սովորել խտրականություն դրսևորել որոշակի խմբերի նկատմամբ։ Այն կարող է անարդարությունը ներդնել իր հիմնական տրամաբանության մեջ։
Պատկերացրեք արհեստական բանականության համակարգ, որը մարզվել է տարիների աշխատանքի և առաջխաղացման տվյալների վրա: Եթե պատմականորեն տղամարդ աշխատակիցներն ավելի հաճախ էին առաջխաղացվում, արհեստական բանականությունը կարող էր սովորել կապել բարձր ներուժ ունեցող տղամարդկանց շրջանում տարածված հաղորդակցման ոճերը կամ աշխատանքային ձևերը: Արդյունքը՞: Այն կարող է մշտապես ցածր գնահատական տալ կին աշխատակիցներին, նույնիսկ եթե նրանց իրական աշխատանքը նույնքան լավն է:
Սա ոչ միայն անբարոյական է, այլև Նիդեռլանդների և ԵՄ-ի խտրականության դեմ պայքարի օրենքների ուղղակի խախտում: Ալգորիթմը խտրական լինելու համար չարամիտ մտադրության կարիք չունի. արդյունքն է կարևորը հասարակության աչքում: օրենք.
- Օրինակ պրակտիկայում. Արհեստական բանականությունը նշում է, որ աշխատակցի արտադրողականությունը վեց ամսվա ընթացքում նվազում է։ Այն չի ճանաչում, որ այս ժամանակահատվածը համընկնում է օրենքով պաշտպանված ծնողական արձակուրդի հետ։ Համակարգը սխալմամբ ցածր արտադրողականությունը մեկնաբանում է որպես վատ կատարողական, անարդարացիորեն պատժելով աշխատակցին իր օրինական իրավունքներն իրականացնելու համար։
Թափանցիկության խնդիրը և «սև արկղը»
Շատ առաջադեմ արհեստական բանականության մոդելներ գործում են որպես «սև արկղեր»։ Սա դառնում է մեծ խնդիր, երբ աշխատակիցը ստանում է բացասական գնահատական և, բավականին տրամաբանականորեն, հարցնում է, թե ինչու։ Եթե ձեր միակ պատասխանն է՝ «որովհետև ալգորիթմն է այդպես ասել», ապա դուք ձախողում եք արդարության և իրավական թափանցիկության հիմնարար թեստը։
Այս անորոշությունը ստեղծում է անվստահության և անօգնականության մթնոլորտ: Աշխատակիցները չեն կարող սովորել հետադարձ կապից, եթե այն պարզապես գնահատական է՝ առանց դատողության, և նրանք, անշուշտ, չեն կարող վիճարկել այն որոշումը, որը չեն հասկանում:
ԵՄ օրենսդրության համաձայն, անհատներն իրավունք ունեն ստանալ հստակ և իմաստալից բացատրություն ավտոմատացված որոշումների վերաբերյալ, որոնք էականորեն ազդում են իրենց վրա: Համակարգը, որը չի կարող դա ապահովել, պարզապես չի համապատասխանում իրավական պահանջներին:
GDPR-ի և ավտոմատացված որոշումների կայացման խախտումներ
Ընդհանուր տվյալների պաշտպանության կանոնակարգը (GDPR) ԵՄ-ում տվյալների պաշտպանության անկյունաքարն է և ունի շատ կոնկրետ կանոններ ավտոմատացված համակարգերի համար: Ամենակարևորը հետևյալն է. Հոդված 22, որը խիստ սահմանափակումներ է դնում որոշումների վրա, որոնք հիմնված են Բացառապես ավտոմատացված մշակման վերաբերյալ, որն ունի իրավական կամ նմանատիպ նշանակալի ազդեցություն անհատի վրա։
Ի՞նչ է սա նշանակում կատարողականի կառավարման համար։
-
Նշանակալի ազդեցություն. Որոշումը, որը կարող է հանգեցնել բոնուսի մերժմանը, պաշտոնի իջեցմանը կամ աշխատանքից ազատմանը, անկասկած որակվում է որպես «նշանակալի ազդեցություն» ունեցող։
-
Միայն ավտոմատացված՝ Եթե արհեստական բանականությունը գեներացնում է կատարողականի գնահատական, իսկ մենեջերը պարզապես սեղմում է «հաստատել»՝ առանց որևէ իրական վերանայման (այս պրակտիկան հայտնի է որպես «ռետինե դրոշմ», դա դեռևս կարող է համարվել բացառապես ավտոմատացված որոշում։
-
Մարդու միջամտության իրավունք. Հոդված 22-ը աշխատողներին իրավունք է տալիս պահանջել մարդկային միջամտություն, արտահայտել իրենց տեսակետը և բողոքարկել որոշումը։
Արդյունավետության գնահատման համար արհեստական բանականություն օգտագործող գործատուն պետք է ունենա մարդկային իմաստալից վերահսկողության ամուր գործընթաց: Ղեկավարին անհրաժեշտ է լիազորություն, փորձագիտություն և ժամանակ՝ աշխատողի աշխատանքի ամբողջական պատկերացման հիման վրա արհեստական բանականության առաջարկությունը անտեսելու համար: Սա անտեսելը ոչ միայն վատ պրակտիկա է, այլև GDPR-ի ուղղակի խախտում, որը կարող է հանգեցնել մինչև... Ձեր ընկերության տարեկան գլոբալ շրջանառության 4%-ը.
Ստորև բերված աղյուսակը ներկայացնում է գործատուների համար այս հիմնական իրավական մարտահրավերները։
Ալգորիթմական կառավարման հիմնական իրավական ռիսկերը ԵՄ օրենսդրության համաձայն
| Իրավական ռիսկի ոլորտ | Ռիսկի նկարագրությունը | Համապատասխան ԵՄ/Նիդեռլանդների կանոնակարգ | Հնարավոր հետևանք |
|---|---|---|---|
| Խտրականություն | Կողմնակալ պատմական տվյալների վրա մարզված արհեստական բանականության համակարգերը կարող են շարունակել կամ ուժեղացնել պաշտպանված խմբերի նկատմամբ խտրականությունը (օրինակ՝ սեռի, տարիքի, էթնիկ պատկանելության հիման վրա): | Հավասար վերաբերմունքի մասին ընդհանուր օրենք (AWGB), Հավասար վերաբերմունքի մասին ԵՄ դիրեկտիվներ։ | Իրավական մարտահրավերներ, տուգանքներ, հեղինակությանը հասցված վնաս և որոշումների անվավեր ճանաչում։ |
| Թափանցիկություն (Սև արկղ) | Բացատրելու անկարողություն ինչպես Արհեստական բանականությունը հանգել է որոշակի եզրակացության՝ զրկելով աշխատակիցներին իրենց վերաբերող որոշումների հիմքը հասկանալու իրավունքից։ | GDPR (60-րդ, 71-րդ կետեր), առաջիկա ԵՄ արհեստական բանականության մասին օրենք։ | Աշխատակիցների հետ կապված վեճեր, վստահության խզում, GDPR-ի արդարության և թափանցիկության սկզբունքներին չհամապատասխանելը։ |
| Ավտոմատացված որոշումների ընդունում | Կարևոր որոշումների կայացում (օրինակ՝ աշխատանքից ազատում, պաշտոնի իջեցում)՝ հիմնվելով միայն ավտոմատացված մշակման վրա՝ առանց իմաստալից մարդկային վերահսկողության։ | GDPR-ի 22-րդ հոդված։ | Տուգանքներ՝ մինչև համաշխարհային տարեկան շրջանառության 4%-ը, որոշումները իրավաբանորեն կիրառելի չեն։ |
| Տվյալների պաշտպանություն և գաղտնիություն | Աշխատակիցների տվյալների չափազանց կամ անօրինական հավաքագրում և մշակում՝ արհեստական բանականության մոդելը սնուցելու համար, որը խախտում է գաղտնիության սկզբունքները։ | GDPR-ի 5-րդ, 6-րդ և 9-րդ հոդվածները։ | GDPR-ի զգալի տուգանքներ, տվյալների սուբյեկտների մուտքի հարցումներ և աշխատակիցների կողմից հնարավոր իրավական գործողություններ։ |
Քանի որ այս կանոնակարգերը զարգանում են, տեղեկացված լինելը կարևոր է: Որպեսզի հասկանաք, թե ինչպես են այս կանոնները դառնալու ավելի կոնկրետ, կարող եք ավելին իմացեք արհեստական բանականության իրավական կողմի և ԵՄ արհեստական բանականության մասին առաջիկա օրենքի մասինԿարգավորող մարմինների ուղերձը հստակ է. արդյունավետությունը երբեք չի կարող լինել մարդու հիմնարար իրավունքների հաշվին: Նախաձեռնող իրավական համապատասխանությունը պարզապես դաշտերը լրացնելու վարժություն չէ, այն բիզնեսի համար բացարձակ անհրաժեշտություն է:
Դասեր Նիդեռլանդների և ԵՄ դատարանների գործերից
Տեսական իրավական ռիսկերը մի բան են, բայց ինչպե՞ս են դատարանները իրականում որոշում կայացնում, երբ ալգորիթմը գնահատում է ձեր աշխատանքը: Պարզվում է, որ իրավական տեսությունն այժմ փորձարկվում է իրական աշխարհի վեճերում: Նիդեռլանդների և ԵՄ դատարաններից ի հայտ եկած նախադեպային իրավունքը հստակ ուղերձ է հղում. մարդկային վերահսկողության և հստակ բացատրության իրավունքը պարզապես հաճելի բան չէ, այլ պարտադիր:
Այս հեղափոխական գործերը ցույց են տալիս, որ դատավորները ավելի ու ավելի պատրաստակամ են միջամտել և պաշտպանել աշխատողների իրավունքները անթափանց կամ անարդար ավտոմատացված համակարգերից: Աշխատողների համար այս որոշումները պարզապես նախազգուշացումներ չեն. դրանք գործնական ճանապարհային քարտեզներ են, որոնք ցույց են տալիս, թե ինչ չպետք է անել:
Uber-ի դեպքը. Մարդկային վերանայման պահպանում
Ամենակարևոր որոշումներից մեկը կայացվել է դատարանի կողմից Amsterdam Uber-ի վարորդներին վերաբերող գործում։ Վարորդները խնդիր ունեին ընկերության ավտոմատացված համակարգի հետ, որը ալգորիթմի կողմից խարդախության հայտնաբերման հիման վրա անջատում էր նրանց հաշիվները՝ գործնականում փակելով դրանք։
Դատարանը պաշտպանեց վարորդներին՝ պաշտպանելով նրանց իրավունքները Հոդված 22 GDPR-ի։ Այն որոշեց, որ այնպիսի կյանքը փոխող որոշումը, ինչպիսին է աշխատանքից ազատումը, չի կարող թողնվել միայն ալգորիթմի վրա։ Այս կարևորագույն գործից եզրակացությունները բյուրեղյա պարզ էին.
-
Մարդու միջամտության իրավունք. Վարորդներն ունեն օրինական իրավունք, որ իրենց անջատման որոշումը վերանայվի իրական անձի կողմից, ով կարող է պատշաճ կերպով գնահատել իրավիճակի համատեքստը։
-
Բացատրություն ստանալու իրավունք. Uber-ին հանձնարարվեց տրամադրել իմաստալից տեղեկատվություն իր ավտոմատացված որոշումների տրամաբանության վերաբերյալ: «Խարդախ գործունեության» մասին անորոշ հղումը պարզապես բավարար չէր:
Այս դեպքը հզոր նախադեպ ստեղծեց։ Այն հաստատեց, որ երբ Արհեստական բանականությունը գործում է որպես ձեր մենեջեր, դրա որոշումները պետք է լինեն թափանցիկ և ենթարկվեն իրական մարդկային վերանայման, հատկապես, երբ մարդու ապրուստը կախված է մազից։
«Դատարանի որոշումը ընդգծում է հիմնարար սկզբունքը. արդյունավետությունն ու ավտոմատացումը չեն կարող գերակշռել անհատի պատշաճ դատավարության իրավունքին: Աշխատակիցը պետք է կարողանա հասկանալ և վիճարկել այն որոշումը, որը զգալիորեն ազդում է իր աշխատանքի վրա»:
SyRI-ի դեպքը. դիրքորոշում անթափանցիկ կառավարման ալգորիթմների դեմ
Չնայած որ դա ուղղակի զբաղվածության գործ չէր, Նիդեռլանդներում Համակարգային ռիսկի ցուցման (SyRI) ալգորիթմի դեմ կայացված որոշումը հսկայական հետևանքներ ունեցավ ավտոմատացված որոշումների կայացման բոլոր փուլերի համար: SyRI-ը կառավարական համակարգ էր, որն օգտագործվում էր սոցիալական ապահովության հետ կապված խարդախությունները հայտնաբերելու համար՝ տարբեր կառավարական գործակալությունների անձնական տվյալները կապելով և վերլուծելով:
Նիդեռլանդների դատարանը SyRI-ը հայտարարեց անօրինական, ոչ միայն գաղտնիության հետ կապված մտահոգությունների պատճառով, այլև այն պատճառով, որ դրա գործունեությունը հիմնարարապես անթափանց էր: Ոչ ոք չէր կարող բացատրել, թե ինչպես է այս «սև արկղի» ալգորիթմը անհատներին նույնականացրել որպես բարձր ռիսկի: Այս թափանցիկության լիակատար բացակայությունը համարվել է Մարդու իրավունքների եվրոպական կոնվենցիայի խախտում, քանի որ քաղաքացիները չեն կարողացել պաշտպանվել համակարգի եզրակացություններից:
Այս որոշումը ազդարարեց դատական անհանդուրժողականության աճող աճ այն համակարգերի նկատմամբ, որտեղ որոշումների կայացման գործընթացը առեղծված է։ Սկզբունքները ուղղակիորեն տարածվում են աշխատավայրի վրա։ Եթե գործատուն չի կարող բացատրել ինչու իրենց կատարողականի ալգորիթմը աշխատակցին ցածր գնահատական տվեց, նրանք կանգնած են շատ անկայուն իրավական հիմքերի վրա: Այս հարցերը բարդ են և շոշափում են բազմաթիվ ոլորտներ, այդ թվում՝ հարցեր այն մասին, թե ով է պատասխանատու, երբ մեքենայի որոշումը հանգեցնում է վնասի: Դուք կարող եք ավելի մանրամասն ուսումնասիրել այս հարցերը՝ կարդալով մեր ուղեցույցը Արհեստական բանականությունը և քրեական իրավունքը.
Դատական համակարգի ուղերձը հետևողական է. դատարանները կպաշտպանեն անհատներին ալգորիթմների անվերահսկելի ուժից: Անկախ նրանից, թե դա ժամանակավոր աշխատողի անջատումն է, թե քաղաքացու խարդախության մեջ մեղադրվելը, թափանցիկության, արդարության և իմաստալից մարդկային վերահսկողության պահանջը իրավական պահանջ է, որը գործատուները չեն կարող անտեսել:
Ձեր գործնական ուղեցույցը պատասխանատու արհեստական բանականության ներդրման համար
Իրավական տեսությունը իմանալը մի բան է, բայց այն գործնականում կիրառելն է ամենակարևորը, երբ ալգորիթմը գնահատում է ձեր թիմը։ Գործատուների համար սա նշանակում է վերացական ռիսկերից անցնել կոնկրետ գործողությունների, ստեղծել հստակ շրջանակ, որը հավասարակշռում է տեխնոլոգիական հավակնությունները իրավական պարտականությունների և աշխատակիցների վստահության հետ։
Խոսքը նորարարությունը արգելակելու մասին չէ, այլ այն պատասխանատու կերպով կառավարելու մասին է: Մտածված ներդրման պլանը ոչ միայն իրավական խնդիրներից խուսափելն է: Այն օգնում է ձևավորել մի մշակույթ, որտեղ աշխատակիցները արհեստական բանականությունը դիտարկում են որպես օգտակար գործիք, այլ ոչ թե թվային խնդիրների նոր տեսակ: Վերջնական նպատակը թափանցիկ, հաշվետու և, ամենակարևորը, արդար համակարգ է:
Լավ կողմից, հանրության վերաբերմունքը այս տեխնոլոգիաների նկատմամբ տաքանում է։ Արհեստական բանականության համակարգերի նկատմամբ վստահությունը մեծանում է Հոլանդիայի քաղաքացիների շրջանում, ընդ որում՝ 90% հիմա ծանոթ է արհեստական բանականությանը և մոտավորապես 50% ակտիվորեն օգտագործելով այն։ Ընկալումը նույնպես փոխվել է. 43% Հոլանդացիների մեծ մասն այժմ արհեստական բանականությունը համարում է միայն հնարավորություններ ներկայացնող, ինչը նկատելի աճ է 36% նախորդ տարի։ Դուք կարող եք ավելի մանրամասն ուսումնասիրել այս միտումը Նիդեռլանդները ընդունում է արհեստական բանականության մասին զեկույցըԱյս աճող ընդունումը արդար և բաց ներդրումը դարձնում է ավելի կարևոր, քան երբևէ։
Սկսեք տվյալների պաշտպանության ազդեցության գնահատումից
Նախքան նոր արհեստական ինտելեկտի համակարգ տեղադրելու մասին մտածելը, ձեր առաջին քայլը պետք է լինի տվյալների պաշտպանության ազդեցության գնահատումը (DPIA): Սա պարզապես բարեկամական առաջարկ չէ. GDPR-ի համաձայն, դա իրավական պահանջ է ցանկացած տվյալների մշակման համար, որը կարող է մեծ ռիսկ ներկայացնել մարդկանց իրավունքների և ազատությունների համար: Արհեստական ինտելեկտի վրա հիմնված կատարողականի կառավարումը անկասկած ընկնում է այդ կատեգորիայի մեջ:
Պատկերացրեք, որ DPIA-ն անձնական տվյալների պաշտոնական ռիսկի գնահատում է։ Այն ստիպում է ձեզ համակարգված կերպով նախագծել, թե ինչպես է գործելու ձեր արհեստական բանականության համակարգը և ինչը կարող է սխալ ընթանալ։
Գործընթացը ներառում է մի քանի հիմնական փուլ՝
-
Մշակման նկարագրությունը. Դուք պետք է հստակ ուրվագծեք, թե ինչ տվյալներ է հավաքելու արհեստական բանականությունը, որտեղից են դրանք գալիս և ճշգրիտ ինչ եք պլանավորում անել դրանցով։
-
Անհրաժեշտության և համաչափության գնահատում. Դուք պետք է հիմնավորեք, թե ինչու է անհրաժեշտ յուրաքանչյուր տվյալ և ապացուցեք, որ մոնիթորինգի մակարդակը չափազանց չէ ձեր նշված նպատակների համար։
-
Ռիսկերի բացահայտում և գնահատում. Նշեք ձեր աշխատակիցների համար բոլոր հնարավոր վտանգները՝ սկսած խտրականությունից և կողմնակալությունից մինչև թափանցիկության բացակայություն կամ սխալներ, որոնք հանգեցնում են անարդար հետևանքների։
-
Պլանավորման մեղմացնող միջոցառումներ. Ձեր կողմից հայտնաբերված յուրաքանչյուր ռիսկի համար դուք պետք է ուրվագծեք այն լուծելու կոնկրետ քայլեր, ինչպիսիք են մարդկային վերահսկողության ներդրումը կամ տվյալների անանունացման տեխնիկաների կիրառումը, որտեղ հնարավոր է։
Ձեր թիմի հետ միասին պաշտպանեք արմատական թափանցիկությունը
Ոչինչ այնքան արագ չի սպանում վստահությունը, որքան անթափանցիկությունը, հատկապես արհեստական բանականության դեպքում։ Ձեր աշխատակիցներն իրավունք ունեն իմանալ, թե ինչպես են իրենց գնահատում, և ձեր իրավական և էթիկական պարտականությունն է տրամադրել հստակ պատասխաններ։ «Տվյալների վրա հիմնված պատկերացումների» մասին կորպորատիվ անորոշ խոսակցությունները պարզապես բավարար չեն։
Ձեր թափանցիկության քաղաքականությունը պետք է լինի հստակ, մանրամասն և բոլորի համար հեշտ գտնելի։ Այն պետք է հստակորեն ներառի.
-
Ինչ տվյալներ են հավաքագրվում՝ Անկեղծ եղեք համակարգի կողմից հետևվող յուրաքանչյուր տվյալի վերաբերյալ, լինի դա էլեկտրոնային նամակների արձագանքման ժամանակը, գրված կոդի տողերը, թե հաճախորդների զանգերից ստացված տրամադրությունների վերլուծությունը։
-
Ինչպես է աշխատում ալգորիթմը. Դուք պետք է տրամադրեք համակարգի տրամաբանության իմաստալից բացատրություն: Բացատրեք համակարգի կատարողականը գնահատելու համար օգտագործվող հիմնական չափանիշները և թե ինչպես են այդ գործոնները կշռվում:
-
Մարդկային վերահսկողության դերը. Հստակեցրեք, թե ով ունի լիազորություններ վերանայելու և չեղյալ համարելու արհեստական բանականության արդյունքները, և ինչ կոնկրետ հանգամանքներում նրանք կարող են միջամտել։
Թափանցիկ գործընթացը թույլ չի տալիս, որ համակարգը անվիճելի «սև արկղի» տպավորություն թողնի։ Այն աշխատակիցներին տրամադրում է անհրաժեշտ տեղեկատվությունը՝ հասկանալու համար, թե ինչ չափանիշներ են նրանք պարտավորեցնում պահպանել, ինչը հիմնարար նշանակություն ունի արդարության և վերահսկողության զգացողության համար։
Կառուցեք ամուր մարդկային վերահսկողության գործընթաց
GDPR-ի կարևորագույն կանոններից մեկն այն է, որ նշանակալի իրավական կամ անձնական հետևանքներ ունեցող որոշումը չի կարող հիմնված լինել Բացառապես ավտոմատացված մշակման վրա: Սա «նշանակալից մարդկային միջամտությունը» դարձնում է անվիճելի իրավական պահանջ: Եվ պարզ լինելու համար, կառավարչի կողմից արհեստական բանականության առաջարկության վրա «հաստատել» սեղմելը չի հաշվվում:
Իսկապես կայուն վերահսկողության գործընթացը պահանջում է մի քանի հիմնական բաղադրիչներ.
-
Author: Արհեստական բանականության արդյունքը վերանայող անձը պետք է ունենա իրական իշխանություն և ինքնավարություն՝ չհամաձայնվելու դրա եզրակացության հետ և այն չեղյալ համարելու համար։
-
Իրավասություն. Նրանք կարիք ունեն համապատասխան վերապատրաստման և բիզնես համատեքստի՝ հասկանալու համար թե՛ ընկերության նպատակները, թե՛ յուրաքանչյուր աշխատակցի յուրահատուկ իրավիճակը, ներառյալ այն գործոնները, որոնք ալգորիթմը կարող է բաց թողնել։
-
Time: Վերանայումը չի կարող լինել շտապողական, վանդակները լրացնելու վարժություն: Վերանայողը պետք է ունենա բավարար ժամանակ՝ վերջնական, անկախ դատողություն կայացնելուց առաջ բոլոր ապացույցները պատշաճ կերպով քննարկելու համար:
Այս մարդկային-գործընթացային համակարգը ձեր ամենակարևոր պաշտպանությունն է ալգորիթմական սխալներից և թաքնված կողմնակալություններից։ Այն ապահովում է, որ համատեքստը, նրբերանգները և կարեկցանքը՝ որակներ, որոնք արհեստական բանականությունը պարզապես չունի, մնան ձեր մարդկանց կառավարման հիմքում։
Այս բոլոր քայլերը միասին ամփոփելու համար ահա գործնական ստուգաթերթիկ, որը գործատուները կարող են օգտագործել իրենց իրականացման գործընթացը ուղղորդելու համար։
Արհեստական բանականության արդյունավետության համակարգերի գործատուի համապատասխանության ստուգաթերթիկ
Այս ստուգաթերթիկը կառուցվածքային մոտեցում է տրամադրում գործատուներին՝ ապահովելու համար, որ իրենց արհեստական բանականության գնահատման գործիքները ներդրվեն այնպես, որ համապատասխանեն Նիդեռլանդների և ԵՄ հիմնական իրավական պահանջներին, ներառյալ GDPR-ը և արդարության ու թափանցիկության սկզբունքները։
| Համապատասխանության քայլ | Անհրաժեշտ հիմնական գործողություն | Ինչու է դա կարևոր |
|---|---|---|
| 1. Անցկացնել DPIA | Համակարգը տեղակայելուց առաջ լրացրեք տվյալների պաշտպանության ազդեցության գնահատում: Բացահայտեք և փաստաթղթավորեք աշխատողների իրավունքներին սպառնացող բոլոր հնարավոր ռիսկերը: | Իրավականորեն պարտադիր է GDPR-ի համաձայն՝ բարձր ռիսկային մշակման համար: Օգնում է նախաձեռնողաբար բացահայտել և մեղմել իրավական և էթիկական թակարդները, ինչպիսին է խտրականությունը: |
| 2. Սահմանել իրավական հիմք | Հստակ սահմանեք և փաստաթղթավորեք GDPR-ի 6-րդ հոդվածի համաձայն աշխատակիցների տվյալների մշակման իրավական հիմքը (օրինակ՝ օրինական շահագրգռվածություն, պայմանագիր): | Ապահովում է տվյալների մշակման օրինականությունը սկզբից ի վեր: «Օրինական շահագրգռվածություն» հասկացության կիրառումը պահանջում է գործատուի կարիքների և աշխատողի գաղտնիության իրավունքների միջև հավասարակշռություն: |
| 3. Ապահովել լիարժեք թափանցիկություն | Ստեղծեք հստակ, մատչելի քաղաքականություն, որը կբացատրի, թե ինչ տվյալներ են հավաքվում, ինչպես է աշխատում ալգորիթմը և գնահատման համար օգտագործվող չափանիշները: Տեղեկացրեք բոլոր տուժած աշխատակիցներին: | Կատարում է GDPR-ի թափանցիկության պահանջը (հոդվածներ 13 և 14): Բարձրացնում է աշխատակիցների վստահությունը և նվազեցնում է համակարգը որպես անարդար «սև արկղ» ընկալվելու ռիսկը: |
| 4. Մարդկային վերահսկողության իրականացում | Մշակեք արհեստական բանականության կողմից պայմանավորված կարևոր որոշումների (օրինակ՝ ազատումներ, պաշտոնի իջեցումներ) իմաստալից մարդկային վերանայման գործընթաց: Վերանայողը պետք է ունենա արհեստական բանականության որոշումը չեղյալ համարելու լիազորություն: | GDPR-ի 22-րդ հոդվածի իրավական պահանջ։ Այն հանդես է գալիս որպես ալգորիթմական սխալների, կողմնակալության և համատեքստի բացակայության դեմ կարևորագույն պաշտպանություն։ |
| 5. Կողմնակալության ստուգում | Կանոնավոր կերպով աուդիտի ենթարկեք ալգորիթմը և դրա արդյունքները՝ պաշտպանված բնութագրերի (տարիք, սեռ, էթնիկ պատկանելություն և այլն) հիման վրա խտրական օրինաչափությունները ստուգելու համար։ | Կանխում է խտրականության դեմ պայքարի օրենքների խախտումները: Ապահովում է, որ գործիքը գործնականում արդար լինի և ակամա չհանգեցնի որոշակի աշխատակիցների խմբերի անբարենպաստ վիճակի: |
| 6. Ապահովել մարտահրավերների մեխանիզմ | Սահմանել աշխատակիցների համար հստակ և մատչելի ընթացակարգ՝ ավտոմատացված որոշումը հարցականի տակ դնելու, վիճարկելու և վերանայման խնդրանք ներկայացնելու համար։ | Պաշտպանում է աշխատակցի՝ GDPR-ի համաձայն բացատրություն և մարդկային միջամտություն ստանալու իրավունքը։ Խթանում է հաշվետվողականությունը և ընթացակարգային արդարությունը։ |
| 7. Փաստաթղթավորել ամեն ինչ | Պահպանեք ձեր DPIA-ի, կողմնակալության թեստավորման արդյունքների, թափանցիկության ծանուցումների և մարդկային վերահսկողության գործընթացի մանրամասն գրառումները։ | Համապատասխանության ապացույց է տրամադրում Հոլանդիայի տվյալների պաշտպանության մարմնի կողմից աուդիտի դեպքում (Անձնական տվյալների մարմին) կամ իրավական մարտահրավեր։ |
Հետևելով այս ստուգաթերթիկին՝ դուք կարող եք օգտագործել արհեստական բանականության հզորությունը՝ գնահատել կատարողականը ոչ միայն արդյունավետ, այլև էթիկապես և իրավական առումով՝ այդ ընթացքում ամրապնդելով ձեր պարտականությունները ձեր թիմի նկատմամբ։
Ձեր իրավունքները, երբ ալգորիթմը ձեր կառավարիչն է
Ձեր կատարողականի գնահատման մեջ ալգորիթմի ներգրավվածության բացահայտումը կարող է աներևակայելիորեն հուսահատեցնող թվալ։ Սակայն կարևոր է հասկանալ, որ Նիդեռլանդների և ԵՄ օրենսդրության համաձայն՝ դուք ամենևին էլ անօգնական չեք։ Դուք ունեք հատուկ, կիրառելի իրավունքներ, որոնք նախատեսված են ձեզ ավտոմատացված որոշումների կայացման կույր կետերից պաշտպանելու համար։
Այս իրավիճակում ձեր ամենահզոր վահանը Տվյալների պաշտպանության ընդհանուր կանոնակարգն է (GDPR): Այն ձեզ տրամադրում է մի շարք հիմնարար իրավունքներ, որոնք հատկապես կարևոր են դառնում, երբ... Արհեստական բանականությունը ձեր մենեջերն էՍրանք պարզապես ուղեցույցներ չեն. դրանք իրավական պարտականություններ են, որոնք ձեր գործատուն պետք է կատարի։
Ձեր հիմնական իրավունքները՝ համաձայն GDPR-ի
Ձեր պաշտպանության հիմքում ընկած են երեք հիմնական իրավունքներ, որոնք հզոր վերահսկողություն են ապահովում ավտոմատացված համակարգերի նկատմամբ: Դրանք իմանալը ձեզ լիազորում է գործել, եթե կարծում եք, որ որոշումը անարդար է կամ չունի պատշաճ բացատրություն:
-
Ձեր տվյալներին մուտք գործելու իրավունքը. Դուք կարող եք պաշտոնապես խնդրել ձեր գործատուի կողմից ձեր մասին պահվող բոլոր անձնական տվյալների պատճենը։ Սա ներառում է նաև այն ճշգրիտ տվյալները, որոնք մուտքագրվում են աշխատանքի գնահատման ալգորիթմում, ինչը թույլ է տալիս տեսնել, թե ինչ տեղեկատվություն է օգտագործվում ձեր աշխատանքը գնահատելու համար։
-
Բացատրություն ստանալու իրավունքը. Դուք իրավունք ունեք ստանալ «իմաստալից տեղեկատվություն ցանկացած ավտոմատացված որոշման մեջ ներգրավված տրամաբանության մասին»։ Ձեր գործատուն չի կարող պարզապես ասել՝ «համակարգիչն է որոշել»։ Նրանք պետք է բացատրեն, թե ինչ չափանիշներ է օգտագործում համակարգը և ինչու է այն ձեր մասին որոշակի եզրակացության հանգել։
-
Բողոքարկման և մարդկային վերանայման իրավունքը. Սա, թերևս, ձեր ամենակարևոր իրավունքն է։ Համաձայն GDPR-ի Հոդված 22, դուք իրավունք ունեք վիճարկել միայն ալգորիթմի կողմից կայացված որոշումը և պահանջել, որ այն վերանայվի մարդու կողմից։ Այս անձը պետք է ունենա լիազորություններ՝ պատշաճ կերպով վերանայելու ապացույցները և կայացնելու նոր, անկախ դատողություն։
Օրենքը հստակ է. կարևոր որոշումը, օրինակ՝ ձեր բոնուսի, պաշտոնի բարձրացման կամ աշխատանքային կարգավիճակի վրա ազդող որոշումը, չի կարող թողնվել միայն ալգորիթմի վրա: Դուք ունեք բացարձակ իրավունք, որ անձը միջամտի:
Ինչպես մարտահրավեր նետել արհեստական բանականության կողմից ստեղծված գնահատմանը
Եթե ստանում եք անարդար կամ ամբողջովին անհամապատասխան գնահատական, կարող եք և պետք է միջոցներ ձեռնարկեք։ Իրավիճակին համակարգված մոտենալը ձեր գործին կտա հաջողության հասնելու լավագույն հնարավորությունները։
-
Տեղեկություններ հավաքել. Նախքան որևէ մեկի հետ խոսելը, գրանցեք ամեն ինչ։ Պահեք կատարողականի գնահատման պատճենը, նշեք կոնկրետ աշխատանքային օրինակներ, որոնք, ձեր կարծիքով, անտեսվել են, և թվարկեք բոլոր համատեքստային գործոնները, որոնք ալգորիթմը կարող էր բաց թողնել (օրինակ՝ գործընկերներին օգնելը կամ դժվար նախագծում կողմնորոշվելը):
-
Ներկայացրեք պաշտոնական հարցում. Կազմեք պաշտոնական հարցում ձեր մարդկային ռեսուրսների բաժնին: Հստակ նշեք, որ դուք օգտվում եք GDPR-ի համաձայն ձեր իրավունքներից: Խնդրեք ձեր գնահատման մեջ օգտագործված անձնական տվյալների պատճենը և ալգորիթմի տրամաբանության մանրամասն բացատրությունը:
-
Մարդկային վերանայման հարցում. Հստակորեն նշեք, որ դուք վիճարկում եք ավտոմատացված որոշումը և խնդրում եք վերանայել այն չեղյալ համարելու լիազորություն ունեցող ղեկավարի կողմից։
Այս կանոնակարգերին հետևելը կարող է բարդ լինել, հատկապես, քանի որ տեխնոլոգիան շարունակում է զարգանալ։ Դուք կարող եք ավելի խորը պատկերացում կազմել՝ ուսումնասիրելով, թե ինչպես Տվյալների գաղտնիությունը զարգանում է արհեստական բանականության և մեծ տվյալների հետ՝ GDPR-ի ներքո.
Հոլանդական աշխատանքային խորհրդի դերը
Նիդեռլանդներում կա պաշտպանության մեկ այլ հզոր շերտ՝ Աշխատանքային խորհուրդը (Օնդերնեմինգսրաադ կամ ԿԱՄ)։ Ցանկացած ընկերության համար, որն ունի 50 կամ ավելի աշխատակիցներ, Աշխատակազմի աշխատակազմն ունի օրինական համաձայնություն աշխատակիցների կատարողականի մոնիթորինգի համար օգտագործվող ցանկացած համակարգի ներդրման կամ խոշոր փոփոխության վերաբերյալ։
Սա նշանակում է, որ ձեր գործատուն չի կարող պարզապես արհեստական բանականության մենեջեր տեղադրել՝ առանց նախապես ձեր աշխատակիցների ներկայացուցիչների հաստատումը ստանալու։ Աշխատանքային շտաբի (ՕԳ) աշխատանքն է ապահովել, որ ցանկացած նոր համակարգ արդար լինի, թափանցիկ լինի և հարգի աշխատակիցների գաղտնիությունը։ մինչեւ այն միշտ գործարկվում է։ Եթե մտահոգություններ ունեք, ձեր աշխատանքային խորհուրդը կարևոր դաշնակից է։
Հաճախակի տրվող հարցեր արհեստական բանականության արդյունավետության գնահատականների վերաբերյալ
Երբ ալգորիթմը ազդում է ձեր կատարողականի գնահատման վրա, դա, բնականաբար, բազմաթիվ գործնական հարցեր է առաջացնում թե՛ աշխատակիցների, թե՛ գործատուների համար: Հիմնական հարցերի վերաբերյալ պարզություն ունենալը կարևոր է: Ահա ամենատարածված մտահոգությունների մի քանի պարզ պատասխաններ:
Կարո՞ղ եմ ինձ աշխատանքից ազատել միայն արհեստական բանականության որոշման հիման վրա։
Կարճ ասած՝ ոչ։ Հոդված 22 GDPR-ի համաձայն, որոշումը, որն ունի էական իրավական հետևանքներ, ինչպիսին է ձեր աշխատանքային պայմանագրի դադարեցումը, չի կարող հիմնված լինել Բացառապես ավտոմատացված մշակման վերաբերյալ։ Օրենքը պահանջում է իմաստալից մարդկային միջամտություն։
Գործատուն, որը ձեզ ազատում է աշխատանքից միայն արհեստական բանականության արդյունքների հիման վրա՝ առանց փաստերի իրական և անկախ մարդկային վերանայման, գրեթե անկասկած կխախտի ձեր իրավունքները՝ համաձայն GDPR-ի և Նիդեռլանդների աշխատանքային օրենսդրության։
Ի՞նչ իրավունք ունեմ իմանալու արհեստական բանականության համակարգի մասին։
Դուք ունեք թափանցիկության հիմնարար իրավունք։ Եթե ձեր ընկերությունը օգտագործում է Արհեստական բանականությունը որպես ձեր մենեջեր, նրանք իրավաբանորեն պարտավոր են տեղեկացնել ձեզ դրա մասին և տրամադրել իմաստալից տեղեկատվություն դրա տրամաբանության վերաբերյալ։
Սա նշանակում է, որ նրանք պետք է պարզաբանեն.
-
Ալգորիթմի կողմից մշակվող տվյալների կոնկրետ տեսակները։
-
Գնահատման համար օգտագործվող հիմնական չափանիշները։
-
Համակարգի արդյունքների հնարավոր հետևանքները։
Դուք նաև իրավունք ունեք խնդրելու մուտք գործել համակարգի կողմից ձեր մասին հավաքված բոլոր անձնական տվյալներին։
Կառավարչի պարզ «կնիք»-ը իրավաբանորեն բավարար չէ: Եվրոպական տվյալների պաշտպանության մարմինները պահանջում են «իմաստալից մարդկային վերահսկողություն», որտեղ վերանայողն ունի իրական լիազորություններ, փորձագիտություն և ժամանակ՝ ապացույցները վերլուծելու և անկախ դատողություն կայացնելու համար:
Արդյո՞ք մենեջերի կողմից միայն արհեստական բանականության որոշման հաստատումը բավարար է։
Բացարձակապես ոչ։ Այս տեսակի գործելակերպը չի համապատասխանում իրավական չափանիշին։ Արագ հաստատումը՝ առանց իրական, բովանդակային վերանայման, չի համարվում իմաստալից մարդկային վերահսկողություն։
Մարդ-վերանայողը պետք է ունենա իրական իրավասություն և կարողություն՝ վերլուծելու իրավիճակը, հաշվի առնելու այն գործոնները, որոնք արհեստական բանականությունը կարող է բաց թողնել (օրինակ՝ թիմային աշխատանք, անկանխատեսելի խոչընդոտներ կամ այլ համատեքստ) և կայացնելու անկախ որոշում: Ալգորիթմի եզրակացության հաստատումը պարզապես ռիսկային քայլ է, որը ընկերությանը ենթարկում է էական իրավական մարտահրավերների: